Übungsaufgaben zur Informationstheorie
Lehrbuch f. Informatiker, Mathematiker u. alle Naturwissenschaftler ab 3. Semester.
Leider schon ausverkauft
versandkostenfrei
Buch (Kartoniert)
Fr. 64.90
inkl. MwSt.
- Kreditkarte, Paypal, Rechnungskauf
- 30 Tage Widerrufsrecht
Produktdetails
Produktinformationen zu „Übungsaufgaben zur Informationstheorie “
Inhaltsverzeichnis zu „Übungsaufgaben zur Informationstheorie “
1. Zahlensysteme und Kombinatorik.- 1.1. Zahlensysteme.- 1.1.1. Zahlendarstellungen.- 1.1.2. Darstellung einer rationalen Zahl in einem System mit der Basis x.- 1.1.3. Umwandlung der Basis.- 1.1.4. Binärsysteme und Systeme, die sich darauf zurückführen lassen.- 1.2. Kombinatorik.- 1.2.1. Permutationen.- 1.2.2. Variationen ohne Wiederholung.- 1.2.3. Kombinationen.- 1.2.4. Permutationen mit Wiederholungen.- 1.2.5. Kombinationen mit Wiederholungen.- 2. Wahrscheinlichkeitsrechnung.- 2.1. Allgemeines.- 2.2. Bedingte Wahrscheinlichkeiten.- 2.3. Der Satz von Bayes.- 2.4. Zufallsvariable.- 3. Statistik.- 3.1. Grundbegriffe.- 3.2. Graphische Darstellungen.- 3.2.1. Stabdiagramme.- 3.2.2. Histogramme.- 3.2.3. Diagramm der kumulativen Häufigkeiten.- 3.3. Charakteristische Parameter einer Häufigkeitsverteilung.- 3.3.1. Lageparameter.- 3.3.2. Streuungsparameter.- 3.3.3. Berechnung von Mittelwert und Varianz 5.- 3.4. Gesetz der Statistik.- 3.4.1. Relative Häufigkeit und Wahrscheinlichkeit.- 3.4.2. Statistische Gesetzmässigkeiten und ihre Interpretation.- 3.4.3. Charakteristische Parameter einer Verteilung.- 3.4.4. Wichtige Wahrscheinlichkeitsverteilungen.- 3.4.5. Statistische Interpretation.- 4. Informationstheorie.- 4.1. Definitionen.- 4.2. Abzählung der verschiedenen möglichen Nachrichten.- 4.2.1. Das Exponentialgesetz für die Anzahl der verschiedenen möglichen Nachrichten.- 4.2.2. Die Informationsrate.- 4.2.3. Nachrichten einer Informationsquelle mit stationären statistischen Eigenschaften.- 4.3. Die Entropie.- 4.3.1. Einführung des Begriffes "Entropie".- 4.3.2. Eigenschaften der Entropie.- 4.3.3. Kopplung und bedingte Entropie.- 4.3.4. Entropie und Information.- 4.4. Codierung und Übertragung der Information.- 4.4.1. Codierung der Nachrichten.- 4.4.2. Übertragung einer Information auf einem binären Übertragungskanal.- 5. Fehler erkennende und Fehler korrigierende Codes.- 5.1. Allgemeines über Codierung.- 5.1.1. Übertragung einer Information.- 5.1.2. Nutzen der Redundanz bei der
... mehr
Übertragung einer Information.- 5.1.3. Der Code von Hamming.- 5.1.4. Fehler erkennende und Fehler korrigierende redundante Codes.- 5.2. Lineare Codes.- 5.2.1. Abstand der Vektoren eines Codes.- 5.2.2. Darstellung linearer Codes durch Matrizen.- 5.2.3. Der duale Code.- 5.2.4. Äquivalente Codes.- 5.2.5. Erkennung eines einfachen Fehlers.- 5.2.6. Korrektur der Fehler - das Standard-Schema.- 5.2.7. Bestimmung der Code-Worte.- 5.3. Zyklische binäre Codes.- 5.3.1. Darstellung einer binären Folge durch ein Polynom.- 5.3.2. Das erzeugende Polynom eines zyklischen Codes.- 5.3.3. Erkennung und Korrektur von Fehlern.- 5.3.4. Verwirklichung zyklischer Codes.- 5.4. Verkettete Codes.- 5.4.1. Übergangsmatrizen.- 5.4.2. Notwendige und hinreichende Bedingungen für Ketten.- 5.4.3. Erkennung und Korrektur der Fehler.- 1. Zerlegung von a und b in Primfaktoren.- 3. Mögliche Werte von n.- 4. Spezialfall.- 5. Beispiele.- Anhang 2: Codierung numerischer Informationen - Die wichtigsten Codes.-1. Änderung der Basis und Codierung.- 2. Binärcodierung einer Dezimalzahl.- 3. Die wichtigsten binären Codes.- 3.1. Codes mit Gewichten.- 3.1.1. Reiner Binärcode.- 3.1.2. Neuner-Komplement.- 3.1.3. Code mit den Gewichten 2, 4, 2, 1..- 3.1.4. Code mit den Gewichten 5, 4, 2,1..- 3.2. Codes ohne Gewichte.- 3.2.1. Drei-Exzess-Code.- 3.2.2. Reflexiver Binärcode.- 3.2.3. Binärer Code, bei dem jede Folge wenigstens eine und höchstens zwei Einsen enthält.- 4. Fehler erkennende Codes oder redundante Codes.- 4.1. Der biquinäre Code.- 4.2. "Zwei aus Fünf"-Codes.- Anhang 3: Codes die besonderen Erfordernissen entsprechen.- 1. Ein Code, der es gestattet, einen einzelnen Fehler oder eine Vertauschung zweier Ziffern in einer Zahl mit der Basis b zu erkennen.- 1.1. Fehlererkennung und Fehlerkorrektur.- 1.1.1. Fehlererkennung.- 1.1.2. Korrektur eines Fehlers.- 1.1.3. Beispiele.- 1.2. Erkennung von zwei Arten von Fehlern.- 1.2.1. Arten von Fehlern die erkannt werden.- 1.2.2. Erkennung von Fehlern und die Kontrollzahl.- 1.2.3. Darstellung der Kontrollzahl.- 1.2.4. Praktische Methode zur Berechnung der Kontrollzahl S.- 2. Codes, die es gestatten, Fehlergruppen zu korrigieren (Telegraphische Übertragung).- 2.1. Eigenschaften systematischer Codes.- 2.2. Korrektur der Fehlergruppen.- 2.4. Beispiel.- 3. Ein Code, der es gestattet, einen einfachen Fehler zu korrigieren, der nacheinander an derselben Stelle in den Teilen einer Nachricht auftritt.- 3.1. Restklassen modulo p.- 3.2. Fehlererkennung und -korrektur.- 3.3. Beispiele.- Anhang 4: Vektoren und Matrizen - Der n-dimensionale Vektorraum.- 1. Struktur des Vektorraumes.- 2. Unterräume.- 3. Lineare Unabhängigkeit von Unterräumen.- 4. Die Basis eines Vektorraumes.- 5. Rang einer Menge von p Vektoren in einem Unterraum F von E.- 6. Matrizen, die ein Vektorsystem darstellen.- 7. Kanonische Form einer (m, n)-Matrix.- 8. Matrizenoperationen zur Reduktion einer regulären Matrix auf ihre kanonische Form.- 9. Orthogonale Unterräume.- 10.
... weniger
Bibliographische Angaben
- Autor: Maurice Denis-Papin
- 1972, 200 Seiten, Masse: 23,5 cm, Kartoniert (TB), Deutsch
- Verlag: Vieweg+Teubner
- ISBN-10: 3528035285
- ISBN-13: 9783528035280
Kommentar zu "Übungsaufgaben zur Informationstheorie"
0 Gebrauchte Artikel zu „Übungsaufgaben zur Informationstheorie“
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Übungsaufgaben zur Informationstheorie".
Kommentar verfassen