Shannon (Einheit)
Shannon (abgekürzt Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Einheit für den Informationsgehalt einer Nachricht. Die Einheit Shannon ist identisch mit der in der Realität häufiger verwendeten Einheit Bit (großgeschrieben – im Gegensatz zu bit, das ein binäres Symbol bezeichnet).
Definition
BearbeitenEin Shannon (1 Sh) ist eine Einheit für das Maß an Information in einer Nachricht. Dabei wird die Nachricht durch eine Zeichenmenge sowie durch die Wahrscheinlichkeiten pi, mit denen die einzelnen Zeichen in der Nachricht auftauchen, beschrieben. Eine solche Nachricht besitzt nach Definition den folgenden, in Shannon gemessenen, Informationsgehalt von
Die Einheit Sh ergibt sich aus der von Claude Shannon begründeten Informationstheorie und entspricht der Entropie der betreffenden Nachrichtenquelle und in der Biometrie dem Shannon-Index einer Population unterschiedlicher Spezies.
Beispiele
Bearbeiten- Das einfachste Beispiel: Eine einmalige Nachricht aus dem Zeichenvorrat , wobei beide Zeichen mit der Wahrscheinlichkeit von je 0,5 auftreten, hat den Informationsgehalt .
- Wenn der Zeichenvorrat aus zehn Zeichen, etwa besteht, wobei wieder alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, dann beträgt der Informationsgehalt . Das kann man so interpretieren, dass man auf jeden Fall mit einer 4-bit-Kodierung auskommt, um solche Nachrichten zu übertragen (dies wird etwa durch den BCD-Code realisiert), dass dabei aber noch Redundanz vorhanden ist. Beim BCD-Code äußert sich diese Redundanz so, dass von den 16 unterschiedlichen Zeichen, die mit diesem Code dargestellt werden können, nur 10 wirklich auftreten.
Normung
BearbeitenBegriffsfestlegungen zu Einheiten des Entscheidungsgehalts in der Informationstheorie findet man in den internationalen Normen IEC 60027-3 und ISO 2382-16. Dort ist neben der auf dem Logarithmus zur Basis 2 beruhenden Einheit Shannon noch das auf dem Zehner-Logarithmus beruhende Hartley (Einheitenzeichen: Hart) und die auf dem natürlichen Logarithmus beruhende natürliche Informationseinheit (Einheitenzeichen: nat) erklärt.
Literatur
Bearbeiten- Johann Blieberger, Bernd Burgstaller, Gerhard Helge Schildt: Informatik – Grundlagen. 4. Auflage, Springer Verlag, Wien 2002, ISBN 978-3-211-83710-8.
Weblinks
Bearbeiten- Roland Brackmann: Shannons Theorie. 28. April 2005, abgerufen am 26. Februar 2018 (PDF; 160 kB).
- Information, Entropie, Kodierungstheorem von Shannon. 21. April 2008, abgerufen am 26. Februar 2018 (PDF; 243 kB).
- R.G. Spallek: Rechnerarchitektur I – Informationsdarstellung. 2004, abgerufen am 26. Februar 2018 (PDF; 117 kB).
Einzelnachweise
Bearbeiten- ↑ Nachrichten für Dokumentation 49 (4), 1998, S. 221–224.