A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

 

 

Informationsentropie

Mass für die bei der Aufklärung des Zustandes eines Systems gewonnene Information unter der Bedingung, dass die Menge aller möglichen Systemzustände und deren Wahrscheinlichkeiten bekannt sind. C.E. Shannon (1949) definierte die Informationsentropie H alsInformationsentropie,

d.h. als gewichtetes Mittel über alle möglichen N Systemzustände i mit deren Wahrscheinlichkeiten pi. Es ist üblich, die Basis b = 2 zu wählen und die Information in bit anzugeben. Die Informationsentropie H und die Entropie S im Sinne der statistischen Physik sind einander proportional,

Informationsentropie

(k: Boltzmann-Konstante). Ein wichtiger Spezialfall sind Systeme mit N gleichwahrscheinlichen Zuständen, für die Informationsentropie gilt.

 

<< vorhergehender Begriff
nächster Begriff >>
Informationselektronik
InformationsmassNichtlineare Dynamik, Chaos, Fraktale

 

Diese Seite als Bookmark speichern :

 

Weitere Begriffe : Saugmotor | p-i-n-Photodiode | Kraftaufnehmer

Übersicht | Themen | Unser Projekt | Grosse Persönlichkeiten der Technik | Impressum | Datenschutzbestimmungen