Dies ist eine statische Kopie unseres alten Forums. Es sind keine Interaktionen möglich.
This is a static copy of our old forum. Interactions are not possible.

leanh2

Praktikant

  • "leanh2" is male
  • "leanh2" started this thread

Posts: 7

Date of registration: Feb 25th 2012

Location: Hannover

1

Tuesday, August 20th 2013, 6:18pm

Entropie der Quelle nach der Quellencodierung

Moin,
Bei der Klausurvorbereitung habe ich folgendes Problem bekommen:
In dem Nachrichtenübertragungsystem werden die Quellensignale codiert, um Redundanz zu eliminieren. Die Quelle hat dann nach der Codierung weniger Bits. Aber dann ist die Entropie der Quelle kleiner, größer oder bleibt gleich ?
Entropie der Quelle ist der mitllere Informationsgehalt und hängt von der Auftrittswahrscheinlichkeit der Quellensymbolen ab .

Was ist eure Meinung ?
Gruss
LA

Rick

Mädchen

  • "Rick" is male

Posts: 1,266

Date of registration: Mar 17th 2004

Location: ::1/128

Occupation: Forentroll

2

Wednesday, August 21st 2013, 10:37am

Ist Entropie als Funktion ueber Zeit oder als Funtion ueber Bit definiert?
Unter der Annahme, dass die Quelle konstante Bitrate und konstante Entriopie hat:
Wenn Entropie eine Funktion ueber die Zeit ist, hat die codierte Quelle die gleiche Entropie wie die originale Quelle, allerdings eine verminderte Bitrate.
Wenn Entrope eine Funktion ueber die Daten ist, dann hat die codierte Quelle eine hoehere Entropie, da Bits mit wenig Entropiegehalt reduziert werden, und somit pro Bit durchschnittlich mehr Entropie bleibt, denn die Entropie der Quelle selbst bleibt konstant, und die Codierung vermindert den Anteil redundanter Daten, die bekanntlich keine Entropie beitragen.

Disclaimer: Ich habe keine Ahnung wovon ich spreche, sondern wende lediglich gesunden Menschenverstand an. Meistens spielt dieser eine grosse Rolle wenn man so groessen wie Entropie definiert, aber nicht immer. Deshalb keine Gewaehrleistung, dass meine Aussage stimmt.

Sometimes you've got to ask yourself: Is xkcd shitty today?

joey93

Praktikant

Posts: 10

Date of registration: Jan 6th 2012

3

Friday, August 23rd 2013, 12:15am

So hatte ich es in "Grundlagen der Rechnerarchitektur":
Entropie ist eine Eigenschaft der Informationsquelle - nicht der Codierung - und gibt den Informationsgehalt pro Symbol der Quelle wieder.
Die Entropie hängt nicht davon ab, wie die Symbole codiert werden, da ein wie auch immer codiertes Symbol immernoch das gleiche Symbol bleibt und den gleichen Informationsgehalt (<=> die gleiche relative Häufigkeit) hat.
Angenommen, ich habe eine Informationsquelle, die drei Symbole 0, 1 und 2 ausspucken kann, wobei p(0) = 50%, p(1) = p(2) = 25% // p(Symbol) = relative Häufigkeit bzw. Auftrittswahrscheinlichkeit des Symbols
Die Entropie dieser Quelle ist also - (0.5 * ld(0.5) + 0.25 * ld(0.25) + 0.25 * ld(0.25)) = 0.5 + 0.5 + 0.5 = 1.5 bit / Symbol
Wenn ich jetzt die 0 als "0", die 1 als "10" und die 2 als "11" codiere, wird zwar die Redundanz kleiner und der Wirkungsgrad größer, aber die Entropie bleibt gleich, da sich weder die Wahrscheinlichkeiten der Symbole noch der Informationsgehalt der Symbole ändert.
(Die Redundanz wird nur deswegen kleiner, weil sich die mittlere Codewortlänge reduziert)

Disclaimer: Ich hab zwar Ahnung wovon ich spreche, aber mache auch mal Fehler