Měření množství informace
Z MiS
(Rozdíly mezi verzemi)
(Stránka vytvořena s prvním příkladem) |
(Přidání teorie) |
||
Řádka 1: | Řádka 1: | ||
[[Category:VSE]][[Category:Informatika]][[Category:Teoretická informatika]] | [[Category:VSE]][[Category:Informatika]][[Category:Teoretická informatika]] | ||
− | == | + | == Teorie == |
+ | |||
+ | === Definice množství informace === | ||
+ | * Množství informace obsažené ve zprávě je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději, odstraněná realizací tohoto děje. | ||
+ | |||
+ | === Tedy: === | ||
+ | *zajímá mě výsledek nějakého děje (minulého nebo budoucího) | ||
+ | *dozvím se výsledek | ||
+ | *měřím vlastně HODNOTU informace, kterou jsem získal | ||
+ | Jinými slovy: | ||
+ | *Mohu si zkusit tipnout, budu mít nějakou pravděpodobnost, že uspěji. | ||
+ | *Informační zisk je tím větší, čím bylo těžší si daný výsledek tipnout. | ||
+ | *Čím méně pravděpodobná zpráva přišla, tím větší množství informace nese. | ||
+ | |||
+ | === Shannonova věta (1948) === | ||
+ | *I(x) = -log_2 p(x) | ||
+ | ** log_2(x) ... dvojkový logaritmus čísla x | ||
+ | **p(x) je pravděpodobnost zprávy x | ||
+ | **0 >= p(x) >= 1 | ||
+ | *Použijeme-li dvojkový logaritmus, pak jednotkou je bit. | ||
+ | |||
+ | === Počítání s logaritmy === | ||
+ | *log_a (x) = log_b (x) / log_b (a) | ||
+ | *log_2 (x) = log_10 (x) / log_10 (2) | ||
+ | |||
+ | == Příklady == | ||
=== Vodácký kurz === | === Vodácký kurz === |
Verze z 18. 9. 2013, 07:55
Obsah[skrýt] |
Teorie
Definice množství informace
- Množství informace obsažené ve zprávě je míra množství neurčitosti nebo nejistoty o nějakém náhodném ději, odstraněná realizací tohoto děje.
Tedy:
- zajímá mě výsledek nějakého děje (minulého nebo budoucího)
- dozvím se výsledek
- měřím vlastně HODNOTU informace, kterou jsem získal
Jinými slovy:
- Mohu si zkusit tipnout, budu mít nějakou pravděpodobnost, že uspěji.
- Informační zisk je tím větší, čím bylo těžší si daný výsledek tipnout.
- Čím méně pravděpodobná zpráva přišla, tím větší množství informace nese.
Shannonova věta (1948)
- I(x) = -log_2 p(x)
- log_2(x) ... dvojkový logaritmus čísla x
- p(x) je pravděpodobnost zprávy x
- 0 >= p(x) >= 1
- Použijeme-li dvojkový logaritmus, pak jednotkou je bit.
Počítání s logaritmy
- log_a (x) = log_b (x) / log_b (a)
- log_2 (x) = log_10 (x) / log_10 (2)
Příklady
Vodácký kurz
- Máme zadány následující předpoklady
- Pro školní kurz bylo zapůjčeno 8 lodí, z toho 4 kanoe, 4 rafty.
- Lodě jsou očíslované, kanoe čísly 1 až 4, rafty čísly 5 až 8.
- Každá kanoe je pro 2 osoby, rafty jsou pro 6 osob.
- 2 kanoe a 3 rafty jsou žluté, zbytek lodí je červených.
- V rámci kurzu budu přiřazen na libovolnou loď (nevím, na kterou).
- Spočtěte množství informace v následujících zprávách
- Byl jsem přirazen na kanoi.
- Byl jsem přiřazen na červenou loď.
- Byl jsem přiřazen na žlutý raft.
- Byl jsem přiřazen na kanoi číslo 3.
- Po přijetí zprávy, že jsem byl přiřazen na červenou loď, se dozvím další zprávu: pojedu na raftu.
- Nápověda
- Nezapomeňte, že na raftech pojede celkem 24 osob, na kanoích jen 8 osob!!!
- Klíč řešení
- 2 b
- ~ 1,68 b
- ~ 1,42 b
- 4 b
- ~ 0,74 b