Informații de măsurare (expunere detaliată)

Răspunsul la întrebarea „cum să se măsoare informația?“ Depinde de ceea ce se înțelege prin informații. Atunci când se evaluează informațiile primite pot fi abordare subiectivă: în măsura în care această informație este interesant sau important pentru noi. Această abordare ne va conduce la faptul că aceleași informații vor avea estimări diferite. Să încercăm să explicăm această idee.







Să luăm în considerare poziția că informațiile pentru persoana - este cunoașterea. Rezultă că mesajul este informativ, în cazul în care umple cunoașterea umană. De exemplu, un mesaj că 2 * 2 = 4 este informativ pentru un elev de clasa I, și informative pentru elevii de liceu.

Astfel, este imposibil să echivaleze conceptul de „informații“ și „mesaje informative“.

Dacă mesajul nu este informativ pentru oameni. cantitatea de informații în ea din punctul de vedere al omului dispare. Cantitatea de informații într-un mesaj informativ este mai mare decât zero.

Mesajul poartă informații pentru o persoană, în cazul în care informațiile conținute în acesta sunt noi și ușor de înțeles pentru el.

Pentru informațiile de măsurare cantitativă vom introduce conceptul de „cunoștințe pentru a reduce incertitudinea“, explicând că la exemplele. Să presupunem că arunci o monedă zagadyvaya care cad: capete sau cozi? Există doar două opțiuni pentru posibilul rezultat al flipping unei monede. Mai mult decât atât, nici una dintre aceste opțiuni are avantaje față de cealaltă. În acest caz, ele sunt la fel de probabil.

Deci, în acest caz, înainte de a arunca moneda de incertitudine în cunoașterea rezultatul este egal cu doi.

Zaruri cu șase fețe pot, cu probabilitate egală în oricare dintre ele. Prin urmare, incertitudinea de cunoștințe despre rezultatul de a arunca zaruri este de șase.

Un alt exemplu: schior atlet inainte de cursa prin tragere la sorți determină numărul de serie de la început. În cazul în care competiția a implicat 100 de sportivi, incertitudinea de cunoștințe atlet din camera ta este o sută.

Rețineți că, deși am introdus conceptul de incertitudine privind un exemplu de evenimente la fel de probabile. Dar evenimentele Vedb pot fi nonequiprobability. Naprmer, într-o declarație despre vreme, în funcție de sezon, informații care vor fi zapada sau ploaie, poate avea o probabilitate diferită. În vara cel mai probabil un mesaj despre ploaie, iarna - zăpadă, și ele pot fi la fel de probabil în perioada de tranziție.

În plus, există „evenimente semnificative“ - evenimente care au loc în mod necesar, cum ar fi zi și noapte. Există evenimente „imposibil“, care nu sa întâmplat.

Revenind la exemplul monedei. După ce ieșiți și uita-te la ea, ai un mesaj vizual care a scăzut, de exemplu, vulturul. A fost unul dintre cele două evenimente posibile. Incertitudinea de cunoștințe înjumătățit: a avut două opțiuni, a existat una. Deci, pentru a afla rezultatele flipping o monedă, ai un bit de informație.

Mesaj că proihoshlo unul dintre cele două evenimente la fel de probabil, poarta 1 bit de informație.







Și acum o astfel de problemă: examenul studentul poate primi una din cele patru clase: „excelent“, „bun“, „satisfăcător“ și „nesatisfăcător“. Imaginați-vă că prietenul tău a mers pentru a lua examenul. Mai mult decât atât, el învață inegal și poate la fel de probabil pentru a obține oricare dintre aceste estimări. Ești îngrijorat pentru el, în așteptarea rezultatelor. În cele din urmă, a venit și a spus că a primit patru. Câți biți de informație conține mesajul său?

Pentru a răspunde la această întrebare, vom primi un răspuns treptat. A pune întrebări, astfel încât fiecare răspuns a adus un bit de informație, reducând, astfel incertitudinea cunoștințelor noastre dublat.

Prima întrebare:
- Scor de triplete mai mari?
- Da!
După acest răspuns numărul de variante redus la jumătate. Numai „4“ și „5“. Primit 1 bit de informație.
A doua întrebare:
- Ai cinci?
- Nu!
Tepe rezultat este absolut clar. Astfel obținut 1 alți biți de informație. În concluzie, avem doi biți.

Un mesaj care a fost unul dintre cele patru evenimente la fel de probabil transporta 2 biți de informație.

În cazul general, să
N - este numărul de rezultate posibile ale evenimentului, care este incertitudinea.
Notăm prin i cantitatea de informații în mesajul care proizroshlo unul dintre evenimentele N.
Relația dintre aceste valori se exprimă prin formula:

Pentru a vorbi despre „importanța“ a informațiilor pentru computerul care primește informația, aceasta este pur și simplu lipsit de sens. Rămâne să efectueze o evaluare a informațiilor cantitativ. Dacă ne amintim ca valori măsurate în fizică, devine clar că cuantificarea nimic depinde de cea aleasă ca referință. Puteți oferi pentru a efectua o evaluare a informațiilor, luând ca referință numărul de cuvinte sau caractere conținute în această publicație. Dar ceea ce este considerat un cuvânt mașină, simbol sau de către mașină, în cazul în care informația este codificată într-un computer sub formă de semnale de două tipuri: magnetizat - pe magnetizat pornit sau oprit, tensiune mare sau mică. Modelul matematic adoptat pentru a descrie aceste două state, este destul de simplu: unul a adoptat o stare notată cu numărul 0 și celălalt 1. Această codificare este numit binar, iar numerele 0 și 1 sunt numite biți.

Setul de caractere utilizat pentru prezentarea informațiilor, numit alfabetul. Astfel, putem presupune că mașina cuprinde două caractere ale alfabetului. De obicei, alfabetul bykvy doar să înțeleagă, ci pentru că textul poate să apară semne de punctuație, numere, între paranteze, ele sunt, suntem, de asemenea, incluse în alfabetul.

Numărul total de caractere alfanumerice se numește puterea alfabetului. Și reprezintă această valoare prin litera N.

De exemplu, capacitatea de a literele alfabetului românești este de 33, iar dacă includeți caractere suplimentare în alfabet, veți obține o putere de 54 de alfabet.

Pe baza abordării alfabetică a informațiilor de măsurare se poate demonstra că cardinalitatea minimă a alfabetului adecvat pentru transmiterea de informații este de două. Acest alfabet se numește cod binar.

Imaginați-vă că primiți o secvență de text, un caracter, ca o panglică de hârtie, se tarasc in afara de telegraf. Să presupunem că fiecare simbol care apare cu o probabilitate egală poate fi orice simbol alfabet. Astfel, o dată în fiecare poziție în text poate primi în mod egal, fie de N simboluri. Incertitudinea de apariție a fiecărei valori charset este N. Prin urmare, fiecare dintre ele conține somvol i biți de informație, care se calculează din ecuația:

Pentru N = 54, cu ajutorul tabelului logorifmov, obținem i = 5,755 biți. Asta-i cât de multe informații are un caracter al alfabetului românesc!

Acum, pentru a găsi cantitatea de informații pe tot parcursul textului, este necesar pentru a contoriza numărul de caractere în ea și se înmulțește cu I

În consecință, în cazul în care abordarea alfabetică a măsurarea cantității de informație a informațiilor de conținut este independent. Cantitatea de informații depinde de cantitatea de text (adică, numărul de caractere în text) și din monoSTU alfabet.

Rezultă că nu se poate compara volumele de informații de texte scrise în limbi diferite, dar volumul. Acestea diferă în greutate este de informații de un caracter ca alfabetele de putere de limbi diferite sunt diferite.