Битови Клода Шенона

0
254

Шенонова идеја је довела до Теорије информација која је изазвала револуцију у преносу података.

Бит је најмања јединица у рачунарству. Један бит представља количину информација потребну за разликовање два искључива стања, један и нула, да и не, тачно и нетачно, има струје и нема струје…

Битове је осмислио Клод Шенон четрдесетих година прошлог вијека када се досјетио како да ријеши један од највећих изазова у инжењерству током Другог свјетског рата – преношење података на велике раздаљине. Подаци су се преносили аналогно, што је подразумијевало преношење кроз жице, тако што се, на примјер, код преноса звука преносе различите јачине сигнала, а тај сигнал имитира стварни звук. Са друге стране се читају те јачине и реконструише се послати звук.

Међутим, приликом оваквог преноса података почетни сигнал слаби како се повећава раздаљина на коју се шаље и настаје шум који отежава његово читање. Покушај превазилажења овог проблема било је увођење појачивача сигнала, али то није помагало већ се шум који настаје повећавао са појачавањем сигнала.

Клод Шенон је увидио рјешење тако што је промијенио начин размишљања  о подацима који се шаљу. Схватио је да није битна природа података, односно да без обзира да ли је у питању слика, текст или звук, они се могу слати на исти начин ако се раздијеле на најситније могуће дијелове које називамо битовима.

Ако бисмо, на примјер, слали текст, свако слово би се кодирало неким низом нула и јединица и било би лако читљиво на другој страни. Осим тога, највећа предност је што подаци јако тешко могу да се изгубе без обзира на колику се раздаљину шаљу јер постоје само два стања, нула и јединица. То значи да ако се пошаље сигнал високе фреквенције, треба га читати као један, а сигнал ниске фреквенције као нулу. Наравно, и током оваквог преноса појављују се шум и слаб сигнал, али сва стања која се шаљу су толико различита да детектор може увек правилно да их разликује. Овај начин слања података је назван дигиталним јер се своди на читање цифара (енг. digit).

Шенонова идеја је довела до Теорије информација која је изазвала револуцију у преносу података. Из ове теорије је настала и једначина за Шенонову ентропију која је у ствари количина информација у поруци мјерена битовима. Како би се израчунала Шенонова ентропија, потребно је бавити се и вјероватноћом. На примјер, вјероватноћа да се појави неко слово енглеског алфабета у тексту који се састоји од слова и размака је 1:27 јер има 27 знакова. Али, пошто свако слово може или да се појави или да се не појави, Шенон у својој формули узима логаритам са основом 2 од ове вјероватноће. Када се ово израчуна, добија се вриједност од приближно четири бита информација. Уколико знамо неке правилности, ово се може смањити и до једног бита јер није иста вјероватноћа појаве сваког слова алфабета у ријечи јер је, на примјер, већа вјероватноћа појаве самогласника него сугласника.

Ни сам Шенон вјероватно није био свјестан колико је помогао да се развије рачунарство у данашњем смислу. О интернету не би могло ни да се мисли јер подаци не би могли да се шаљу глобално и брзо као данас. Не бисмо могли да чувамо музику у својим телефонима, погледамо дјела светских сликара преко интернета или попричамо са неким преко Скајпа.

Услови коментарисања:

Молимо упишите Ваш коментар
Молимо упишите Ваше име