Teoria e informacionit
Teoria e informacionit është studimi matematikor i kuantifikimit, ruajtjes dhe komunikimit të informacionit . Fusha u krijua dhe u formalizua nga Claude Shannon në vitet 1940, [1] megjithëse kontributet e hershme u bënë në vitet 1920 përmes veprave të Harry Nyquist dhe Ralph Hartley. Ajo ndodhet në kryqëzimin e inxhinierisë elektronike, matematikës, statistikës, shkencës kompjuterike, neurobiologjisë, fizikës dhe inxhinierisë elektrike . [2] [3]
Një masë kyçe në teorinë e informacionit është entropia. Entropia përcakton sasinë e pasigurisë së përfshirë në vlerën e një variabli të rastësishëm ose në rezultatin e një procesi të rastësishëm . Për shembull, identifikimi i rezultatit të një hedhjes së një monedhe (e cila ka dy rezultate po të mundshme dhe të barabarta) ofron më pak informacion (entropi më të ulët, më pak pasiguri) sesa identifikimi i rezultatit të hedhjes së një zari (e cila ka gjashtë rezultate po aq të mundshme dhe të barabarta). Disa masa të tjera të rëndësishme në teorinë e informacionit janë informacioni i ndërsjellë, kapaciteti i kanalit, eksponentët e gabimit dhe entropia relative. Nënfushat e rëndësishme të teorisë së informacionit përfshijnë kodimin e burimit, teorinë e kompleksitetit algoritmik, teorinë e informacionit algoritmik dhe sigurinë teorike të informacionit .
Zbatimet e temave themelore të teorisë së informacionit përfshijnë kodimin e burimit/ kompresimin e të dhënave (p.sh. për skedarët ZIP ) dhe kodimin e kanalit/ zbulimin dhe korrigjimin e gabimeve (p.sh. për DSL ). Ndikimi i tij ka qenë thelbësor për suksesin e misioneve Voyager në hapësirën e thellë, [4] shpikjen e diskut kompakt, realizueshmërinë e telefonave celularë dhe zhvillimin e internetit dhe inteligjencës artificiale . [5] [6] [3] Teoria ka gjetur gjithashtu zbatim edhe në fusha të tjera, përfshirë inferencën statistikore, [7] kriptografinë, neurobiologjinë[8] perceptimin, [9] përpunimin e sinjalit, linguistikën, evolucionin [10] dhe funksionin [11] e kodeve molekulare ( bioinformatikën ), fizikën termike, [12] dinamikën molekulare, [13] vrimat e zeza, informatikën kuantike, rikuperimin e informacionit, mbledhjen e inteligjencës, zbulimin e plagjiaturës, [14] njohjen e modeleve, zbulimin e anomalive, [15] analizën e muzikës, [16] [17] krijimin e artit, [18] projektimin e sistemit të imazhit, studimin e hapësirës së jashtme, [19] dimensionalitetin e hapësirës, [20] dhe epistemologjinë . [21]
Përmbledhje
[Redakto | Redakto nëpërmjet kodit]Teoria e informacionit studion transmetimin, përpunimin, nxjerrjen dhe shfrytëzimin e informacionit . Në mënyrë abstrakte, informacioni mund të konsiderohet si zgjidhja e pasigurisë. Në rastin e komunikimit të informacionit përmes një kanali me zhurmë, ky koncept abstrakt u formalizua në vitin 1948 nga Claude Shannon në një punim të titulluar A Mathematical Theory of Communication, ku informacioni konsiderohet si një grup mesazhesh të mundshme, dhe qëllimi është që këto mesazhe të dërgohen përmes një kanali me zhurmë, dhe marrësi t'i rindërtojë ato me një probabilitet të ulët gabimi, pavarësisht zhurmës së kanalit. Rezultati kryesor i Shannon-it, teorema e kodimit të kanalit me zhurmë, tregoi se, në kufirin e përdorimeve të shumta shpejtësia e informacionit që arrihet asimptotikisht është e barabartë me kapacitetin e kanalit, një madhësi që varet vetëm nga statistikat e kanalit përmes të cilit dërgohen mesazhet.[22]
Teoria e kodimit merret me gjetjen e metodave të qarta, të quajtura kode, për të rritur efikasitetin dhe për të ulur normën e gabimeve në komunikimin e të dhënave përmes kanaleve, duke u afruar sa më shumë me kapacitetin e kanalit. Këto kode mund të ndahen kryesisht në kompresimin e të dhënave (kodimi burimor) dhe korrigjimit të gabimeve (kodimi i kanalit). Në rastin e dytë, u deshën shumë vite për të gjetur metodat që puna e Shannon-it vërtetoi se ishin të mundshme. [23] [24]
Një klasë e tretë e kodeve në teorinë e informacionit janë algoritmet kriptografike (si kode ashtu edhe shifra). Konceptet, metodat dhe rezultatet nga teoria e kodimit dhe teoria e informacionit përdoren gjerësisht në kriptografi dhe kriptanalizë, [25] siç është njësia e ndalimit .
Sfondi historik
[Redakto | Redakto nëpërmjet kodit]Gabim: Nuk u specifikua asnjë faqe (Ndihmë!). Ngjarja historike që themeloi disiplinën e teorisë së informacionit dhe e solli atë në vëmendjen e menjëhershme botërore ishte botimi i punimit klasik të Claude Shannon "Një Teori Matematikore e Komunikimit" në Bell System Technical Journal në Korrik dhe Tetor 1948. Historiani James Gleick e vlerësoi punimin si zhvillimin më të rëndësishëm të vitit 1948, duke vënë në dukje se punimi ishte "edhe më i thellë dhe më themelor" sesa transistor.[26] Ai u bë i njohur si "babai i teorisë së informacionit".[27][28][29] Shannon përvijoi disa nga idetë e tij fillestare të teorisë së informacionit që në vitin 1939 në një letër drejtuar Vannevar Bush.[30]
Para këtij punimi, në Bell Labs ishin zhvilluar disa ide të kufizuara të teorisë së informacionit, të gjitha duke supozuar në mënyrë implicite ngjarje me probabilitet të barabartë. Punimi i Harry Nyquist në vitin 1924, "Caktuar Faktorë që Ndikojnë në Shpejtësinë e Telegrafit ", përmban një seksion teorik që përcakton sasinë e "inteligjencës" dhe "shpejtësisë së linjës" me të cilën mund të transmetohet nga një sistem komunikimi, duke dhënë marrëdhënien W = K log m (në të cilin kujtohet konstanta e Boltzmann-it ), ku W është shpejtësia e transmetimit të inteligjencës, m është numri i niveleve të ndryshme të tensionit nga të cilat mund të zgjidhet në çdo hap kohor, dhe K është një konstante. Punimi i Ralph Hartley i vitit 1928, "Transmetimi i Informacionit", përdor fjalën informacion si një sasi të matshme, duke reflektuar aftësinë e marrësit për të dalluar një sekuencë simbolesh nga çdo tjetër, duke përcaktuar kështu sasinë e informacionit si H = log Sn = n log S, ku S ishte numri i simboleve të mundshme, dhe n numri i simboleve në një transmetim. Njësia e informacionit ishte pra shifra dhjetore, e cila që atëherë ndonjëherë është quajtur hartley në nder të tij si një njësi ose shkallë ose masë e informacionit. Alan Turing në vitin 1940 përdori ide të ngjashme si pjesë e analizës statistikore të zbulimit të shifrave gjermane Enigma të Luftës së Dytë Botërore.
Shumica e matematikës pas teorisë së informacionit me ngjarje me probabilitete të ndryshme u zhvillua fillimisht për fushën e termodinamikës nga Ludwig Boltzmann dhe J. Willard Gibbs. Lidhjet midis entropisë në teori të informacioni dhe entropisë termodinamike, përfshirë kontributet e rëndësishme të Rolf Landauer në vitet 1960, janë eksploruar në punimin e Entropy in thermodynamics and information theory.
Në punimin revolucionar dhe themelor të Shannon-it, puna për të cilën ishte kryesisht përfunduar në Laboratorët Bell deri në fund të vitit 1944, Shannon për herë të parë prezantoi modelin cilësor dhe sasior të komunikimit si një proces statistikor që qëndron në themel të teorisë së informacionit, duke nisur me pohimin: [31]
- " Problemi themelor i komunikimit është ai i riprodhimit në një moment, saktësisht ose përafërsisht, të një mesazhi të zgjedhur në një moment tjetër. "
Me të erdhën idetë e:
- Entropia e informacionit dhe redundanca e një burimi, dhe rëndësia e saj përmes teoremës së kodimit të burimit ;
- Informacioni i ndërsjellë dhe kapaciteti i kanalit të një kanali me zhurmë, duke përfshirë premtimin e komunikimit të përsosur pa humbje të dhënë nga teorema e kodimit të kanalit me zhurmë;
- Rezultati praktik i ligjit Shannon-Hartley për kapacitetin e kanalit të një kanali Gaussian ; si dhe
- Biti — një mënyrë e re për të parë njësinë më themelore të informacionit.
Sasitë e informacionit
[Redakto | Redakto nëpërmjet kodit]Teoria e informacionit bazohet në teorinë e probabilitetit dhe statistikë, ku informacioni i kuantifikuar zakonisht përshkruhet në terma të biteve.Teoria e informacionit merret shpesh me matjet e informacionit të shpërndarjeve që lidhen me me variablat e rastësishme. Një nga masat më të rëndësishme quhet entropi, e cila formon bllokun ndërtues të shumë masave të tjera. Entropia lejon kuantifikimin e masës së informacionit në një variabël të vetëm të rastësishëm. [32]
Një koncept tjetër i dobishëm është informacioni i ndërsjellë i përcaktuar mbi dy variabla të rastësishëm, i cili përshkruan masën e informacionit të përbashkët midis këtyre variablave, i cili mund të përdoret për të përshkruar korrelacionin e tyre.
Sasia e parë është një veti e shpërndarjes së probabilitetit të një variabli të rastësishëm dhe jep një kufi mbi shkallën me të cilën të dhënat e gjeneruara nga mostrat e pavarura me shpërndarjen e dhënë mund të kompresohen në mënyrë të besueshme. Kjo e fundit është një veti e shpërndarjes së përbashkët të dy variablave të rastësishme dhe është shkalla maksimale e komunikimit të besueshëm nëpër një kanal të zhurmshëm në kufirin e gjatësive të bllokut të gjatë, kur statistikat e kanalit përcaktohen nga shpërndarja e përbashkët.
Zgjedhja e bazës logaritmike në formulat e mëposhtme përcakton njësinë e entropisë së informacionit që përdoret. Një njësi e zakonshme informacioni është biti ose shannon, bazuar në logaritmin binar. Njësi të tjera përfshijnë nat, i cili bazohet në logaritmin natyror, dhe shifër dhjetore, e cila bazohet në logaritmin e zakonshëm.
Në vijim, një shprehje e formës p log p konsiderohet me anë të konventës të jetë e barabartë me zero sa herë që p = 0. Kjo justifikohet sepse për çdo bazë logaritmike.
Entropia e një burimi informacioni
[Redakto | Redakto nëpërmjet kodit]Bazuar në funksionin e masës së probabilitetit të një burimi, entropia Shannon H, në njësi bit për simbol, përcaktohet si vlera e pritur e përmbajtjes së informacionit të simboleve. [33] [34]
Sasia e informacionit që përcjellë një simbol burimor individual me probabilitet njihet si vetë-informimi ose sasia e informacionit të saj, Kjo sasi përcaktohet si: [35] [36]
Një simbol më pak i mundshëm ka një sasi të informacionit më të madhe, që do të thotë se ndodhja e tij ofron më shumë informacion. [37] Entropia është mesatarja e ponderuar e surprizës së të gjitha simboleve të mundshme nga shpërndarja e probabilitetit të burimit: [38] [39]
Për shembull, nëse dikush transmeton 1000 bit (0 dhe 1), dhe vlera e secilit prej këtyre biteve i dihet marrësit (ka një vlerë të caktuar me siguri) përpara transmetimit, nuk transmetohet asnjë informacion. Megjithatë, nëse secili bit ka në mënyrë të pavarur dhe të barabartë gjasa të jetë 0 ose 1, janë transmetuar 1000 shannone informacioni (më shpesh të quajtura bit). [40]

Prona
[Redakto | Redakto nëpërmjet kodit]Një veti kyçe e entropisë është se ajo maksimizohet kur të gjitha mesazhet në hapësirën e mesazheve janë ekuiprobabile . Për një burim me n simbole të mundshme, ku për të gjithë , entropia jepet nga: [41]
Kjo vlerë maksimale përfaqëson gjendjen më të paparashikueshme. [42]
Zgjedhja e bazës logaritmike në formulën e entropisë përcakton njësinë e entropisë që përdoret: [43] [44]
- Një logaritëm me bazë 2 (siç tregohet në formulën kryesore) mat entropinë në bit për simbol. Kjo njësi nganjëherë quhet edhe shannon për nder të Claude Shannon. [45]
- Një logaritëm natyror (baza e ) mat entropinë në nats për simbol. Kjo përdoret shpesh në analizat teorike pasi shmang nevojën për konstante shkallëzimi (si ln 2) në derivime. [46]
- Baza të tjera janë gjithashtu të mundshme. Një logaritëm me bazë 10 mat entropinë në shifra dhjetore, osehartleys, për simbol. [47] Një logaritëm me bazë 256 mat entropinë në bajt për simbol, meqenëse 28 = 256 [48]
Funksioni i Entropisë Binare
[Redakto | Redakto nëpërmjet kodit]Rasti i veçantë i entropisë së informacionit për një ndryshore të rastësishme me dy rezultate (një provë Bernoulli ) është funksioni binar i entropisë . Ky zakonisht llogaritet duke përdorur një logaritëm me bazë 2, dhe njësia e tij është shannon.[49] Nëse një rezultat ka probabilitet p, tjetri ka probabilitet 1 − p. Entropia jepet nga: [50]
Ky funksion është paraqitur në grafikun e treguar më sipër, duke arritur maksimumin e tij prej 1 biti kur p = 0.5, që korrespondon me pasigurinë më të lartë.
Entropia e përbashkët
[Redakto | Redakto nëpërmjet kodit]Entropia e përbashkët e dy variablave të rastësishme diskrete X dhe Y është thjesht entropia e çiftëzimit të tyre: (X, Y). Kjo nënkupton që nëse X dhe Y janë të pavarur, atëherë entropia e tyre e përbashkët është shuma e entropive të tyre individuale.
Për shembull, nëse (X, Y) përfaqëson pozicionin e një guri shahu X rreshti dhe Y kolona, atëherë entropia e përbashkët e rreshtit të gurit dhe kolonës së gurit do të jetë entropia e pozicionit të gurit.
Entropia e kushtëzuar (ekuivok)
[Redakto | Redakto nëpërmjet kodit]Pasiguria e kushtëzuar e X duke pasur parasysh ndryshoren e rastësishme Y (e quajtur edhe ekuivok i X rreth Y ) është entropia mesatare e kushtëzuar mbi Y:[51]
Pasi entropia mund të kushtëzohet nga një ndryshore e rastësishme ose nga një vlerë e caktuar e asaj ndryshoreje të rastësishme, duhet pasur kujdes që të mos ngatërrohen këto dy përkufizime të entropisë së kushtëzuar, ku e para është më e përdorur zakonisht. Një veti themelore e kësaj forme të entropisë së kushtëzuar është se:
Informacion i ndërsjellë (transinformacion)
[Redakto | Redakto nëpërmjet kodit]Informacioni i ndërsjellë mat sasinë e informacionit që mund të merret për një variabël të rastësishme duke vëzhguar një tjetër. Është i rëndësishëm në komunikim ku mund të përdoret për të maksimizuar sasinë e informacionit të ndarë midis sinjaleve të dërguara dhe të marra. Informacioni i ndërsjellë i X në lidhje me Y jepet nga:
ku SI (Informacion i ndërsjellë specifik ) është informacioni i ndërsjellë pikësor .
Një veti themelore e informacionit të ndërsjellë është se:
Informacioni i ndërsjellë është simetrik :
Informacioni i ndërsjellë mund të shprehet si mesatarja e divergjences Kullback-Leibler (fitimi i informacionit) midis shpërndarjes së probabilitetit të pasmë të duke pasur parasysh vlerën e dhe shpërndarja paraprake në :
Me fjalë të tjera, kjo është një masë e sa shumë, mesatarisht, është shpërndarja e probabilitetit në do të ndryshojë nëse na jepet vlera e Kjo shpesh rillogaritet si divergjencë nga produkti i shpërndarjeve marxhinale në shpërndarjen aktuale të përbashkët:
Divergjenca Kullback-Leibler (fitimi i informacionit)
[Redakto | Redakto nëpërmjet kodit]Divergjenca Kullback-Leibler (ose divergjenca e informacionit, fitimi i informacionit ose entropia relative) është një mënyrë për të krahasuar dy shpërndarje: një shpërndarje probabiliteti "e vërtetë" p(X) dhe një shpërndarje probabiliteti arbitrare q(X). Nëse i kompresojmë të dhënat në një mënyrë që supozon q(X) është shpërndarja që qëndron në themel të disa të dhënave, kur, në realitet, p(X) është shpërndarja e saktë, divergjenca Kullback-Leibler është numri i bitëve shtesë mesatarë për të dhënë të nevojshme për kompresim. Kështu përcaktohet
Edhe pse ndonjëherë përdoret si një 'metrikë distancë', divergjenca KL nuk është një metrikë e vërtetë pasi nuk është simetrike dhe nuk plotëson pabarazinë e trekëndëshit (gjë që e bën atë një gjysmë-kuazimetrike).
Një interpretim tjetër i divergjencës KL është "surpriza e panevojshme" e prezantuar nga një paraprior nga e vërteta: supozojmë se një numër është gati të nxirret rastësisht nga një bashkësi diskrete me shpërndarje probabiliteti p(x) Nëse Alice e di shpërndarjen e vërtetë p(X), ndërsa Bob beson (ka një paraprior) se shpërndarja është q(X), atëherë Bob do të jetë më i befasuar se Alice, mesatarisht, kur të shohë vlerën e . Divergjenca KL është vlera e pritur (objektive) e surprizës (subjektive) të Bobit minus surpriza e Alisës, e matur në bit nëse logaritmi është në bazën 2. Në këtë mënyrë, shkalla në të cilën paraprirja e Bobit është "e gabuar" mund të përcaktohet në terma të asaj se sa "të befasuar panevojshëm" pritet ta bëjë atë.
Informacion i drejtuar
[Redakto | Redakto nëpërmjet kodit]Informacion i drejtuar, , është një masë e teorisë së informacionit që përcakton sasinë e rrjedhës së informacionit nga procesi i rastësishëm në procesië e rastësishëm Termi informacion i drejtuar u shpik nga James Massey dhe përkufizohet si:
- ,
ku është informacioni i ndërsjellë i kushtëzuar .
Në dallim me informacionin e ndërsjellë, informacioni i drejtuar nuk është simetrik. mat bitët e informacionit që transmetohen në mënyrë kauzale nga për Informacioni i drejtuar ka shumë zbatime në problemet ku shkakësia luan një rol të rëndësishëm, siç është kapaciteti i kanalit me reagime, [52] [53] kapaciteti i rrjeteve diskrete pa memorie me reagime, [54] loja me informacionin e anës shkakësore, [55] kompresimi me informacionin e anës shkakësore, [56] cilësimet e komunikimit të kontrollit në kohë reale, [57] [58] dhe në fizikën statistikore. [59]
Sasi të tjera
[Redakto | Redakto nëpërmjet kodit]Madhësi të tjera të rëndësishme në teorinë e informacionit përfshijnë Rényi entropy (entropinë e Rényit) dhe Tsallis entropy (entropinë e Tsallisit) përgjithësime të konceptit të entropisë, entropinë diferenciale (një përgjithësim i sasive të informacionit në shpërndarje të vazhdueshme) dhe informacionin e ndërsjellë të kushtëzuar . Gjithashtu, informacioni pragmatik është propozuar si një masë se sa informacion është përdorur në marrjen e një vendimi.
Teoria e kodimit
[Redakto | Redakto nëpërmjet kodit]

Teoria e kodimit është një nga aplikimet më të rëndësishme dhe të drejtpërdrejta të teorisë së informacionit. Ajo mund të ndahet në teorinë e kodimit të burimit dhe teorinë e kodimit të kanalit. Duke përdorur një përshkrim statistikor për të dhënat, teoria e informacionit përcakton sasinë e bitëve të nevojshëm për të përshkruar të dhënat, që është entropia e informacionit të burimit.
- Kompresimi i të dhënave (kodimi burimor): Ekzistojnë dy formulime për problemin e kompresimit:
- Kompresimi i të dhënave pa humbje : të dhënat duhet të rindërtohen saktësisht;
- Kompresimi i të dhënave me humbje : ndan bitët e nevojshëm për të rindërtuar të dhënat, brenda një niveli të specifikuar besnikërie të matur nga një funksion shtrembërimi. Ky nëngrup i teorisë së informacionit quhet teoria e shkallës së shtrembërimit .
- Kodet e korrigjimit të gabimeve (kodifikimi i kanalit): Ndërsa kompresimi i të dhënave largon sa më shumë tepricë të jetë e mundur, një kod korrigjues gabimesh shton pikërisht llojin e duhur të tepricës (domethënë, korrigjimin e gabimeve) të nevojshme për të transmetuar të dhënat në mënyrë efikase dhe besnike përmes një kanali me zhurmë.
Kjo ndarje e teorisë së kodimit në kompresim dhe transmetim justifikohet nga teoremat e transmetimit të informacionit, ose teoremat e ndarjes burim-kanal të cilat justifikojnë përdorimin e biteve si monedha universale për informacionin në shumë kontekste. Megjithatë, këto teorema vlejnë vetëm në situatën ku një përdorues që transmeton dëshiron të komunikojë me një përdorues që merr. Në skenarë me më shumë se një transmetues (kanali me akses të shumëfishtë), më shumë se një marrës ( kanali i transmetimit ) ose "ndihmës" ndërmjetës, ose rrjete më të përgjithshme, kompresimi i ndjekur nga transmetimi mund të mos jetë më optimal.
Teoria e burimit
[Redakto | Redakto nëpërmjet kodit]Çdo proces që gjeneron mesazhe të njëpasnjëshme mund të konsiderohet si një burim informacioni. Një burim pa memorie është ai në të cilin çdo mesazh është një ndryshore e rastësishme e pavarur dhe e shpërndarë identikisht, ndërsa vetitë e ergodicitetit dhe stacionaritetit imponojnë kufizime më pak kufizuese. Të gjitha burimet e tilla janë stokastike . Këta terma janë studiuar mirë në teorinë e tyre të jashtme të informacionit.
Vlerëso
[Redakto | Redakto nëpërmjet kodit]Shkalla e informacionit është entropia mesatare për simbol. Për burime pa memorie, kjo është thjesht entropia e secilit simbol, ndërsa, në rastin e një procesi stokastik stacionar, ajo është:
domethënë, entropia e kushtëzuar e një simboli duke marrë parasysh të gjitha simbolet e gjeneruara më parë. Për rastin më të përgjithshëm të një procesi që nuk është domosdoshmërisht stacionar, shpejtësia mesatare është:
domethënë, kufiri i entropisë së përbashkët për simbol. Për burime stacionare, këto dy shprehje japin të njëjtin rezultat. [60]
Shkalla e informacionit përcaktohet si më poshtë:
Në teorinë e informacionit është e zakonshme të flitet për "shpejtësinë" ose "entropinë" e një gjuhe. Kjo është e përshtatshme, për shembull, kur burimi i informacionit është proza angleze. Shpejtësia e një burimi informacioni lidhet me redundancën e tij dhe sa mirë mund të kompresohet, që është subjekt i kodimit burimor.
Kapaciteti i kanalit
[Redakto | Redakto nëpërmjet kodit]Komunikimet përmes një kanali është motivimi kryesor i teorisë së informacionit. Megjithatë, kanalet shpesh nuk arrijnë të sigurojnë një rindërtim të saktë të një sinjali; zhurma, periudhat e heshtjes dhe format e tjera të korruptimit të sinjalit shpesh e degradojnë cilësinë.
Merrni parasysh procesin e komunikimit përmes një kanali diskret. Një model i thjeshtë i procesit tregohet më poshtë:
Këtu përfaqëson hapësirën e mesazheve të transmetuara, dhe hapësira e mesazheve të marra gjatë një njësie kohe mbi kanalin tonë. Le të jetë p ( y | x ) funksioni i shpërndarjes së probabilitetit të kushtëzuar të dhënë Ne do ta konsiderojmë p ( y | x ) si një veti fikse të natyrshme të kanalit tonë të komunikimit (që përfaqëson natyrën e zhurmës së kanalit tonë). Pastaj shpërndarja e përbashkët e dhe përcaktohet plotësisht nga kanali ynë dhe nga zgjedhja jonë e f ( x ), shpërndarja kufitare e mesazheve që zgjedhim të dërgojmë në kanal. Nën këto kufizime, dëshirojmë të maksimizojmë shpejtësinë e informacionit, ose sinjalin, që mund të komunikojmë në kanal. Masa e përshtatshme për këtë është informacioni i ndërsjellë, dhe ky informacion maksimal i ndërsjellë quhet channel capacity dhe jepet nga:
Ky kapacitet ka vetinë e mëposhtme lidhur me komunikimin me shpejtësinë e informacionit R (ku R zakonisht është bit për simbol). Për çdo shpejtësi informacioni R < C dhe gabim kodimi ε > 0, për një N mjaftueshëm të madh, ekziston një kod me gjatësi N dhe shpejtësi ≥ R dhe një algoritëm dekodimi, i tillë që probabiliteti maksimal i gabimit në bllok është ≤ ε ; domethënë, është gjithmonë e mundur të transmetohet me një gabim blloku arbitrarisht të vogël. Përveç kësaj, për çdo shpejtësi R > C, është e pamundur të transmetohet me një gabim blloku arbitrarisht të vogël.
Kodimi i kanalit merret me gjetjen e kodeve pothuajse optimale që mund të përdoren për të transmetuar të dhëna një kanali me zhurmë me një gabim kodimi shumë të vogël me një shpejtësi afër kapacitetit të kanalit.
Kapaciteti i modeleve të veçanta të kanaleve
[Redakto | Redakto nëpërmjet kodit]- Një kanal komunikimi analog me kohë të vazhdueshme i nënshtruar zhurmës Gaussiane — shih teoremën Shannon-Hartley .
- Një kanal binar simetrik (BSC) me probabilitet kryqëzimi p është një kanal binar hyrjeje, kanal binar daljeje që e përmbys bitin e hyrjes me probabilitet p . BSC ka një kapacitet prej 1 − Hb(p) bitësh për përdorim kanali, Hb është funksioni binar i entropisë me logaritmin bazë 2:
- Një kanal fshirjeje binar (BEC) me probabilitet fshirjeje p është një hyrje binar, kanal daljeje ternare. Daljet e mundshme të kanalit janë 0, 1 dhe një simbol i tretë 'e' i quajtur fshirje. Fshirja përfaqëson humbjen e plotë të informacionit në lidhje me një bit hyrjeje. Kapaciteti i BEC është 1 − p bit për përdorim kanali.
Kanale me memorie dhe informacion të drejtuar
[Redakto | Redakto nëpërmjet kodit]Në praktikë, shumë kanale kanë memorie. Domethënë, në kohën kanali përshkruhet nga probabiliteti i kushtëzuar: Shpesh është më e përshtatshme të përdoret notacioni dhe atëherë kanali bëhet Në këtë rast, kapaciteti jepet nga shkalla e informacionit të ndërsjellë dhe nga informacionit të drejtuar në rastin kur ka ose jo reagime [61] [62] (nëse nuk ka reagime, informacioni i drejtuar është i barabartë me informacionin e ndërsjellë).
Informacion i këmbyeshëm
[Redakto | Redakto nëpërmjet kodit]Informacioni i zëvendësueshëm është ai lloj informacioni për të cilin mënyra e kodimit nuk ka rëndësi. [63] Teoricienët klasikë të informacionit dhe shkencëtarët kompjuterikë merren kryesisht me informacionin e këtij lloji. Ndonjëherë quhet informacion i shqiptuar/i folshëm. [64]
Zbatime në fusha të tjera
[Redakto | Redakto nëpërmjet kodit]Përdorimet e inteligjencës dhe zbatimet e sekretit
[Redakto | Redakto nëpërmjet kodit]Konceptet e teorisë së informacionit zbatohen në kriptografi dhe kriptanalizë. Njësia e informacionit e Turing-ut, ndalimi, u përdor në projektin Ultra, për të thyer kodin e makinës gjermane Enigma dhe duke përshpejtuar fundin e Luftës së Dytë Botërore në Evropë .Vetë Shannon përkufizoi një koncept të rëndësishëm që sot quhet distanca unikate .Bazuar në tepricën e tekstit të thjeshtë, ai përpiqet të japë një sasi minimale të tekstit të koduar të nevojshëm për të siguruar deshifrueshmëri unike.
Teoria e informacionit na çon të besojmë se është shumë më e vështirë të mbash sekretet sesa mund të duket fillimisht. Një sulm me forcë brutale mund të thyejë sisteme të bazuara në algoritme çelësash asimetrikë ose në metodat më të përdorura të algoritmeve çelësash simetrikë (ndonjëherë të quajtura algoritme çelësash sekretë), siç janë shifrat bllok . Siguria e të gjitha metodave të tilla vjen nga supozimi se asnjë sulm i njohur nuk mund t'i thyejë ato në një kohë praktike.
Siguria sipas teorisë së informacionit i referohet metodave të tilla si blloku i vetëm, të cilat nuk janë të ndjeshme ndaj sulmeve të tilla brutale. Në raste të tilla, informacioni i ndërsjellë pozitiv i kushtëzuar midis tekstit të thjeshtë dhe tekstit të koduar (i kushtëzuar nga çelësi ) mund të sigurojë transmetim të duhur, ndërsa informacioni i ndërsjellë i pakushtëzuar midis tekstit të thjeshtë dhe tekstit të koduar mbetet zero, duke rezultuar në komunikime absolutisht të sigurta. Me fjalë të tjera, një përgjues nuk do të përmirësonte përmirësonte hamendësimin e tij ose të saj për tekstin e thjeshtë duke fituar njohuri për tekstin e koduar, por jo për çelësin. Megjithatë, si në çdo sistem tjetër kriptografik, duhet treguar kujdes për të aplikuar saktë edhe metodat e sigurta teorikisht të informacionit; projekti Venona ishte në gjendje të thyente bllokët e vetëm që përdoreshin nga Bashkimi Sovjetik për shkak të ripërdorimit të papërshtatshëm të materialit kyç.
Gjenerimi i numrave pseudo të rastësishëm
[Redakto | Redakto nëpërmjet kodit]Gjeneratorët e numrave pseudorandom janë gjerësisht të disponueshëm në bibliotekat e gjuhëve kompjuterike dhe programet e aplikimit. Ata janë, pothuajse universalisht, të papërshtatshëm për përdorim kriptografik pasi nuk i shmangen natyrës deterministe të pajisjeve dhe softuerëve modernë kompjuterikë. Një klasë e gjeneratorëve të përmirësuar të numrave të rastësishëm quhet gjeneratorë të numrave pseudorandom të sigurt kriptografikisht, por edhe ata kërkojnë fara të rastësishme jashtë softuerit për të funksionuar siç është menduar. Këto mund të merren nëpërmjet nxjerrësve, nëse bëhen me kujdes. Masa e rastësisë së mjaftueshme në nxjerrës është min-entropia, një vlerë e lidhur me entropinë Shannon përmes entropisë Rényi ; entropia Rényi përdoret gjithashtu në vlerësimin e rastësisë në sistemet kriptografike. Megjithëse të lidhura, dallimet midis këtyre masave nënkuptojnë se një ndryshore e rastësishme me entropi të lartë Shannon nuk është domosdoshmërisht e kënaqshme për përdorim në një nxjerrës dhe kështu për përdorime kriptografike.
Eksplorim sizmik
[Redakto | Redakto nëpërmjet kodit]Një zbatim i hershëm komercial i teorisë së informacionit ishte në fushën e eksplorimit sizmik të naftës. Puna në këtë fushë bëri të mundur heqjen dhe ndarjen e zhurmës së padëshiruar nga sinjali i dëshiruar sizmik. Teoria e informacionit dhe përpunimi dixhital i sinjalit ofrojnë një përmirësim të madh të rezolucionit dhe qartësisë së imazhit krahasuar me metodat e mëparshme analoge. [65]
Semiotikë
[Redakto | Redakto nëpërmjet kodit]Semiotistët Doede Nauta dhe Winfried Nöth konsideruan Charles Sanders Peirce si krijuesin e një teorie informacioni në veprat e tij mbi semiotikën. [66] : 171 [67] : 137 Nauta e përcaktoi teorinë semiotike të informacionit si studimin e " proceseve të brendshme të kodimit, filtrimit dhe përpunimit të informacionit". [66] : 91
Koncepte nga teoria e informacionit, të tilla si redundanca dhe kontrolli i kodit, janë përdorur nga semiotistë si Umberto Eco dhe Ferruccio Rossi-Landi për të shpjeguar ideologjinë si një formë të transmetimit të mesazhit ku një klasë shoqërore mbizotëruese e lëshon mesazhin e saj duke përdorur shenja që shfaqin një shkallë të lartë të redundancës, në mënyrë që vetëm një mesazh të dekodifikohet midis një përzgjedhjeje të atyre konkurruese.
Organizimi i integruar i procesit të informacionit nervor
[Redakto | Redakto nëpërmjet kodit]Metodat teorike sasiore të informacionit janë aplikuar në shkencën kognitive për të analizuar organizimin e integruar të procesit të informacionit nervor në kontekstin e problemit të lidhjes në neuroshkencën kognitive . [68] Në këtë kontekst, ose përcaktohet një masë teorike e informacionit, siç janë functional clusters (modeli i grupimit funksional dhe hipoteza e bërthamës dinamike (DCH) e Gerald Edelman dhe Giulio Tononi) ose effective information ( teoria e informacionit të integruar (IIT) e vetëdijes e Tononi-t [69] [70] [71] ), (Këto masa bazohen në organizimin e rindërtimit të proceseve, sinkronizimin e aktivitetit neurofiziologjik midis grupeve të popullatës neuronale.), ose masa e minimizimit të energjisë së lirë në bazë të metodave statistikore ( parimi i energjisë së lirë (FEP) i Karl J. Friston, një masë teorike e informacionit që pohon se çdo ndryshim adaptiv në një sistem të vetëorganizuar çon në një minimizim të energjisë së lirë, dhe hipoteza Bayesiane e trurit [72] [73] [74] [75] [76] ).
Aplikime të ndryshme
[Redakto | Redakto nëpërmjet kodit]Teoria e informacionit ka zbatime edhe në kërkimin e inteligjencës jashtëtokësore, [77] vrimat e zeza, [78] bioinformatikën, [79] dhe lojërat e fatit . [80] [81]
Aplikacione
[Redakto | Redakto nëpërmjet kodit]Teori
[Redakto | Redakto nëpërmjet kodit]Konceptet
[Redakto | Redakto nëpërmjet kodit]Lexime të mëtejshme
[Redakto | Redakto nëpërmjet kodit]Shih edhe
[Redakto | Redakto nëpërmjet kodit]Referime
[Redakto | Redakto nëpërmjet kodit]- ↑ Schneider, Thomas D. (2006). "Claude Shannon: Biologist". IEEE Engineering in Medicine and Biology Magazine (në anglisht). 25 (1): 30–33. doi:10.1109/memb.2006.1578661. ISSN 0739-5175. PMC 1538977. PMID 16485389.
- ↑ Cruces, Sergio; Martín-Clemente, Rubén; Samek, Wojciech (2019-07-03). "Information Theory Applications in Signal Processing". Entropy (në anglisht). 21 (7): 653. Bibcode:2019Entrp..21..653C. doi:10.3390/e21070653. ISSN 1099-4300. PMC 7515149. PMID 33267367.
- 1 2 Baleanu, D.; Balas, Valentina Emilia; Agarwal, Praveen, red. (2023). Fractional Order Systems and Applications in Engineering. Advanced Studies in Complex Systems (në anglisht). London, United Kingdom: Academic Press. fq. 23. ISBN 978-0-323-90953-2. OCLC 1314337815.
- ↑ Horgan, John (2016-04-27). "Claude Shannon: Tinkerer, Prankster, and Father of Information Theory". IEEE (në anglisht). Arkivuar nga origjinali më 2024-11-10. Marrë më 2024-11-08.
- ↑ Shi, Zhongzhi (2011). Advanced Artificial Intelligence (në anglisht). fq. 2. doi:10.1142/7547. ISBN 978-981-4291-34-7. Arkivuar nga origjinali më 2024-11-10. Marrë më 2024-11-09.
- ↑ Sinha, Sudhi. Reimagining Businesses with AI (në anglisht) (bot. 1). Wiley. fq. 4. doi:10.1002/9781119709183. ISBN 978-1-119-70915-2.
- ↑ Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (në anglisht) (bot. Second). New York: Springer Science. ISBN 978-0-387-95364-9.
- ↑ Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (në anglisht). The MIT press. ISBN 978-0-262-68108-7.
- ↑ Delgado-Bonal, Alfonso; Martín-Torres, Javier (2016-11-03). "Human vision is determined based on information theory". Scientific Reports (në anglisht). 6 (1). Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
- ↑ cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). "Bayesian inference of phylogeny and its impact on evolutionary biology". Science (në anglisht). 294 (5550): 2310–2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192.
- ↑ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene (në anglisht). 215 (1): 111–122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097. Arkivuar nga origjinali më 2008-08-21. Marrë më 2010-10-18.
- ↑ Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. (në anglisht). 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. Arkivuar nga origjinali më 2011-08-30. Marrë më 2008-03-13.
- ↑ Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (2020-10-05). "Method of information entropy for convergence assessment of molecular dynamics simulations". Journal of Applied Physics (në anglisht). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. OSTI 1691442.
- ↑ Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". American Journal of Sociology (në anglisht). 288 (6): 76–81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Arkivuar nga origjinali më 2007-10-07. Marrë më 2008-03-11.
- ↑ David R. Anderson (1 nëntor 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). Arkivuar nga origjinali (PDF) më 23 korrik 2011. Marrë më 2010-06-23.
- ↑ Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (red.), "Music, Expectation, and Information Theory", The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (në anglisht), Cham: Springer International Publishing, fq. 161–169, doi:10.1007/978-3-319-47337-6_17, ISBN 978-3-319-47337-6, marrë më 2024-09-19
- ↑ Rocamora, Martín; Cancela, Pablo; Biscainho, Luiz (2019-04-05). "Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns". Journal of the Audio Engineering Society (në anglisht). 67 (4): 160–173. doi:10.17743/jaes.2019.0003. Arkivuar nga origjinali më 21 shkurt 2024. Marrë më 5 dhjetor 2025.
- ↑ Marsden, Alan (2020). "New Prospects for Information Theory in Arts Research". Leonardo (në anglisht). 53 (3): 274–280. doi:10.1162/leon_a_01860. ISSN 0024-094X.
- ↑ Wing, Simon; Johnson, Jay R. (2019-02-01). "Applications of Information Theory in Solar and Space Physics". Entropy (në anglisht). 21 (2): 140. Bibcode:2019Entrp..21..140W. doi:10.3390/e21020140. ISSN 1099-4300. PMC 7514618. PMID 33266856.
- ↑ Kak, Subhash (2020-11-26). "Information theory and dimensionality of space". Scientific Reports (në anglisht). 10 (1). doi:10.1038/s41598-020-77855-9. ISSN 2045-2322. PMC 7693271. PMID 33244156.
- ↑ Harms, William F. (1998). "The Use of Information Theory in Epistemology". Philosophy of Science (në anglisht). 65 (3): 472–501. doi:10.1086/392657. ISSN 0031-8248. JSTOR 188281.
- ↑ F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (në anglisht). The MIT press. ISBN 978-0-262-68108-7.
- ↑ Berrou, C.; Glavieux, A.; Thitimajshima, P. (maj 1993). "Near Shannon limit error-correcting coding and decoding: Turbo-codes. 1". Proceedings of ICC '93 - IEEE International Conference on Communications (në anglisht). Vëll. 2. fq. 1064–1070 vol.2. doi:10.1109/ICC.1993.397441. ISBN 0-7803-0950-2.
- ↑ MacKay, D.J.C. (mars 1999). "Good error-correcting codes based on very sparse matrices". IEEE Transactions on Information Theory (në anglisht). 45 (2): 399–431. Bibcode:1999ITIT...45..399M. doi:10.1109/18.748992. ISSN 1557-9654.
- ↑ Menezes, Alfred J.; van Oorschot, Paul C.; Vanstone, Scott A. (2018-12-07). Handbook of Applied Cryptography (në anglisht) (bot. 1). CRC Press. doi:10.1201/9780429466335. ISBN 978-0-429-46633-5.
- ↑ Gleick 2011, ff. 3–4.
- ↑ Horgan, John (2016-04-27). "Claude Shannon: Tinkerer, Prankster, and Father of Information Theory". IEEE (në anglisht). Arkivuar nga origjinali më 2023-09-28. Marrë më 2023-09-30.
- ↑ Roberts, Siobhan (2016-04-30). "The Forgotten Father of the Information Age". The New Yorker (në anglishte amerikane). ISSN 0028-792X. Arkivuar nga origjinali më 2023-09-28. Marrë më 2023-09-30.
- ↑ Tse, David (2020-12-22). "How Claude Shannon Invented the Future". Quanta Magazine. Arkivuar nga origjinali më 2023-12-15. Marrë më 2023-09-30.
- ↑ Tse, David (2020-12-22). "How Claude Shannon Invented the Future". Quanta Magazine. Arkivuar nga origjinali më 2023-12-15. Marrë më 2023-09-30.
- ↑ Shannon, Claude E. (korrik 1948). "A Mathematical Theory of Communication" (PDF). Bell System Technical Journal (në anglisht). 27 (3 & 4): 379–423, 623–656. Bibcode:1948BSTJ...27..379S. doi:10.1002/j.1538-7305.1948.tb01338.x. Arkivuar nga origjinali (PDF) më 2019-02-15. Marrë më 2019-08-16.
- ↑ Braverman, Mark (19 shtator 2011). "Information Theory in Computer Science" (PDF). Arkivuar (PDF) nga origjinali më 20 maj 2024. Marrë më 25 maj 2024.
- ↑ Cover, Thomas M.; Thomas, Joy A. (2006). Elements of Information Theory (në anglisht) (bot. 2nd). Wiley-Interscience. fq. 14. ISBN 978-0-471-24195-9.
- ↑ Thomas, Cover (2004). Information Measures: Information and its Description in Science and Engineering (në anglisht). Springer. fq. 5. ISBN 978-3-540-40855-0.
- ↑ Information Theory, Inference and Learning Algorithms (në anglisht). Cambridge University Press. 2003. fq. 29. ISBN 978-0-521-64298-9.
- ↑ ""Entropy" at the Clausius-Shannon Interface". 2009. fq. 394–438. doi:10.3390/e11030388 (jo aktiv 6 korrik 2025). Marrë më 2025-07-06.
{{cite web}}: Mirëmbajtja CS1: DOI që nga 2025 (lidhja) - ↑ MacKay, David J.C. (2003). Information Theory, Inference and Learning Algorithms (në anglisht). Cambridge University Press. fq. 29. ISBN 978-0-521-64298-9.
- ↑ Reza, Fazlollah M. (1994). An Introduction to Information Theory (në anglisht). Dover Publications. fq. 66. ISBN 978-0-486-68210-5.
- ↑ Stone, James V. (2015). Information Theory: A Tutorial Introduction (në anglisht). Sebtel Press. fq. 7. ISBN 978-0-9563728-5-7.
- ↑ Cover, Thomas M.; Thomas, Joy A. (2006). Elements of Information Theory (në anglisht) (bot. 2nd). Wiley-Interscience. fq. 1. ISBN 978-0-471-24195-9.
- ↑ Cover, Thomas M.; Thomas, Joy A. (2006). Elements of Information Theory (në anglisht) (bot. 2nd). Wiley-Interscience. fq. 27. ISBN 978-0-471-24195-9.
Theorem 2.6.2: H(X) ≤ log|X|, with equality if and only if X has a uniform distribution over X.
- ↑ Reza, Fazlollah M. (1994). An Introduction to Information Theory (në anglisht). Dover Publications. fq. 66. ISBN 978-0-486-68210-5.
- ↑ MacKay, David J.C. (2003). Information Theory, Inference and Learning Algorithms (në anglisht). Cambridge University Press. fq. 29. ISBN 978-0-521-64298-9.
- ↑ Reza, Fazlollah M. (1994). An Introduction to Information Theory (në anglisht). Dover Publications. fq. 66. ISBN 978-0-486-68210-5.
- ↑ Cover, Thomas M.; Thomas, Joy A. (2006). Elements of Information Theory (në anglisht) (bot. 2nd). Wiley-Interscience. fq. 14. ISBN 978-0-471-24195-9.
- ↑ Leung, K. (2011). "Information Theory and the Central Limit Theorem" (PDF). Purdue University. Marrë më 2025-07-06.
The unit of information is determined by the base of the logarithm. If the base is 2, the unit is bits. If the base is e, the unit is nats.
[lidhje e vdekur] - ↑ Arndt, C. (2004). Information Measures: Information and its Description in Science and Engineering (në anglisht). Springer. fq. 5. ISBN 978-3-540-40855-0.
- ↑ MacKay, David J.C. (2003). Information Theory, Inference and Learning Algorithms (në anglisht). Cambridge University Press. fq. 30. ISBN 978-0-521-64298-9.
If we use logarithms to the base b, we are measuring information in units of logb 2 bits. We can call a quantity of information of log2 256 = 8 bits one byte.
- ↑ Cover, Thomas M.; Thomas, Joy A. (2006). Elements of Information Theory (në anglisht) (bot. 2nd). Wiley-Interscience. fq. 15. ISBN 978-0-471-24195-9.
- ↑ MacKay, David J.C. (2003). Information Theory, Inference and Learning Algorithms (në anglisht). Cambridge University Press. fq. 145. ISBN 978-0-521-64298-9.
- ↑ Ash 1990.
- ↑ Massey, James (1990), "Causality, Feedback And Directed Information", Proc. 1990 Intl. Symp. on Info. Th. and its Applications (në anglisht), CiteSeerX 10.1.1.36.5688
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (shkurt 2009). "Finite State Channels With Time-Invariant Deterministic Feedback". IEEE Transactions on Information Theory (në anglisht). 55 (2): 644–662. arXiv:cs/0608070. Bibcode:2009ITIT...55..644P. doi:10.1109/TIT.2008.2009849.
- ↑ Kramer, G. (janar 2003). "Capacity results for the discrete memoryless network". IEEE Transactions on Information Theory (në anglisht). 49 (1): 4–21. Bibcode:2003ITIT...49....4K. doi:10.1109/TIT.2002.806135.
- ↑ Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (qershor 2011). "Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing". IEEE Transactions on Information Theory (në anglisht). 57 (6): 3248–3259. arXiv:0912.4872. Bibcode:2011ITIT...57.3248P. doi:10.1109/TIT.2011.2136270.
- ↑ Simeone, Osvaldo; Permuter, Haim Henri (qershor 2013). "Source Coding When the Side Information May Be Delayed". IEEE Transactions on Information Theory (në anglisht). 59 (6): 3607–3618. arXiv:1109.1293. Bibcode:2013ITIT...59.3607S. doi:10.1109/TIT.2013.2248192.
- ↑ Charalambous, Charalambos D.; Stavrou, Photios A. (gusht 2016). "Directed Information on Abstract Spaces: Properties and Variational Equalities". IEEE Transactions on Information Theory (në anglisht). 62 (11): 6019–6052. arXiv:1302.3971. Bibcode:2016ITIT...62.6019C. doi:10.1109/TIT.2016.2604846.
- ↑ Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (janar 2018). "LQG Control With Minimum Directed Information: Semidefinite Programming Approach". IEEE Transactions on Automatic Control (në anglisht). 63 (1): 37–52. arXiv:1510.04214. Bibcode:2018ITAC...63...37T. doi:10.1109/TAC.2017.2709618. Arkivuar nga origjinali më 12 pri 2024 – nëpërmjet TU Delft Repositories.
- ↑ Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 prill 2016). "Analogy between gambling and measurement-based work extraction". Journal of Statistical Mechanics: Theory and Experiment (në anglisht). 2016 (4). arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403.
- ↑ Jerry D. Gibson (1998). Digital Compression for Multimedia: Principles and Standards (në anglisht). Morgan Kaufmann. ISBN 1-55860-369-7.
- ↑ Massey, James (1990), "Causality, Feedback And Directed Information", Proc. 1990 Intl. Symp. on Info. Th. and its Applications (në anglisht), CiteSeerX 10.1.1.36.5688
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (shkurt 2009). "Finite State Channels With Time-Invariant Deterministic Feedback". IEEE Transactions on Information Theory (në anglisht). 55 (2): 644–662. arXiv:cs/0608070. Bibcode:2009ITIT...55..644P. doi:10.1109/TIT.2008.2009849.
- ↑ Bartlett, Stephen D.; Rudolph, Terry (prill–qershor 2007). "Reference frames, superselection rules, and quantum information". Reviews of Modern Physics (në anglisht). 79 (2): 555–606. arXiv:quant-ph/0610030. Bibcode:2007RvMP...79..555B. doi:10.1103/RevModPhys.79.555.
- ↑ Peres, A.; P. F. Scudo (2002b). A. Khrennikov (red.). Quantum Theory: Reconsideration of Foundations (në anglisht). Växjö University Press, Växjö, Sweden. fq. 283.
- ↑ Haggerty, Patrick E. (1981). "The corporation and innovation". Strategic Management Journal (në anglisht). 2 (2): 97–118. doi:10.1002/smj.4250020202.
- 1 2 Nauta, Doede (1972). The Meaning of Information (në anglisht). The Hague: Mouton. ISBN 978-90-279-1996-0.
- ↑ Nöth, Winfried (janar 2012). "Charles S. Peirce's theory of information: a theory of the growth of symbols and of knowledge". Cybernetics and Human Knowing (në anglisht). 19 (1–2): 137–161.
- ↑ Maurer, H. (2021). "Chapter 10: Systematic Class of Information Based Architecture Types". Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism (në anglisht). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN 978-1-351-04352-6.
- ↑ Tononi, G.; Sporns, O. (2003). "Measuring information integration". BMC Neuroscience (në anglisht). 4: 1–20. doi:10.1186/1471-2202-4-31. PMC 331407. PMID 14641936.
- ↑ Tononi, G. (2004a). "An information integration theory of consciousness". BMC Neuroscience (në anglisht). 5: 1–22. doi:10.1186/1471-2202-5-42. PMC 543470. PMID 15522121.
- ↑ Tononi, G. (2004b). "Consciousness and the brain: theoretical aspects" (PDF). përmbledhur nga Adelman, G.; Smith, B. (red.). Encyclopedia of Neuroscience (në anglisht) (bot. 3rd). Amsterdam, Oxford: Elsevier. ISBN 0-444-51432-5. Arkivuar nga origjinali më 2023-12-02.
- ↑ Friston, K.; Stephan, K.E. (2007). "Free-energy and the brain". Synthese (në anglisht). 159 (3): 417–458. doi:10.1007/s11229-007-9237-y. PMC 2660582. PMID 19325932.
- ↑ Friston, K. (2010). "The free-energy principle: a unified brain theory". Nature Reviews Neuroscience (në anglisht). 11 (2): 127–138. doi:10.1038/nrn2787. PMID 20068583.
- ↑ Friston, K.; Breakstear, M.; Deco, G. (2012). "Perception and self-organized instability". Frontiers in Computational Neuroscience (në anglisht). 6: 1–19. doi:10.3389/fncom.2012.00044. PMC 3390798. PMID 22783185.
- ↑ Friston, K. (2013). "Life as we know it". Journal of the Royal Society Interface (në anglisht). 10 (86). doi:10.1098/rsif.2013.0475. PMC 3730701. PMID 23825119.
- ↑ Kirchhoff, M.; Parr, T.; Palacios, E.; Friston, K.; Kiverstein, J. (2018). "The Markov blankets of life: autonomy, active inference and the free energy principle". Journal of the Royal Society Interface (në anglisht). 15 (138). doi:10.1098/rsif.2017.0792. PMC 5805980. PMID 29343629.
- ↑ "Information theory, animal communication, and the search for extraterrestrial intelligence". Acta Astronauctica (në anglisht). 68 (3–4): 406–417. shkurt 2011. Bibcode:2011AcAau..68..406D. doi:10.1016/j.actaastro.2009.11.018.
- ↑ Bekenstein, Jacob D (2004). "Black holes and information theory". Contemporary Physics (në anglisht). 45 (1): 31–43. arXiv:quant-ph/0311049. Bibcode:2004ConPh..45...31B. doi:10.1080/00107510310001632523. ISSN 0010-7514.
- ↑ Vinga, Susana (2014-05-01). "Information theory applications for biological sequence analysis". Briefings in Bioinformatics (në anglisht). 15 (3): 376–389. doi:10.1093/bib/bbt068. ISSN 1467-5463. PMC 7109941. PMID 24058049. Arkivuar nga origjinali më 2022-02-12. Marrë më 2025-01-20.
- ↑ Thorp, Edward O. (2008-01-01), Zenios, S. A.; Ziemba, W. T. (red.), "The kelly criterion in blackjack sports betting, and the stock market*", Handbook of Asset and Liability Management (në anglisht), San Diego: North-Holland, fq. 385–428, doi:10.1016/b978-044453248-0.50015-0, ISBN 978-0-444-53248-0, arkivuar nga origjinali më 2025-01-25, marrë më 2025-01-20
- ↑ Haigh, John (2000). "The Kelly Criterion and Bet Comparisons in Spread Betting". Journal of the Royal Statistical Society, Series D (The Statistician) (në anglisht). 49 (4): 531–539. doi:10.1111/1467-9884.00251. ISSN 1467-9884.