工商银行3月21日发售三期国开行金融债——新华网——湖南
Теор?я ?нформац?? |
---|
![]() |
Тео?р?я ?нформ?ац?? (англ. Information theory) — це математичне досл?дження к?льк?сного вираження, збер?гання та передавання ?нформац??. Заснував цю галузь ? забезпечив ?й над?йну основу Клод Шеннон у 1940-х роках,[1] хоча ранн?й внесок до цьому напряму зробили в 1920-х роках прац? Гарр? Найкв?ста та Ральфа Гартл?. Вона перебува? на перетин? електронно? ?нженер??, математики, статистики, ?нформатики, нейроб?олог??, ф?зики та електротехн?ки.[2][3]
Ключовою м?рою в теор?? ?нформац?? ? ентроп?я. Ентроп?я вим?рю? р?вень невизначеност? щодо значення випадково? величини або результату випадкового процесу. Наприклад, визначення результату п?дкидання симетрично? монети (що ма? два р?вноймов?рн? результати) да? менше ?нформац?? (меншу ентроп?ю, меншу невизначен?сть), ан?ж визначення результату кидання грально? к?сточки (що ма? ш?сть р?вноймов?рних результат?в). До ?нших важливих м?р у теор?? ?нформац?? належать вза?мна ?нформац?я, пропускна спроможн?сть каналу, показники помилок та в?дносна ентроп?я. До важливих п?дрозд?л?в теор?? ?нформац?? належать кодування джерела, алгоритм?чна теор?я складност?, алгоритм?чна теор?я ?нформац?? та ?нформац?йно-теоретична безпека .
До застосувань основних предмет?в теор?? ?нформац?? належать кодування джерела/стиснення даних (наприклад, для файл?в zip) та канальне кодування/виявляння та виправляння помилок (наприклад, для DSL). ?? вплив був вир?шальним для усп?ху м?с?й ?Вояджер? до глибокого космосу,[4] винайдення компакт-диска, можливост? моб?льних телефон?в ? розвитку ?нтернету й штучного ?нтелекту.[5][3] Ця теор?я також знайшла застосування й в ?нших сферах, як-от ?ндуктивн?й статистиц?,[6] криптограф??, нейроб?олог??,[7] сприйнятт?,[8] обробц? сигнал?в,[2] мовознавств?, еволюц??[9] та функц?юванн?[10] молекулярних код?в (б?о?нформатиц?), теплоф?зиц?,[11] молекулярн?й динам?ц?,[12] чорних д?рах, квантових обчисленнях, ?нформац?йному пошуку, збиранн? ?нформац??, виявлянн? плаг?ату,[13] розп?знаванн? образ?в, виявлянн? аномал?й,[14] музичн?й анал?тиц?,[15][16] створенн? живопису,[17] про?ктуванн? систем зображування ,[18] вивченн? косм?чного простору,[19] вим?рност? простору,[20] ? нав?ть еп?стемолог??.[21]
Теор?я ?нформац?? вивча? передавання, обробку, вид?ляння та використання ?нформац??. Абстрактно ?нформац?ю можливо розглядати як розв'язання невизначеност?. У випадку передавання ?нформац?? зашумленим каналом це абстрактне поняття формал?зував 1948 року Клод Шеннон у статт? п?д назвою ?Математична теор?я зв'язку?, в як?й ?нформац?ю розглянуто як наб?р можливих пов?домлень, а метою ? передавання цих пов?домлень зашумленим каналом, щоби приймач м?г в?дтворити пов?домлення з низькою ймов?рн?стю помилки, незважаючи на шум каналу. Головний результат Шеннона, теорема про кодування для зашумленого каналу , показав, що за велико? к?лькост? використань каналу швидк?сть передач? ?нформац??, яка асимптотично досяжна, дор?вню? пропускн?й спроможност? каналу, величин?, яка залежить лише в?д статистичних характеристик каналу, яким передають пов?домлення.[7]
Теор?я кодування займа?ться пошуком конкретних метод?в, званих кодами (англ. codes), для п?двищення ефективност? та зниження р?вня помилок при передаванн? даних зашумленими каналами, з наближенням до пропускно? спроможност? каналу. Ц? коди можливо умовно под?лити на методи стискання даних (кодування джерела) та виправляння помилок (кодування каналу). У випадку останнього знадобилося багато рок?в, щоби знайти методи, можлив?сть яких дов?в Шеннон.[джерело?]
Трет?й клас код?в у теор?? ?нформац?? — алгоритми шифрування (як коди , так ? шифри). Поняття, методи й результати з теор?? кодування та теор?? ?нформац?? широко використовують у криптограф?? та криптоанал?з?, наприклад, одиничний бан.[джерело?]
Знаковою под??ю, що заклала основу дисципл?ни теор?? ?нформац?? та привернула до не? негайну св?тову увагу, стала публ?кац?я класично? статт? Клода Е. Шеннона ?Математична теор?я зв'язку? в Bell System Technical Journal у липн? та жовтн? 1948 року. ?сторик Джеймс ?л?к оц?нив цю статтю як найважлив?ше досягнення 1948 року, вище за транзистор, зазначивши, що ця праця була ?нав?ть глибшою й фундаментальн?шою? за транзистор.[22] Шеннон став в?домим як ?батько теор?? ?нформац???.[23][24][25] В?н викладав деяк? з? сво?х початкових ?дей щодо теор?? ?нформац?? ще 1939 року в лист? до Венн?вера Буша.[25]
До ц??? статт? обмежен? ?нформац?йно-теоретичн? ?де? розробили в Bell Labs, при цьому вс? вони неявно виходили з однаково? ймов?рност? под?й. У сво?й статт? 1924 року ?Деяк? чинники, як? впливають на швидк?сть телеграфу? (англ. Certain Factors Affecting Telegraph Speed) Гарр? Найкв?ст пом?стив теоретичний розд?л, де к?льк?сно визначив ?в?домост?? (англ. "intelligence") та ?швидк?сть л?н??? (англ. "line speed"), з якою ?х можливо передавати комун?кац?йною системою, встановивши сп?вв?дношення W = K log m (що нагаду? сталу Больцмана), де W — швидк?сть передач? в?домостей, m — к?льк?сть р?зних р?вн?в напруги, з яких можна обирати на кожному часовому кроц?, а K — стала. Стаття Ральфа Гартл? 1928 року ?Передавання ?нформац??? (англ. Transmission of Information) використову? терм?н ?нформац?я (англ. information) як вим?рювану величину, що в?добража? здатн?сть приймача розр?зняти одну посл?довн?сть символ?в з будь-якими ?ншими, тим самим к?льк?сно визначаючи ?нформац?ю як H = log Sn = n log S, де S — к?льк?сть можливих символ?в, а n — к?льк?сть символ?в у передаванн?. Отже, одиницею ?нформац?? була десяткова цифра, яку згодом ?нод? називали гартл? на його честь як одиницю, шкалу або м?ру ?нформац??. 1940 року Алан Тюр?нг використав под?бн? ?де? як частину статистичного анал?зу для розшифровки н?мецьких шифр?в ?Ен?гми? п?д час Друго? св?тово? в?йни.[джерело?]
Б?льш?сть математичного апарату теор?? ?нформац?? для р?зноймов?рн?сних под?й розробили для галуз? термодинам?ки Людв?г Больцман та Джозая В?ллард ??ббз. Зв'язки м?ж ?нформац?йною ентроп??ю та термодинам?чною ентроп??ю, включно з важливими внесками Рольфа Ландауера 1960-х рок?в, розглянуто в статт? ?Ентроп?я в термодинам?ц? та теор?? ?нформац?? ?.[джерело?]
У революц?йн?й ? новаторськ?й статт? Шеннона, роботу над якою було значною м?рою завершено в Bell Labs до к?нця 1944 року, Шеннон уперше представив як?сну та к?льк?сну модель зв'язку як статистичний процес, що лежить в основ? теор?? ?нформац??, розпочавши з твердження:
![]() |
Основна задача зв'язку поляга? в тому, щоби в?дтворити в одн?й точц?, точно або приблизно, пов?домлення, вибране в ?нш?й точц?.
Ориг?нальний текст (англ.)
The fundamental problem of communication is that of reproducing at one point, either exactly or approximately, a message selected at another point. |
![]() |
З нею прийшли ?де?:
- ?нформац?йно? ентроп?? та надм?рност? джерела, та ?хньо? значущост? через теорему про кодування джерела ;
- вза?мно? ?нформац?? та пропускно? спроможност? зашумленого каналу, включно з об?цянкою бездоганно? передач? без втрат, яку да? теорема про кодування для зашумленого каналу;
- практичного результату закону Шеннона — Гартл? для пропускно? спроможност? гауссового каналу; а також
- б?та — нового способу бачення найфундаментальн?шо? одиниц? ?нформац??.[джерело?]
Цей розд?л не м?стить посилань на джерела. (листопад 2024) |
Теор?я ?нформац?? ?рунту?ться на теор?? ймов?рностей та статистиц?, де к?льк?сно виражену ?нформац?ю зазвичай описують у б?тах. Теор?я ?нформац?? часто займа?ться вим?рюванням ?нформац?? в розпод?лах, пов'язаних ?з випадковими величинами. Одн??ю з найважлив?ших м?р ? ентроп?я, що ? основою для багатьох ?нших м?р. Ентроп?я дозволя? к?льк?сно виразити м?ру ?нформац?? в окрем?й випадков?й величин?.[26] ?ншим корисним поняттям ? вза?мна ?нформац?я, визначена для двох випадкових величин, яка опису? м?ру ?нформац??, сп?льно? м?ж цими величинами, що можливо використовувати для опису ?хньо? кореляц??. Перша величина ? властив?стю розпод?лу ймов?рност? випадково? величини й визнача? границю швидкост?, з якою дан?, породжен? незалежними зразками ?з заданим розпод?лом, можливо над?йно стиснути. Друга ? властив?стю сп?льного розпод?лу двох випадкових величин ? ? максимальною швидк?стю над?йного передавання зашумленим каналом в границ? довжин блок?в, коли статистика каналу визнача?ться цим сп?льним розпод?лом.
Виб?р основи логарифму в наступних формулах визнача? вживану одиницю ?нформац?йно? ентроп??. Загальновживаною одиницею ?нформац?? ? б?т або шеннон, що ?рунту?ться на дв?йковому логарифм?. До ?нших одиниць належать нат, що ?рунту?ться на натуральному логарифм?, та десяткова цифра, що ?рунту?ться на десятковому логарифм?.
Дал? вираз вигляду p log p, коли p = 0, вважають за згодою нульовим. Це виправдано тим, що для будь-яко? основи логарифму.
Виходячи з функц?? маси ймов?рност? кожного символу джерела, що переда?ться, ентроп?ю Шеннона H у б?тах (на символ) задають як
де pi — ймов?рн?сть трапляння i-того можливого значення символу джерела. Це р?вняння да? ентроп?ю в одиницях ?б?т? (на символ), оск?льки воно використову? логарифм з основою 2, ? таку м?ру ентроп?? на основ? логарифму за основою 2 ?нод? називають шенноном на його честь. Ентроп?ю також часто обчислюють, використовуючи натуральний логарифм (з основою e, де e — число Ейлера), що да? вим?рювання ентроп?? в натах на символ й ?нод? спрощу? анал?з, усуваючи потребу в додаткових сталих у формулах. Можлив? й ?нш? основи, хоча ?х використовують р?дше. Наприклад, логарифм з основою 28 = 256 да? вим?рювання в байтах на символ, а логарифм з основою 10 — у десяткових цифрах (або гартл?) на символ.
?нту?тивно, ентроп?я HX дискретно? випадково? величини X ? м?рою невизначеност? (англ. uncertainty), пов'язано? з? значенням X, коли в?домий лише ?? розпод?л.
Ентроп?я джерела, яке вида? посл?довн?сть з N символ?в, як? незалежн? й однаково розпод?лен? (н. о. р.), дор?вню? N ? H б?т (на пов?домлення з N символ?в). Якщо символи даних джерела однаково розпод?лен?, але не незалежн?, ентроп?я пов?домлення довжиною N буде меншою за N ? H.

Якщо передати 1000 б?т?в (нул?в та одиниць), але значення кожного з цих б?т?в в?доме приймачу (ма? певне значення з упевнен?стю) ще до передач?, то очевидно, що жодно? ?нформац?? не передано. Якщо ж кожен б?т незалежно й однаково правдопод?бно може бути 0 або 1, то передано 1000 шеннон?в ?нформац?? (част?ше званих б?тами). М?ж цими двома крайнощами ?нформац?ю можливо к?льк?сно виразити наступним чином. Якщо — множина вс?х пов?домлень {x1, ..., xn}, якими може бути X, а p(x) — ?мов?рн?сть деякого , то ентроп?ю H величини X визначають як[27]
(Тут I(x) — власна ?нформац?я, що ? внеском ентроп?? окремого пов?домлення, а — математичне спод?вання.) Одн??ю з властивостей ентроп?? ? те, що вона максим?зу?ться, коли вс? пов?домлення у простор? пов?домлень р?вноймов?рн?, тобто p(x) = 1/n, тобто найнепередбачуван?ш?, й у такому випадку H(X) = log n.
Особливий випадок ?нформац?йно? ентроп?? для випадково? величини з двома можливими результатами — функц?я б?нарно? ентроп??, зазвичай з логарифмом за основою 2, що в?дтак ма? одиницею шеннон (Sh):
Сп?льна ентроп?я (англ. joint entropy) двох дискретних випадкових величин X та Y — це просто ентроп?я ?хньо? дв?йки: (X, Y). Це означа?, що якщо X та Y незалежн?, то ?хня сп?льна ентроп?я дор?вню? сум? ?хн?х окремих ентроп?й.
Наприклад, якщо (X, Y) пода? положення шахово? ф?гури — X це рядок, а Y це стовпець, то сп?льна ентроп?я рядка та стовпця ф?гури буде ентроп??ю ?? положення.
Попри схож?сть позначень, сп?льну ентроп?ю не сл?д плутати з перехресною ентроп??ю (англ. cross-entropy).
Умовна ентроп?я (англ. conditional entropy) або умовна невизначен?сть (англ. conditional uncertainty) величини X за задано? випадково? величини Y (також звана неоднозначн?стю[28] X щодо Y, англ. equivocation) — це усереднена умовна ентроп?я за Y:[29]
Оск?льки ентроп?я може бути обумовлена випадковою величиною (загальна умовна ентроп?я) або конкретним значенням ц??? випадково? величини (часткова умовна ентроп?я),[30][31] сл?д бути уважними, щоби не плутати ц? два визначення умовно? ентроп??, перше з яких ? поширен?шим. Основною властив?стю ц??? форми умовно? ентроп?? ? те, що
Вза?мна ?нформац?я (англ. mutual information) вим?рю? к?льк?сть ?нформац?? про одну випадкову величину, яку можливо отримати, спостер?гаючи ?ншу. Вона важлива в комун?кац?ях, де ?? можливо використовувати для максим?зування к?лькост? сп?льно? ?нформац?? м?ж передаваним та отримуваним сигналами. Вза?мну ?нформац?ю X в?дносно Y визначають як
де SI (англ. Specific mutual Information, конкретна вза?мна ?нформац?я) — це поточкова вза?мна ?нформац?я.
Основна властив?сть вза?мно? ?нформац?? поляга? в тому, що
Тобто, знаючи Y, можливо заощадити в середньому I(X; Y) б?т?в при кодуванн? X пор?вняно з ситуац??ю, коли Y нев?дома.
Вза?мна ?нформац?я симетрична:
Вза?мну ?нформац?ю можливо виразити як усереднення розходження Кульбака — Лейблера (приросту ?нформац??) апостер?орного розпод?лу ймов?рност? X за заданого значення Y з апр?орним розпод?лом X:
?ншими словами, це м?ра того, наск?льки в середньому зм?ниться розпод?л ?мов?рност? X, якщо задано значення Y. ?? часто переобчислюють як розходження добутку в?дособлених розпод?л?в з? справжн?м сп?льним розпод?лом:
Вза?мна ?нформац?я т?сно пов'язана з критер??м логарифм?чного сп?вв?дношення правдопод?бностей у контекст? таблиць спряженост? та пол?ном?ального розпод?лу, а також ?з критер??м χ2 П?рсона: вза?мну ?нформац?ю можливо вважати статистикою для оц?нювання незалежност? пари зм?нних, ? вона ма? добре визначений асимптотичний розпод?л.
Розходження Кульбака — Лейблера (англ. Kullback–Leibler divergence, або розходження ?нформац??, англ. information divergence, прир?ст ?нформац??, англ. information gain, чи в?дносна ентроп?я, англ. relative entropy) — це спос?б пор?вняння двох розпод?л?в: ??стинного? розпод?лу ймов?рност? та дов?льного розпод?лу . Якщо ми стиска?мо дан?, вважаючи, що ?хн?й розпод?л це , тод? як насправд? правильний розпод?л це , розходження Кульбака–Лейблера визнача? середню к?льк?сть додаткових б?т?в на дан?, необх?дних для стискання. Його в?дтак визначають як
Хоча ?нод? його й використовують як ?метрику в?дстан??, КЛ-розходження не ? справжньою метрикою, оск?льки воно не симетричне й не задовольня? нер?вн?сть трикутника (що робить його нап?в-квазиметрикою).
?ншим тлумаченням КЛ-розходження ? ?зайва неспод?ван?сть? (англ. "unnecessary surprise"), створювана апр?орним розпод?лом у пор?внянн? з ?стинним: припуст?мо, що число X буде випадковим чином обрано з дискретно? множини з розпод?лом ймов?рност? . Якщо Ал?са зна? ?стинний розпод?л , а Боб вважа? (ма? апр?орне переконання), що цим розпод?лом ? , то для Боба побачене значення X у середньому буде б?льш неспод?ваним, ан?ж для Ал?си. КЛ-розходження ? (об'?ктивним) оч?куваним значенням (суб'?ктивно?) неспод?ваност? для Боба, м?нус неспод?ван?сть для Ал?си, вим?ряним у б?тах, якщо логарифм взято за основою 2. Таким чином, м?ру того, наск?льки ?помилковим? ? апр?орне переконання Боба, можливо к?льк?сно виразити у вигляд? оч?кувано? ?зайво? неспод?ваност?? для нього.
Спрямована ?нформац?я (англ. directed Information) — це м?ра в теор?? ?нформац??, що к?льк?сно визнача? ?нформац?йний пот?к в?д випадкового процесу до випадкового процесу . Терм?н спрямована ?нформац?я запровадив Джеймс Месс?, ?? визначено як
- ,
де — умовна вза?мна ?нформац?я .
На в?дм?ну в?д вза?мно? ?нформац??, спрямована ?нформац?я не симетрична. вим?рю? к?льк?сть ?нформац??, що переда?ться причинно[прояснити: ком.] в?д до . Спрямована ?нформац?я знаходить широке застосування в задачах, де важливу роль в?д?гра? причинн?сть, як-от пропускна спроможн?сть каналу з? зворотним зв'язком,[32][33] пропускна спроможн?сть дискретних мереж без пам'ят? з? зворотним зв'язком,[34] ставки з причинною додатковою ?нформац??ю,[35] стиснення з причинною додатковою ?нформац??ю,[36] постановки комун?кац?? керування в реальному час?,[37][38] та у статистичн?й ф?зиц?.[39]
До ?нших важливих ?нформац?йно-теоретичних к?лькостей належать ентроп?я Рень? та ентроп?я Цалл?са (узагальнення поняття ентроп??), диференц?альна ентроп?я (узагальнення к?лькостей ?нформац?? для неперервних розпод?л?в) та умовна вза?мна ?нформац?я . Також було запропоновано прагматичну ?нформац?ю як м?ру к?лькост? ?нформац??, використано? для ухвалення р?шення.
Цей розд?л не м?стить посилань на джерела. (листопад 2024) |

Теор?я кодування — одне з найважлив?ших ? найбезпосередн?ших застосувань теор?? ?нформац??. ?? можливо под?лити на теор?ю кодування джерела та теор?ю кодування каналу. Використовуючи статистичний опис даних, теор?я ?нформац?? визнача? к?льк?сть б?т?в, необх?дних для опису даних, що ? ?нформац?йною ентроп??ю джерела.
- Стиснення даних (кодування джерела): для задач? стиснення ?снують дв? постановки:
- стиснення без втрат: дан? мусять в?дновлюватися точно;
- стиснення з утратами: вид?ля? ст?льки б?т?в, ск?льки необх?дно для в?дновлення даних ?з заданим р?внем точност?, що вим?рю?ться функц??ю спотворення. Цей п?дрозд?л теор?? ?нформац?? називають теор??ю швидкост? — спотворення (англ. rate–distortion theory).
- Коди з виправлянням помилок (кодування каналу): тод? як стиснення даних усува? якомога б?льше надм?рност?, код з виправлянням помилок дода? саме ту надм?рн?сть (тобто виправляння помилок), яка необх?дна для ефективного й над?йного передавання даних зашумленим каналом.
Цей под?л теор?? кодування на стиснення й передавання об?рунтовано теоремами про передавання ?нформац??, або теоремами про розд?лення джерела й каналу, як? п?дтверджують використання б?т?в як ун?версально? валюти для ?нформац?? в багатьох контекстах. Проте ц? теореми справедлив? лише в ситуац?ях, коли один передавач прагне сп?лкуватися з одним приймачем. У випадках, коли ? понад одного передавача (канал ?з множинним доступом), понад одного приймача (канал мовлення) або пром?жн? ?пом?чники? (ретрансляц?йний канал , англ. relay channel), чи для загальн?ших мереж, стиснення з подальшим передавання може вже не бути оптимальним.
Будь-який процес, що породжу? посл?довн? пов?домлення, можливо розглядати як джерело (англ. source) ?нформац??. Джерело без пам'ят? (англ. memoryless) — це таке джерело, в якому кожне пов?домлення — незалежна й однаково розпод?лена випадкова величина, тод? як властивост? ергодичност? та стац?онарност? накладають менш жорстк? обмеження. Ус? так? джерела стохастичн?. Ц? терм?ни добре вивчен? й поза межами теор?? ?нформац??.
?нформац?йна швидк?сть (англ. rate) — це усереднена ентроп?я на символ. Для джерел без пам'ят? це просто ентроп?я кожного символу, тод? як у випадку стац?онарного стохастичного процесу це
тобто умовна ентроп?я символу за заданих вс?х попередньо породжених символ?в. Для загальн?шого випадку не обов'язково стац?онарного процесу середня швидк?сть (англ. average rate) це
тобто границя сп?льно? ентроп?? на символ. Для стац?онарних джерел ц? два вирази дають однаковий результат.[40]
?нформац?йну швидк?сть (англ. information rate) визначають як
У теор?? ?нформац?? часто говорять про ?швидк?сть? або ?ентроп?ю? мови. Це доречно, наприклад, коли джерело ?нформац?? — англомовна проза. Швидк?сть джерела ?нформац?? пов'язана з його надм?рн?стю та можлив?стю стиснення, що ? предметом кодування джерела.
Передавання ?нформац?? каналом — основний мотив теор?? ?нформац??. Проте канали часто не забезпечують точного в?дтворення сигналу; його як?сть часто можуть знижувати шум, пер?оди тиш? та ?нш? форми спотворення сигналу.
Розгляньмо процес передавання дискретним каналом. Просту модель процесу подано нижче:
Тут X пода? прост?р передаваних пов?домлень, а Y — прост?р отримуваних пов?домлень за одиницю часу нашим каналом. Нехай p(y|x) — умовна ймов?рн?сть Y за заданого X. Розгляньмо p(y|x) як притаманну незм?нну властив?сть нашого каналу (що в?добража? природу його шуму). Тод? сп?льний розпод?л X та Y повн?стю визнача?ться нашим каналом ? вибором f(x), в?дособленого розпод?лу пов?домлень, як? ми обира?мо для передавання каналом. За цих обмежень ми би хот?ли максим?зувати швидк?сть ?нформац??, або сигнал, який можливо передавати цим каналом. В?дпов?дною м?рою для цього ? вза?мна ?нформац?я, ? цю максимальну вза?мну ?нформац?ю називають пропускною спроможн?стю каналу (англ. channel capacity), та задають як
Ця пропускна спроможн?сть ма? наступну властив?сть, пов'язану з передаванням на ?нформац?йн?й швидкост? R (де R зазвичай вим?рюють у б?тах на символ). Для будь-яко? ?нформац?йно? швидкост? R < C та похибки кодування ε > 0, за достатньо великого N, ?сну? кодування довжини N, швидк?сть ≥ R та алгоритм декодування, так?, що максимальна ймов?рн?сть помилки в блоц? ≤ ε; тобто завжди можливо передавати з дов?льно малою блоковою похибкою. Кр?м того, для будь-яко? швидкост? R > C передавати з дов?льно малою блоковою похибкою неможливо.
Канальне кодування (англ. channel coding) займа?ться пошуком таких майже оптимальних кодувань, як? можливо використовувати для передавання даних зашумленим каналом з невеликою кодувальною похибкою на швидкост?, наближен?й до пропускно? спроможност? каналу.
- Канал аналогового передавання безперервного часу, п?дданий гауссовому шуму, — див. теорему Шеннона — Гартл?.
- Дв?йковий симетричний канал (ДСК) з ?мов?рн?стю спотворення p — це канал ?з б?нарним входом ? б?нарним виходом, який зм?ню? вх?дний б?т на протилежний з ?мов?рн?стю p. ДСК ма? пропускну спроможн?сть 1 - Hb(p) б?т?в на одне використання каналу, де Hb — функц?я б?нарно? ентроп?? для логарифму за основою 2:
- Дв?йковий канал з? стиранням (ДКС) з ?мов?рн?стю стирання p — це канал ?з б?нарним входом та тернарним виходом. Можлив? виходи каналу — 0, 1 та трет?й символ 'e', званий стиранням (англ. erasure). Стирання пода? повну втрату ?нформац?? про вх?дний б?т. Пропускна спроможн?сть ДКС становить 1 - p б?т?в на одне використання каналу.
На практиц? багато канал?в мають пам'ять. Тобто, у момент часу канал визнача?ться умовною ймов?рн?стю . Часто зручн?ше використовувати запис , тод? канал ста? . У такому випадку пропускна спроможн?сть визнача?ться швидк?стю вза?мно? ?нформац??, коли зворотний зв'язок недоступний, та швидк?стю спрямовано? ?нформац?? , якщо зворотний зв'язок наявний чи в?дсутн?й[32][41] (якщо зворотний зв'язок в?дсутн?й, спрямована ?нформац?я дор?вню? вза?мн?й ?нформац??).
Зам?нна ?нформац?я (англ. fungible information) — це ?нформац?я, для яко? засоби кодування не мають значення.[42] Класичн? теоретики ?нформац?? та спец?ал?сти з комп'ютерних наук здеб?льшого ц?кавляться ?нформац??ю саме цього типу. ?нод? ?? називають вимовною (англ. speakable) ?нформац??ю.[43]
Цей розд?л не м?стить посилань на джерела. (листопад 2024) |
Поняття теор?? ?нформац?? застосовн? до криптограф?? та криптоанал?зу. Одиницю ?нформац??, введену Тюр?нгом — бан, використовували у проект? ?Ультра ? для зламування коду н?мецько? машини ?Ен?гма?, що прискорило завершення Друго? св?тово? в?йни в ?вроп?. Сам Шеннон визначив важливе поняття, в?доме тепер як в?дстань ?диност?. Виходячи з надм?рност? в?дкритого тексту, це поняття намага?ться оц?нити м?н?мальну к?льк?сть шифротексту, необх?дну для забезпечення ун?кально? розшифровуваност?.
Теор?я ?нформац?? п?дказу? нам, що збер?гати секрети набагато складн?ше, н?ж може здатися на перший погляд. Атака повним перебором може зламувати системи на основ? асиметричних ключ?в, або б?льшост? широко використовуваних метод?в шифрування з симетричними ключами (?нод? званих алгоритмами з секретним ключем), як-от блокового шифру. Безпека вс?х таких метод?в ?рунту?ться на припущенн?, що не ?сну? в?домих атак, здатних зламати ?х за практично прийнятний час.
?нформац?йно-теоретична безпека охоплю? так? методи як одноразовий блокнот, що не вразлив? до под?бних атак повним перебором. У таких випадках додатна умовна вза?мна ?нформац?я м?ж в?дкритим ? шифрованим текстом (обумовлена ключем) може забезпечувати належну передачу, тод? як безумовна вза?мна ?нформац?я м?ж в?дкритим ? шифрованим текстом залиша?ться нульовою, що забезпечу? абсолютно захищений зв'язок. ?ншими словами, перехоплювач не зможе покращити сво? припущення щодо в?дкритого тексту, здобувши ?нформац?ю про шифротекст без ключа. Проте, як ? в будь-як?й ?нш?й криптограф?чн?й систем?, для правильного застосування нав?ть ?нформац?йно-теоретично захищених метод?в потр?бно бути уважними; про?кт ?Венона? виявився здатним зламати одноразов? блокноти Радянського Союзу через ?хн? неналежне повторне використання ключового матер?алу.
Цей розд?л не м?стить посилань на джерела. (листопад 2024) |
Генератори псевдовипадкових чисел широко доступн? в б?бл?отеках мов програмування та прикладних програмах. Проте майже повсюдно вони непридатн? для криптограф?чного застосування, оск?льки не обходять детерм?новану природу сучасного комп'ютерного обладнання та програмного забезпечення. Один з клас?в удосконалених генератор?в випадкових чисел називають криптограф?чно ст?йкими генераторами псевдовипадкових чисел, але нав?ть вони потребують для належно? роботи випадкових початкових значень ззовн? програмного забезпечення. ?х можливо отримувати за допомогою екстрактор?в , якщо робити це належним чином. М?рою достатньо? випадковост? в екстракторах ? м?н-ентроп?я , величина, пов'язана з ентроп??ю Шеннона через ентроп?ю Рень?; ентроп?ю Рень? також використовують для оц?нювання випадковост? в криптограф?чних системах. Хоч ц? м?ри й пов'язан?, в?дм?нност? м?ж ними означають, що випадкова величина з високою ентроп??ю Шеннона не обов'язково задов?льна для використання в екстрактор? та, в?дпов?дно, в криптограф??.
Одним ?з ранн?х комерц?йних застосувань теор?? ?нформац?? була галузь сейсм?чного розв?дування нафти. Робота в ц?й галуз? уможливила в?докремлювання небажаного шуму в?д потр?бного сейсм?чного сигналу. Теор?я ?нформац?? та цифрова обробка сигнал?в пропонують значне п?двищення розд?льност? та ч?ткост? зображень пор?вняно з попередн?ми аналоговими методами.[44]
Сем?отики Дуде Наута та В?нфр?д Ньот у сво?х працях ?з сем?отики розглядали Чарлза Сандерса П?рса як творця теор?? ?нформац??.[45][46] Наута визначав сем?отичну теор?ю ?нформац?? як досл?дження ?внутр?шн?х процес?в кодування, ф?льтрування та обробки ?нформац??.?[45]
Поняття з теор?? ?нформац??, як-от керування надм?рн?стю та кодом, використовували так? сем?отики як Умберто Еко та Ферруччо Росс?-Ланд? для пояснення ?деолог?? як форми передавання пов?домлення, за яко? дом?нантний соц?альний клас переда? сво? пов?домлення, використовуючи знаки з високим р?внем надм?рност?, так що з множини конкурентних пов?домлень декоду?ться лише одне.[47]
К?льк?сн? методи теор?? ?нформац?? застосували у когн?тив?стиц? для анал?зу орган?зац?? ?нтегровано? обробки нейронно? ?нформац?? в контекст? проблеми зв'язування в когн?тивн?й нейронауц?.[48] У цьому контекст? визначають або ?нформац?йно-теоретичну м?ру, таку як функц?йн? кластери (англ. functional clusters, модель функц?йного кластерування та г?потеза динам?чного ядра (ГДЯ, англ. dynamic core hypothesis, DCH) Джеральда Едельмана та Джул?о Тонон?[49]) або ефективна ?нформац?я (англ. effective information, теор?я ?нтегровано? ?нформац?? (Т??, англ. integrated information theory, IIT) св?домост? Тонон?[50][51][52]), що ?рунту?ться на повторновикористовн?й орган?зац?? обробки, тобто синхрон?зац?? нейроф?з?олог?чно? активност? м?ж групами нейронних сукупностей, або м?ру м?н?м?зац?? в?льно? енерг?? на основ? статистичних метод?в (принцип в?льно? енерг?? Карла Фр?стана, ?нформац?йно-теоретична м?ра, яка стверджу?, що кожна адаптивна зм?на в самоорган?зовн?й систем? веде до м?н?м?зац?? в?льно? енерг??, та г?потеза ба?сового мозку[53][54][55][56][57]).
Теор?я ?нформац?? також знаходить застосування у пошуку позаземного розуму,[58] досл?дженн? чорних д?р, б?о?нформатиц?[джерело?], та ста?вках .
- Алгоритм?чна ймов?рн?сть
- Ба?сове висновування
- ?ндуктивна ймов?рн?сть
- ?нфо-метрика
- М?н?мальна довжина опису
- М?н?мальна довжина пов?домлення
- Теор?я конструктор?в — узагальнення теор?? ?нформац??, яке охоплю? квантову ?нформац?ю
- Теор?я масового сп?лкування
- Ф?лософ?я ?нформац??
- Формальн? науки
- Гартл?, Р. В. Л.
- ?стор?я теор?? ?нформац??
- Йок?, Г. П.
- Хронолог?я розвитку теор?? ?нформац??
- Шеннон, К. Е.
- Андр?й Колмогоров
- Алгебра ?нформац??
- Асиметрична ?нформац?я
- ?нформац?йна геометр?я
- ?нформац?йна теор?я поля
- ?нформац?я за Ф?шером
- Квантова ?нформатика
- Кодування джерела
- Колмогоровська складн?сть
- Лог?ка ?нформац??
- Мережне кодування
- Перел?к нерозв'язаних проблем теор?? ?нформац??
- Теор?я виявляння
- Теор?я ?нформац?? та теор?я м?ри
- Теор?я кодування
- Теор?я оц?нювання
- Ф?лософ?я ?нформац??
- Бан (одиниця вим?ру)
- Вза?мна ?нформац?я
- В?дстань Гемм?нга
- В?дстань ?диност?
- Власна ?нформац?я
- Декодувальник
- Джерело ?нформац??
- Диференц?альна ентроп?я
- Ентроп?я Рень?
- Зам?нна ?нформац?я
- ?нформац?йна ентроп?я
- ?нформац?йно-флуктуац?йна складн?сть
- Канал зв'язку
- Надм?рн?сть
- Перплексивн?сть
- Поточкова вза?мна ?нформац?я (ПВ?)
- Приймач (теор?я ?нформац??)
- Прихований канал
- Пропускна спроможн?сть каналу
- Р?зноман?тн?сть
- Розходження Кульбака — Лейблера
- Сп?льна ентроп?я
- Стиснення даних
- Умовна ентроп?я
- ↑ Schneider, Thomas D. (2006). Claude Shannon: Biologist. IEEE Engineering in Medicine and Biology Magazine: The Quarterly Magazine of the Engineering in Medicine & Biology Society (англ.). 25 (1): 30—33. doi:10.1109/memb.2006.1578661. ISSN 0739-5175. PMC 1538977. PMID 16485389.
- ↑ а б Cruces, Sergio; Martín-Clemente, Rubén; Samek, Wojciech (3 липня 2019). Information Theory Applications in Signal Processing. Entropy (англ.). 21 (7): 653. Bibcode:2019Entrp..21..653C. doi:10.3390/e21070653. ISSN 1099-4300. PMC 7515149. PMID 33267367.
- ↑ а б Baleanu, D.; Balas, Valentina Emilia; Agarwal, Praveen, ред. (2023). Fractional Order Systems and Applications in Engineering. Advanced Studies in Complex Systems (англ.). London, United Kingdom: Academic Press. с. 23. ISBN 978-0-323-90953-2. OCLC 1314337815.
- ↑ Horgan, John (27 кв?тня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 8 листопада 2024.
- ↑ Shi, Zhongzhi (2011). Advanced Artificial Intelligence (англ.). World Scientific Publishing. с. 2. doi:10.1142/7547. ISBN 978-981-4291-34-7.
- ↑ Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (англ.) (вид. Second). New York: Springer Science. ISBN 978-0-387-95364-9.
- ↑ а б F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (англ.). The MIT press. ISBN 978-0262681087.
- ↑ Delgado-Bonal, Alfonso; Martín-Torres, Javier (3 листопада 2016). Human vision is determined based on information theory. Scientific Reports (англ.). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
- ↑ cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). Bayesian inference of phylogeny and its impact on evolutionary biology. Science (англ.). 294 (5550): 2310—2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
- ↑ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences. Gene (англ.). 215 (1): 111—122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
- ↑ Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Phys. Rev. (англ.). 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. S2CID 17870175.
- ↑ Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (5 жовтня 2020). Method of information entropy for convergence assessment of molecular dynamics simulations. Journal of Applied Physics (англ.). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. OSTI 1691442. S2CID 225010720.
- ↑ Bennett, Charles H.; Li, Ming; Ma, Bin (2003). Chain Letters and Evolutionary Histories. Scientific American (англ.). 288 (6): 76—81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Арх?в ориг?налу за 7 жовтня 2007. Процитовано 11 березня 2008. [Арх?вовано 2025-08-07 у Wayback Machine.]
- ↑ David R. Anderson (1 листопада 2003). Some background on why people in the empirical sciences may want to better understand the information-theoretic methods (PDF) (англ.). Арх?в ориг?налу (PDF) за 23 липня 2011. Процитовано 23 червня 2010. [Арх?вовано 2025-08-07 у Wayback Machine.]
- ↑ Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (ред.), Music, Expectation, and Information Theory, The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (англ.), Cham: Springer International Publishing, с. 161—169, doi:10.1007/978-3-319-47337-6_17, ISBN 978-3-319-47337-6, процитовано 19 вересня 2024
- ↑ Rocamora, Martín; Cancela, Pablo; Biscainho, Luiz (5 кв?тня 2019). Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns. Journal of the Audio Engineering Society (англ.). 67 (4): 160—173. doi:10.17743/jaes.2019.0003.
- ↑ Marsden, Alan (2020). New Prospects for Information Theory in Arts Research. Leonardo (англ.). 53 (3): 274—280. doi:10.1162/leon_a_01860. ISSN 0024-094X.
- ↑ Pinkard, Henry; Kabuli, Leyla; Markley, Eric; Chien, Tiffany; Jiao, Jiantao; Waller, Laura (2024). Universal evaluation and design of imaging systems using information estimation (англ.). arXiv:2405.20559 [physics.optics].
- ↑ Wing, Simon; Johnson, Jay R. (1 лютого 2019). Applications of Information Theory in Solar and Space Physics. Entropy (англ.). 21 (2): 140. Bibcode:2019Entrp..21..140W. doi:10.3390/e21020140. ISSN 1099-4300. PMC 7514618. PMID 33266856.
- ↑ Kak, Subhash (26 листопада 2020). Information theory and dimensionality of space. Scientific Reports (англ.). 10 (1): 20733. doi:10.1038/s41598-020-77855-9. ISSN 2045-2322.
- ↑ Harms, William F. (1998). The Use of Information Theory in Epistemology. Philosophy of Science (англ.). 65 (3): 472—501. doi:10.1086/392657. ISSN 0031-8248. JSTOR 188281.
- ↑ Gleick, 2011, с. 3—4.
- ↑ Horgan, John (27 кв?тня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 30 вересня 2023.
- ↑ Roberts, Siobhan (30 кв?тня 2016). The Forgotten Father of the Information Age. The New Yorker (амер.). ISSN 0028-792X. Процитовано 30 вересня 2023.
- ↑ а б Tse, David (22 грудня 2020). How Claude Shannon Invented the Future. Quanta Magazine (англ.). Процитовано 30 вересня 2023.
- ↑ Braverman, Mark (19 вересня 2011). Information Theory in Computer Science (PDF) (англ.).
- ↑ Reza, 1994.
- ↑ Кил?вник, В.С.; См?рнова, В.Л.; Панчишин, Н.Я. (2019). Теор?я ?нформац?? та ?? застосування в медичн?й реаб?л?тац?? (PDF). В?сник медичних ? б?олог?чних досл?джень (укр.). ТНМУ (1): 70—75. Арх?в (PDF) ориг?налу за 6 березня 2022.
- ↑ Ash, 1990.
- ↑ Жураковський та Полторак, 2001, с. 36—40.
- ↑ Коваленко, 2020, с. 38—41.
- ↑ а б Massey, James (1990), Causality, Feedback And Directed Information, Proc. 1990 Intl. Symp. on Info. Th. and its Applications (англ.), CiteSeerX 10.1.1.36.5688
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- ↑ Kramer, G. (January 2003). Capacity results for the discrete memoryless network. IEEE Transactions on Information Theory (англ.). 49 (1): 4—21. doi:10.1109/TIT.2002.806135.
- ↑ Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing. IEEE Transactions on Information Theory (англ.). 57 (6): 3248—3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
- ↑ Simeone, Osvaldo; Permuter, Haim Henri (June 2013). Source Coding When the Side Information May Be Delayed. IEEE Transactions on Information Theory (англ.). 59 (6): 3607—3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
- ↑ Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). Directed Information on Abstract Spaces: Properties and Variational Equalities. IEEE Transactions on Information Theory (англ.). 62 (11): 6019—6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
- ↑ Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). LQG Control With Minimum Directed Information: Semidefinite Programming Approach. IEEE Transactions on Automatic Control (англ.). 63 (1): 37—52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958. Арх?в ориг?налу за 12 кв?тня 2024 — через TU Delft Repositories.
- ↑ Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 кв?тня 2016). Analogy between gambling and measurement-based work extraction. Journal of Statistical Mechanics: Theory and Experiment (англ.). 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
- ↑ Jerry D. Gibson (1998). Digital Compression for Multimedia: Principles and Standards (англ.). Morgan Kaufmann. ISBN 1-55860-369-7.
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- ↑ Bartlett, Stephen D.; Rudolph, Terry; Spekkens, Robert W. (April–June 2007). Reference frames, superselection rules, and quantum information. Reviews of Modern Physics (англ.). 79 (2): 555—606. arXiv:quant-ph/0610030. Bibcode:2007RvMP...79..555B. doi:10.1103/RevModPhys.79.555.
- ↑ Peres, A.; P. F. Scudo (2002b). A. Khrennikov (ред.). Quantum Theory: Reconsideration of Foundations (англ.). V?xj? University Press, V?xj?, Sweden. с. 283.
- ↑ Haggerty, Patrick E. (1981). The corporation and innovation. Strategic Management Journal (англ.). 2 (2): 97—118. doi:10.1002/smj.4250020202.
- ↑ а б Nauta, Doede (1972). The Meaning of Information (англ.). The Hague: Mouton. ISBN 9789027919960.
- ↑ N?th, Winfried (January 2012). Charles S. Peirce's theory of information: a theory of the growth of symbols and of knowledge. Cybernetics and Human Knowing (англ.). 19 (1–2): 137—161.
- ↑ N?th, Winfried (1981). "Semiotics of ideology". Semiotica (англ.), Issue 148.
- ↑ Maurer, H. (2021). Chapter 10: Systematic Class of Information Based Architecture Types. Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism (англ.). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN 978-1-351-04352-6.
- ↑ Edelman, G.M.; Tononi, G. (2000). A Universe of Consciousness: How Matter Becomes Imagination (англ.). New York: Basic Books. ISBN 978-0465013777.
- ↑ Tononi, G.; Sporns, O. (2003). Measuring information integration. BMC Neuroscience (англ.). 4: 1—20. doi:10.1186/1471-2202-4-31. PMC 331407. PMID 14641936.
- ↑ Tononi, G. (2004a). An information integration theory of consciousness. BMC Neuroscience (англ.). 5: 1—22. doi:10.1186/1471-2202-5-42. PMC 543470. PMID 15522121.
- ↑ Tononi, G. (2004b). Consciousness and the brain: theoretical aspects. У Adelman, G.; Smith, B. (ред.). Encyclopedia of Neuroscience (англ.) (вид. 3rd). Amsterdam, Oxford: Elsevier. ISBN 0-444-51432-5. Арх?в (PDF) ориг?налу за 2 грудня 2023.
- ↑ Friston, K.; Stephan, K.E. (2007). Free-energy and the brain. Synthese (англ.). 159 (3): 417—458. doi:10.1007/s11229-007-9237-y. PMC 2660582. PMID 19325932.
- ↑ Friston, K. (2010). The free-energy principle: a unified brain theory. Nature Reviews Neuroscience (англ.). 11 (2): 127—138. doi:10.1038/nrn2787. PMID 20068583.
- ↑ Friston, K.; Breakstear, M.; Deco, G. (2012). Perception and self-organized instability. Frontiers in Computational Neuroscience (англ.). 6: 1—19. doi:10.3389/fncom.2012.00044. PMC 3390798. PMID 22783185.
- ↑ Friston, K. (2013). Life as we know it. Journal of the Royal Society Interface (англ.). 10 (86): 20130475. doi:10.1098/rsif.2013.0475. PMC 3730701. PMID 23825119.
- ↑ Kirchhoff, M.; Parr, T.; Palacios, E.; Friston, K.; Kiverstein, J. (2018). The Markov blankets of life: autonomy, active inference and the free energy principle. Journal of the Royal Society Interface (англ.). 15 (138): 20170792. doi:10.1098/rsif.2017.0792. PMC 5805980. PMID 29343629.
- ↑ Doyle, Laurance R.; McCowan, Brenda; Johnston, Simon; Hanser, Sean F. (February 2011). Information theory, animal communication, and the search for extraterrestrial intelligence. Acta Astronautica (англ.). 68 (3–4): 406—417. Bibcode:2011AcAau..68..406D. doi:10.1016/j.actaastro.2009.11.018.
- Shannon, C.E. (1948), "A Mathematical Theory of Communication", Bell System Technical Journal (англ.), 27, pp. 379–423 & 623–656, July & October, 1948. PDF.
Прим?тки та ?нш? формати. - R.V.L. Hartley, "Transmission of Information", Bell System Technical Journal (англ.), July 1928
- Andrey Kolmogorov (1968), "Three approaches to the quantitative definition of information" in International Journal of Computer Mathematics (англ.), 2, pp. 157–168. (Колмогоров, А. Н. (1965). Три подхода к определению понятия ?количество информации?. Пробл. передачи информ. (рос.). 1 (1): 3—11. Арх?в ориг?налу за 26 червня 2017.)
- J. L. Kelly Jr., Princeton, "A New Interpretation of Information Rate" Bell System Technical Journal (англ.), Vol. 35, July 1956, pp. 917–26.
- R. Landauer, IEEE.org, "Information is Physical" Proc. Workshop on Physics and Computation PhysComp'92 (англ.) (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1–4.
- Landauer, R. (1961). Irreversibility and Heat Generation in the Computing Process (PDF). IBM J. Res. Dev. (англ.). 5 (3): 183—191. doi:10.1147/rd.53.0183.
- Timme, Nicholas; Alford, Wesley; Flecker, Benjamin; Beggs, John M. (2012). Multivariate information measures: an experimentalist's perspective (англ.). arXiv:1111.6857 [cs.IT].
- Alajaji, F. and Chen, P.N. An Introduction to Single-User Information Theory. (англ.) Singapore: Springer, 2018. ISBN 978-981-10-8000-5
- Arndt, C. Information Measures, Information and its Description in Science and Engineering (англ.) (Springer Series: Signals and Communication Technology), 2004, ISBN 978-3-540-40855-0
- Ash, Robert B. (1990) [1965]. Information Theory (англ.). New York: Dover Publications, Inc. ISBN 0-486-66521-6.
- Gallager, R. Information Theory and Reliable Communication. (англ.) New York: John Wiley and Sons, 1968. ISBN 0-471-29048-3
- Goldman, S. Information Theory. (англ.) New York: Prentice Hall, 1953. New York: Dover 1968 ISBN 0-486-62209-6, 2005 ISBN 0-486-44271-3
- Cover, Thomas; Thomas, Joy A. (2006). Elements of information theory (англ.) (вид. 2nd). New York: Wiley-Interscience. ISBN 0-471-24195-4.
- Csiszar, I, Korner, J. Information Theory: Coding Theorems for Discrete Memoryless Systems (англ.) Akademiai Kiado: 2nd edition, 1997. ISBN 963-05-7440-3
- MacKay, David J. C. Information Theory, Inference, and Learning Algorithms (англ.) Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1
- Mansuripur, M. Introduction to Information Theory. (англ.) New York: Prentice Hall, 1987. ISBN 0-13-484668-0
- McEliece, R . The Theory of Information and Coding. (англ.) Cambridge, 2002. ISBN 978-0521831857
- Pierce, JR. "An introduction to information theory: symbols, signals and noise". (англ.) Dover (2nd Edition). 1961 (перевидано Dover 1980).
- Reza, Fazlollah M. (1994) [1961]. An Introduction to Information Theory (англ.). New York: Dover Publications, Inc. ISBN 0-486-68210-2.
- Shannon, Claude; Weaver, Warren (1949). The Mathematical Theory of Communication (PDF) (англ.). Urbana, Illinois: University of Illinois Press. ISBN 0-252-72548-4. LCCN 49-11922.
- Stone, JV. Chapter 1 of book "Information Theory: A Tutorial Introduction" (англ.), University of Sheffield, England, 2014. ISBN 978-0956372857.
- Yeung, RW. A First Course in Information Theory (англ.) Kluwer Academic/Plenum Publishers, 2002. ISBN 0-306-46791-7.
- Yeung, RW. Information Theory and Network Coding (англ.) Springer 2008, 2002. ISBN 978-0-387-79233-0
- Жураковський, Ю.П.; Полторак, В.П. (2001). Теор?я ?нформац?? та кодування (PDF) (укр.). Ки?в: Вища школа.
- Жураковський, Ю. П.; Гн?л?цький, В. В. (2002). Теор?я ?нформац?? та кодування в задачах: Навчальний пос?бник (укр.). Житомир: Ж?Т?. Арх?в ориг?налу за 23 липня 2024.
- Кожевников, В.Л.; Кожевников, А.В. (2012). Теор?я ?нформац?? та кодування (PDF) (укр.). Дн?про: НГУ. Арх?в ориг?налу (PDF) за 25 березня 2022.
- Коваленко, А.?. (2020). Теор?я ?нформац?? ? кодування: курс лекц?й (PDF) (укр.). Ки?в: КП?. Арх?в (PDF) ориг?налу за 26 липня 2023.
- Гус?в, О.Ю.; Конахович, Г.Ф.; Корн??нко, В.?.; Кузнецов, Г.В.; Пузиренко, О.Ю. (2010). Теор?я електричного зв'язку. Навчальний пос?бник (PDF) (укр.). Льв?в: Магнол?я 2006. ISBN 978-966-2025-97-2. Арх?в (PDF) ориг?налу за 18 травня 2024.
- Б?линський, Й.Й.; Огородник, К.В.; Юкиш, М.Й. (2011). Електронн? системи. Навчальний пос?бник (PDF) (укр.). В?нниця: ВНТУ. Арх?в (PDF) ориг?налу за 29 червня 2024.
- Партико, З.В. (2001). Образна концепц?я теор?? ?нформац?? (укр.) (англ.). Льв?в: ЛНУ. ISBN 966-613-046-7.
- Leon Brillouin, Science and Information Theory (англ.), Mineola, N.Y.: Dover, [1956, 1962] 2004. ISBN 0-486-43918-6
- Gleick, James (2011). [[?нформац?я: ?стор?я, теор?я, пот?к|The Information: A History, a Theory, a Flood]] [[Категор?я:В?к?пед?я:Запити на переклад]](англ.) (вид. 1st). New York: Vintage Books. ISBN 978-1-4000-9623-7.
{{cite book}}
: Назва URL м?стить вбудоване в?к?посилання (дов?дка) - A. I. Khinchin, Mathematical Foundations of Information Theory (англ.), New York: Dover, 1957. ISBN 0-486-60434-9
- H. S. Leff and A. F. Rex, Editors, Maxwell's Demon: Entropy, Information, Computing (англ.), Princeton University Press, Princeton, New Jersey (1990). ISBN 0-691-08727-X
- Robert K. Logan . What is Information? - Propagating Organization in the Biosphere, the Symbolosphere, the Technosphere and the Econosphere (англ.), Toronto: DEMO Publishing.
- Tom Siegfried, The Bit and the Pendulum (англ.), Wiley, 2000. ISBN 0-471-32174-5
- Charles Seife , Decoding the Universe (англ.), Viking, 2006. ISBN 0-670-03441-X
- Jeremy Campbell, Grammatical Man (англ.), Touchstone/Simon & Schuster, 1982, ISBN 0-671-44062-4
- Henri Theil, Economics and Information Theory (англ.), Rand McNally & Company - Chicago, 1967.
- Escolano, Suau, Bonev, Information Theory in Computer Vision and Pattern Recognition (англ.), Springer, 2009. ISBN 978-1-84882-296-2
- Vlatko Vedral, Decoding Reality: The Universe as Quantum Information (англ.), Oxford University Press 2010. ISBN 0-19-923769-7
Б?бл?отечн? ресурси про Теор?я ?нформац?? |
- Hazewinkel, Michiel, ред. (2001), Information, Математична енциклопед?я, Springer, ISBN 978-1-55608-010-4
- Lambert F. L. (1999), "Shuffled Cards, Messy Desks, and Disorderly Dorm Rooms - Examples of Entropy Increase? Nonsense!", Journal of Chemical Education (англ.)
- IEEE Information Theory Society та Монограф??, огляди та реценз?? ITSOC [Арх?вовано 2025-08-07 у Wayback Machine.] (англ.)