肚脐眼左边疼是什么原因| 七是什么意思| 上火吃什么好| 经常低血糖是什么原因| 动则气喘是什么原因| 移交是什么意思| 尼可刹米别名叫什么| 一月8日是什么星座| 月经是什么| 肝阴虚吃什么中成药| 医生和医师有什么区别| 开口腔诊所需要什么条件| 一冷就咳嗽是什么原因| 什么叫关税| 经常感觉饿是什么原因| 二氧化硅是什么东西| 肠胃功能紊乱什么症状| 勖是什么意思| 鸡蛋花的花语是什么| 吃什么美容养颜抗衰老| 吃头孢为什么不能喝酒| 97年属什么的生肖| 杰瑞是什么品种的老鼠| 为什么会得灰指甲| 吃了虾不能吃什么水果| modern是什么牌子| 长期咳白痰是什么原因| gda是什么血管| 鳄鱼是什么动物| 精尽人亡是什么意思| 女人适合喝什么茶最好| 浙江大学什么专业最好| 肝部出现腹水是什么原因| 什么是植物人| 月经过后腰酸疼是什么原因| 谷丙转氨酶偏高是什么原因| 一个入一个肉念什么| sobranie是什么烟| 妈妈的堂哥叫什么| 脂蛋白高是什么意思| 甲减喝什么药| 做绝育手术对女人有什么影响| 牛头人什么意思| 今年21岁属什么生肖| qrs是什么意思| 祖字五行属什么| 什么的窟窿| 蒙昧是什么意思| 硝酸咪康唑乳膏和酮康唑乳膏有什么区别| 梦见自己掉头发是什么意思| 女生的隐私部位长什么样| 什么颜色对眼睛有好处| 张三李四王五赵六后面是什么| 什么是sop流程| 买什么保险最好最划算| 精子是什么样的| 吃什么可以止咳化痰| 1月10号是什么星座| 血液肿瘤是什么病| 做雾化起什么作用| 看金鱼是什么梗| 5.21什么星座| 道德经是什么意思| s和m分别是什么意思| 磨玻璃结节影是什么意思| 人流后什么叫重体力活| 内火重吃什么药见效快| PA医学上是什么意思| 百鸟归巢什么意思| 一什么景象| 蓝色五行属什么| 七月份吃什么水果| 单鞋是什么鞋| 张柏芝什么星座| 脚气是什么样的| 红玫瑰的花语是什么| 惊雷是什么意思| 鼠和什么生肖最配| 梦见买猪肉是什么预兆| 国家为什么要扫黄| 宫外孕和宫内孕有什么区别| 失眠吃什么中成药效果最好| 夏季吃什么菜好| 经常自言自语是什么原因| 芭比q是什么意思| 高碱性食物都有什么| owl是什么意思| 为什么会有脚气| 胎位lsa是什么意思| 梦见自己假牙掉了是什么意思| 8月30号是什么星座| 古人的婚礼在什么时间举行| 维生素c什么时候吃效果最好| 心悸什么意思| 子鼠是什么意思| 肚子饱胀是什么原因| 起大运是什么意思| 长智齿意味着什么| 暗是什么意思| 感冒吃什么好的快| 奔跑吧什么时候更新| 鸡拉白色稀粪吃什么药| 秦王是什么生肖| 林俊杰什么时候出道的| 利尿吃什么药| 头发有点黄是什么原因| 为什么会痛经| 两面三刀是什么生肖| 车牌号选什么数字吉利| 开什么店好赚钱| 体寒的人吃什么食物好| 为什么叫印度三哥| 来例假吃什么水果好| 半夜会醒是什么原因| 什么歌最好听| 月抛是什么意思| 大便漂浮水面说明什么| 月亮星座是什么意思| 什么叫增强ct| 说话不清楚是什么原因导致的| 卡介苗为什么会留疤| 孔子姓什么| 什么最赚钱| 惋惜是什么意思| 世界上最难写的字是什么字| 肌肉劳损吃什么药| 增强免疫力的针叫什么| 1d是什么意思| 卡替治疗是什么意思| 拧巴是什么意思| 门当户对指的是什么| 喝碱性水有什么好处| 淋巴细胞百分比低是什么意思| 骨髓增生活跃是什么意思| 结肠炎吃什么中成药| 痔疮有什么特效药| 龙代表什么象征意义| 口臭什么原因引起的| 暗度陈仓是什么意思| 相生什么意思| 娃娃衫配什么裤子图片| 阴离子是什么| 立夏吃什么蛋| 官杀旺是什么意思| 鹅蛋脸适合戴什么眼镜| 是什么意思啊| 情人和小三的区别是什么| 油菜花是什么颜色| 全自动洗衣机不排水是什么原因| 人的五官是什么| 10月16日什么星座| 硒对身体有什么好处| 半月板退变是什么意思| 地中海贫血是什么意思| 做nt需要准备什么| 李宁是什么运动员| 梦见孩子被蛇咬是什么意思| 内蒙古有什么特产| ecg医学上什么意思| sle是什么病| 破壁机什么牌子的最好| 三个毛念什么字| 上钟什么意思| 2月29号是什么星座| wiggle是什么意思| 吃什么增加卵泡| 蜘蛛痣长什么样| 嘴咸是什么原因| 泰国是一个什么样的国家| gg是什么意思| 苎麻是什么面料| 眼压高是什么原因| 什么叫压缩性骨折| 膝盖内侧疼吃什么药| 什么水果好吃| 补体是什么| 百无一用是什么意思| 虾不能和什么食物一起吃| 什么是过敏性咳嗽| 时迁的绰号是什么| 不干胶是什么| 打鼾是什么原因引起的| 铜锣湾有什么好玩的| 狗狗的鼻子为什么是湿的| 脾阳虚吃什么食物好| 火花是什么| 纯牛奶什么时候喝最好| 7月20号是什么星座| 宋字五行属什么| 吕洞宾是什么生肖| 全血检查能查些什么病| bottle什么意思| vca是什么牌子| 皮肤松弛是什么原因造成的| 什么是阿尔茨海默症| 金银花搭配什么泡水喝好| 神经衰弱挂什么科| 吃什么可以补精| 陈坤为什么地位那么高| 什么食物是养肝的| 看眼睛挂什么科| 肝内多发低密度灶是什么意思| 女性解脲支原体阳性是什么意思| 尿肌酐高是什么原因引起的| 葛根和粉葛有什么区别| 儿童用什么牙膏最好可以保护牙齿| 裤子前浪后浪是什么| 柳是什么生肖| jeans什么意思| H 什么意思| 调戏是什么意思| 十月十四是什么星座| 孕妇尿酸高是什么原因| 无水乙醇是什么| 冬天喝什么茶最好| 奶粉二段和三段有什么区别| 白茶是什么茶| 什么是it行业| 玄是什么颜色| 马上封侯是什么意思| 叶凡为什么找石昊求救| 仓鼠咬笼子是什么原因| 大电念什么| 芝五行属什么| 五月17号是什么星座| 和谐是什么意思| 招蚊子咬是什么原因| 泰格豪雅属于什么档次| 五官是什么| 长针眼是什么原因| 挛是什么意思| raf是什么意思| 什么是梅花肉| 高密度脂蛋白偏高是什么原因| 根管治疗是什么意思| 神经衰弱什么症状| 夜尿多是什么原因引起的| 日本为什么偷袭珍珠港| 做功是什么意思| 熊吃什么食物| 体检什么时候去最好| 鱼豆腐是什么做的| 一只耳朵响是什么原因| lp是什么意思| 以逸待劳是什么意思| 1120是什么星座| 尿量少是什么原因| 秦皇岛是什么海| 彗星为什么有尾巴| 什么姓氏好听| 什么样的手相最有福气| 水痘是由什么引起的| 肚子为什么胀气| 滴虫性阴炎有什么症状表现| 牛大力泡酒有什么功效| 话糙理不糙是什么意思| 熬药用什么锅熬最好| 寅时五行属什么| 鹅翅膀下垂是什么原因| 月经十多天不干净是什么原因| 银行降息意味着什么| 尿有臭味是什么原因| 白细胞偏低是什么原因造成的| Ca是什么| 百度Перейти до вм?сту

工商银行3月21日发售三期国开行金融债——新华网——湖南

Матер?ал з В?к?пед?? — в?льно? енциклопед??.
百度 五欲本身之危害性,又如紧波迦果,表面看来端正可观,如果凡夫一旦抓住这种毒果,稍稍碰触一下就会丧命!五欲又如同屠羊柱,羊一旦悬挂在上面,必然难逃死亡结局;五欲还如同热金冠,无论是谁戴在头上,都会被活生生烧死。

Тео?р?я ?нформ?ац?? (англ. Information theory) — це математичне досл?дження к?льк?сного вираження, збер?гання та передавання ?нформац??. Заснував цю галузь ? забезпечив ?й над?йну основу Клод Шеннон у 1940-х роках,[1] хоча ранн?й внесок до цьому напряму зробили в 1920-х роках прац? Гарр? Найкв?ста та Ральфа Гартл?. Вона перебува? на перетин? електронно? ?нженер??, математики, статистики, ?нформатики, нейроб?олог??, ф?зики та електротехн?ки.[2][3]

Ключовою м?рою в теор?? ?нформац?? ? ентроп?я. Ентроп?я вим?рю? р?вень невизначеност? щодо значення випадково? величини або результату випадкового процесу. Наприклад, визначення результату п?дкидання симетрично? монети?(?нш? мови) (що ма? два р?вноймов?рн? результати) да? менше ?нформац?? (меншу ентроп?ю, меншу невизначен?сть), ан?ж визначення результату кидання грально? к?сточки (що ма? ш?сть р?вноймов?рних результат?в). До ?нших важливих м?р у теор?? ?нформац?? належать вза?мна ?нформац?я, пропускна спроможн?сть каналу, показники помилок?(?нш? мови) та в?дносна ентроп?я. До важливих п?дрозд?л?в теор?? ?нформац?? належать кодування джерела, алгоритм?чна теор?я складност?, алгоритм?чна теор?я ?нформац?? та ?нформац?йно-теоретична безпека?(?нш? мови).

До застосувань основних предмет?в теор?? ?нформац?? належать кодування джерела/стиснення даних (наприклад, для файл?в zip) та канальне кодування/виявляння та виправляння помилок (наприклад, для DSL). ?? вплив був вир?шальним для усп?ху м?с?й ?Вояджер? до глибокого космосу,[4] винайдення компакт-диска, можливост? моб?льних телефон?в ? розвитку ?нтернету й штучного ?нтелекту.[5][3] Ця теор?я також знайшла застосування й в ?нших сферах, як-от ?ндуктивн?й статистиц?,[6] криптограф??, нейроб?олог??,[7] сприйнятт?,[8] обробц? сигнал?в,[2] мовознавств?, еволюц??[9] та функц?юванн?[10] молекулярних код?в (б?о?нформатиц?), теплоф?зиц?,[11] молекулярн?й динам?ц?,[12] чорних д?рах, квантових обчисленнях, ?нформац?йному пошуку, збиранн? ?нформац??, виявлянн? плаг?ату,[13] розп?знаванн? образ?в, виявлянн? аномал?й,[14] музичн?й анал?тиц?,[15][16] створенн? живопису,[17] про?ктуванн? систем зображування?(?нш? мови),[18] вивченн? косм?чного простору,[19] вим?рност? простору,[20] ? нав?ть еп?стемолог??.[21]

Огляд

[ред. | ред. код]

Теор?я ?нформац?? вивча? передавання, обробку, вид?ляння та використання ?нформац??. Абстрактно ?нформац?ю можливо розглядати як розв'язання невизначеност?. У випадку передавання ?нформац?? зашумленим каналом це абстрактне поняття формал?зував 1948 року Клод Шеннон у статт? п?д назвою ?Математична теор?я зв'язку?, в як?й ?нформац?ю розглянуто як наб?р можливих пов?домлень, а метою ? передавання цих пов?домлень зашумленим каналом, щоби приймач м?г в?дтворити пов?домлення з низькою ймов?рн?стю помилки, незважаючи на шум каналу. Головний результат Шеннона, теорема про кодування для зашумленого каналу?(?нш? мови), показав, що за велико? к?лькост? використань каналу швидк?сть передач? ?нформац??, яка асимптотично досяжна, дор?вню? пропускн?й спроможност? каналу, величин?, яка залежить лише в?д статистичних характеристик каналу, яким передають пов?домлення.[7]

Теор?я кодування займа?ться пошуком конкретних метод?в, званих кодами (англ. codes), для п?двищення ефективност? та зниження р?вня помилок при передаванн? даних зашумленими каналами, з наближенням до пропускно? спроможност? каналу. Ц? коди можливо умовно под?лити на методи стискання даних (кодування джерела) та виправляння помилок (кодування каналу). У випадку останнього знадобилося багато рок?в, щоби знайти методи, можлив?сть яких дов?в Шеннон.[джерело?]

Трет?й клас код?в у теор?? ?нформац?? — алгоритми шифрування (як коди?(?нш? мови), так ? шифри). Поняття, методи й результати з теор?? кодування та теор?? ?нформац?? широко використовують у криптограф?? та криптоанал?з?, наприклад, одиничний бан.[джерело?]

?сторичне п?д?рунтя

[ред. | ред. код]

Знаковою под??ю, що заклала основу дисципл?ни теор?? ?нформац?? та привернула до не? негайну св?тову увагу, стала публ?кац?я класично? статт? Клода Е. Шеннона ?Математична теор?я зв'язку? в Bell System Technical Journal?(?нш? мови) у липн? та жовтн? 1948 року. ?сторик Джеймс ?л?к?(?нш? мови) оц?нив цю статтю як найважлив?ше досягнення 1948 року, вище за транзистор, зазначивши, що ця праця була ?нав?ть глибшою й фундаментальн?шою? за транзистор.[22] Шеннон став в?домим як ?батько теор?? ?нформац???.[23][24][25] В?н викладав деяк? з? сво?х початкових ?дей щодо теор?? ?нформац?? ще 1939 року в лист? до Венн?вера Буша.[25]

До ц??? статт? обмежен? ?нформац?йно-теоретичн? ?де? розробили в Bell Labs, при цьому вс? вони неявно виходили з однаково? ймов?рност? под?й. У сво?й статт? 1924 року ?Деяк? чинники, як? впливають на швидк?сть телеграфу? (англ. Certain Factors Affecting Telegraph Speed) Гарр? Найкв?ст пом?стив теоретичний розд?л, де к?льк?сно визначив ?в?домост?? (англ. "intelligence") та ?швидк?сть л?н??? (англ. "line speed"), з якою ?х можливо передавати комун?кац?йною системою, встановивши сп?вв?дношення W = K log m (що нагаду? сталу Больцмана), де W — швидк?сть передач? в?домостей, m — к?льк?сть р?зних р?вн?в напруги, з яких можна обирати на кожному часовому кроц?, а K — стала. Стаття Ральфа Гартл? 1928 року ?Передавання ?нформац??? (англ. Transmission of Information) використову? терм?н ?нформац?я (англ. information) як вим?рювану величину, що в?добража? здатн?сть приймача розр?зняти одну посл?довн?сть символ?в з будь-якими ?ншими, тим самим к?льк?сно визначаючи ?нформац?ю як H = log Sn = n log S, де S — к?льк?сть можливих символ?в, а n — к?льк?сть символ?в у передаванн?. Отже, одиницею ?нформац?? була десяткова цифра, яку згодом ?нод? називали гартл? на його честь як одиницю, шкалу або м?ру ?нформац??. 1940 року Алан Тюр?нг використав под?бн? ?де? як частину статистичного анал?зу для розшифровки н?мецьких шифр?в ?Ен?гми? п?д час Друго? св?тово? в?йни.[джерело?]

Б?льш?сть математичного апарату теор?? ?нформац?? для р?зноймов?рн?сних под?й розробили для галуз? термодинам?ки Людв?г Больцман та Джозая В?ллард ??ббз. Зв'язки м?ж ?нформац?йною ентроп??ю та термодинам?чною ентроп??ю, включно з важливими внесками Рольфа Ландауера?(?нш? мови) 1960-х рок?в, розглянуто в статт? ?Ентроп?я в термодинам?ц? та теор?? ?нформац???(?нш? мови)?.[джерело?]

У революц?йн?й ? новаторськ?й статт? Шеннона, роботу над якою було значною м?рою завершено в Bell Labs до к?нця 1944 року, Шеннон уперше представив як?сну та к?льк?сну модель зв'язку як статистичний процес, що лежить в основ? теор?? ?нформац??, розпочавши з твердження:

Основна задача зв'язку поляга? в тому, щоби в?дтворити в одн?й точц?, точно або приблизно, пов?домлення, вибране в ?нш?й точц?.
Ориг?нальний текст (англ.)
The fundamental problem of communication is that of reproducing at one point, either exactly or approximately, a message selected at another point.

З нею прийшли ?де?:

К?лькост? ?нформац??

[ред. | ред. код]

Теор?я ?нформац?? ?рунту?ться на теор?? ймов?рностей та статистиц?, де к?льк?сно виражену ?нформац?ю зазвичай описують у б?тах. Теор?я ?нформац?? часто займа?ться вим?рюванням ?нформац?? в розпод?лах, пов'язаних ?з випадковими величинами. Одн??ю з найважлив?ших м?р ? ентроп?я, що ? основою для багатьох ?нших м?р. Ентроп?я дозволя? к?льк?сно виразити м?ру ?нформац?? в окрем?й випадков?й величин?.[26] ?ншим корисним поняттям ? вза?мна ?нформац?я, визначена для двох випадкових величин, яка опису? м?ру ?нформац??, сп?льно? м?ж цими величинами, що можливо використовувати для опису ?хньо? кореляц??. Перша величина ? властив?стю розпод?лу ймов?рност? випадково? величини й визнача? границю швидкост?, з якою дан?, породжен? незалежними зразками ?з заданим розпод?лом, можливо над?йно стиснути. Друга ? властив?стю сп?льного розпод?лу двох випадкових величин ? ? максимальною швидк?стю над?йного передавання зашумленим каналом в границ? довжин блок?в, коли статистика каналу визнача?ться цим сп?льним розпод?лом.

Виб?р основи логарифму в наступних формулах визнача? вживану одиницю ?нформац?йно? ентроп??. Загальновживаною одиницею ?нформац?? ? б?т або шеннон, що ?рунту?ться на дв?йковому логарифм?. До ?нших одиниць належать нат, що ?рунту?ться на натуральному логарифм?, та десяткова цифра, що ?рунту?ться на десятковому логарифм?.

Дал? вираз вигляду p log p, коли p = 0, вважають за згодою нульовим. Це виправдано тим, що для будь-яко? основи логарифму.

Ентроп?я ?нформац?йного джерела

[ред. | ред. код]

Виходячи з функц?? маси ймов?рност? кожного символу джерела, що переда?ться, ентроп?ю Шеннона H у б?тах (на символ) задають як

де pi — ймов?рн?сть трапляння i-того можливого значення символу джерела. Це р?вняння да? ентроп?ю в одиницях ?б?т? (на символ), оск?льки воно використову? логарифм з основою 2, ? таку м?ру ентроп?? на основ? логарифму за основою 2 ?нод? називають шенноном на його честь. Ентроп?ю також часто обчислюють, використовуючи натуральний логарифм (з основою e, де e — число Ейлера), що да? вим?рювання ентроп?? в натах на символ й ?нод? спрощу? анал?з, усуваючи потребу в додаткових сталих у формулах. Можлив? й ?нш? основи, хоча ?х використовують р?дше. Наприклад, логарифм з основою 28 = 256 да? вим?рювання в байтах на символ, а логарифм з основою 10 — у десяткових цифрах (або гартл?) на символ.

?нту?тивно, ентроп?я HX дискретно? випадково? величини X ? м?рою невизначеност? (англ. uncertainty), пов'язано? з? значенням X, коли в?домий лише ?? розпод?л.

Ентроп?я джерела, яке вида? посл?довн?сть з N символ?в, як? незалежн? й однаково розпод?лен? (н. о. р.), дор?вню? N ? H б?т (на пов?домлення з N символ?в). Якщо символи даних джерела однаково розпод?лен?, але не незалежн?, ентроп?я пов?домлення довжиною N буде меншою за N ? H.

Ентроп?я проби Бернулл? як функц?я ймов?рност? усп?ху, часто звана функц??ю б?нарно? ентроп???(?нш? мови), Hb(p). Ця ентроп?я досяга? максимуму в 1 б?т на пробу, коли два можлив? результати р?вноймов?рн?, як у випадку п?дкидання симетрично? монети.

Якщо передати 1000 б?т?в (нул?в та одиниць), але значення кожного з цих б?т?в в?доме приймачу (ма? певне значення з упевнен?стю) ще до передач?, то очевидно, що жодно? ?нформац?? не передано. Якщо ж кожен б?т незалежно й однаково правдопод?бно може бути 0 або 1, то передано 1000 шеннон?в ?нформац?? (част?ше званих б?тами). М?ж цими двома крайнощами ?нформац?ю можливо к?льк?сно виразити наступним чином. Якщо  — множина вс?х пов?домлень {x1, ..., xn}, якими може бути X, а p(x) — ?мов?рн?сть деякого , то ентроп?ю H величини X визначають як[27]

(Тут I(x) — власна ?нформац?я, що ? внеском ентроп?? окремого пов?домлення, а  — математичне спод?вання.) Одн??ю з властивостей ентроп?? ? те, що вона максим?зу?ться, коли вс? пов?домлення у простор? пов?домлень р?вноймов?рн?, тобто p(x) = 1/n, тобто найнепередбачуван?ш?, й у такому випадку H(X) = log n.

Особливий випадок ?нформац?йно? ентроп?? для випадково? величини з двома можливими результатами — функц?я б?нарно? ентроп??, зазвичай з логарифмом за основою 2, що в?дтак ма? одиницею шеннон (Sh):

Сп?льна ентроп?я

[ред. | ред. код]

Сп?льна ентроп?я (англ. joint entropy) двох дискретних випадкових величин X та Y — це просто ентроп?я ?хньо? дв?йки: (X, Y). Це означа?, що якщо X та Y незалежн?, то ?хня сп?льна ентроп?я дор?вню? сум? ?хн?х окремих ентроп?й.

Наприклад, якщо (X, Y) пода? положення шахово? ф?гури — X це рядок, а Y це стовпець, то сп?льна ентроп?я рядка та стовпця ф?гури буде ентроп??ю ?? положення.

Попри схож?сть позначень, сп?льну ентроп?ю не сл?д плутати з перехресною ентроп??ю (англ. cross-entropy).

Умовна ентроп?я (неоднозначн?сть)

[ред. | ред. код]

Умовна ентроп?я (англ. conditional entropy) або умовна невизначен?сть (англ. conditional uncertainty) величини X за задано? випадково? величини Y (також звана неоднозначн?стю[28] X щодо Y, англ. equivocation) — це усереднена умовна ентроп?я за Y:[29]

Оск?льки ентроп?я може бути обумовлена випадковою величиною (загальна умовна ентроп?я) або конкретним значенням ц??? випадково? величини (часткова умовна ентроп?я),[30][31] сл?д бути уважними, щоби не плутати ц? два визначення умовно? ентроп??, перше з яких ? поширен?шим. Основною властив?стю ц??? форми умовно? ентроп?? ? те, що

Вза?мна ?нформац?я (транс?нформац?я)

[ред. | ред. код]

Вза?мна ?нформац?я (англ. mutual information) вим?рю? к?льк?сть ?нформац?? про одну випадкову величину, яку можливо отримати, спостер?гаючи ?ншу. Вона важлива в комун?кац?ях, де ?? можливо використовувати для максим?зування к?лькост? сп?льно? ?нформац?? м?ж передаваним та отримуваним сигналами. Вза?мну ?нформац?ю X в?дносно Y визначають як

де SI (англ. Specific mutual Information, конкретна вза?мна ?нформац?я) — це поточкова вза?мна ?нформац?я.

Основна властив?сть вза?мно? ?нформац?? поляга? в тому, що

Тобто, знаючи Y, можливо заощадити в середньому I(X; Y) б?т?в при кодуванн? X пор?вняно з ситуац??ю, коли Y нев?дома.

Вза?мна ?нформац?я симетрична:

Вза?мну ?нформац?ю можливо виразити як усереднення розходження Кульбака — Лейблера (приросту ?нформац??) апостер?орного розпод?лу ймов?рност? X за заданого значення Y з апр?орним розпод?лом X:

?ншими словами, це м?ра того, наск?льки в середньому зм?ниться розпод?л ?мов?рност? X, якщо задано значення Y. ?? часто переобчислюють як розходження добутку в?дособлених розпод?л?в з? справжн?м сп?льним розпод?лом:

Вза?мна ?нформац?я т?сно пов'язана з критер??м логарифм?чного сп?вв?дношення правдопод?бностей у контекст? таблиць спряженост? та пол?ном?ального розпод?лу, а також ?з критер??м χ2 П?рсона: вза?мну ?нформац?ю можливо вважати статистикою для оц?нювання незалежност? пари зм?нних, ? вона ма? добре визначений асимптотичний розпод?л.

Розходження Кульбака — Лейблера (прир?ст ?нформац??)

[ред. | ред. код]

Розходження Кульбака — Лейблера (англ. Kullback–Leibler divergence, або розходження ?нформац??, англ. information divergence, прир?ст ?нформац??, англ. information gain, чи в?дносна ентроп?я, англ. relative entropy) — це спос?б пор?вняння двох розпод?л?в: ??стинного? розпод?лу ймов?рност? та дов?льного розпод?лу . Якщо ми стиска?мо дан?, вважаючи, що ?хн?й розпод?л це , тод? як насправд? правильний розпод?л це , розходження Кульбака–Лейблера визнача? середню к?льк?сть додаткових б?т?в на дан?, необх?дних для стискання. Його в?дтак визначають як

Хоча ?нод? його й використовують як ?метрику в?дстан??, КЛ-розходження не ? справжньою метрикою, оск?льки воно не симетричне й не задовольня? нер?вн?сть трикутника (що робить його нап?в-квазиметрикою).

?ншим тлумаченням КЛ-розходження ? ?зайва неспод?ван?сть? (англ. "unnecessary surprise"), створювана апр?орним розпод?лом у пор?внянн? з ?стинним: припуст?мо, що число X буде випадковим чином обрано з дискретно? множини з розпод?лом ймов?рност? . Якщо Ал?са зна? ?стинний розпод?л , а Боб вважа? (ма? апр?орне переконання), що цим розпод?лом ? , то для Боба побачене значення X у середньому буде б?льш неспод?ваним, ан?ж для Ал?си. КЛ-розходження ? (об'?ктивним) оч?куваним значенням (суб'?ктивно?) неспод?ваност? для Боба, м?нус неспод?ван?сть для Ал?си, вим?ряним у б?тах, якщо логарифм взято за основою 2. Таким чином, м?ру того, наск?льки ?помилковим? ? апр?орне переконання Боба, можливо к?льк?сно виразити у вигляд? оч?кувано? ?зайво? неспод?ваност?? для нього.

Спрямована ?нформац?я

[ред. | ред. код]

Спрямована ?нформац?я?(?нш? мови) (англ. directed Information)  — це м?ра в теор?? ?нформац??, що к?льк?сно визнача? ?нформац?йний пот?к в?д випадкового процесу до випадкового процесу . Терм?н спрямована ?нформац?я запровадив Джеймс Месс?, ?? визначено як

,

де  — умовна вза?мна ?нформац?я?(?нш? мови) .

На в?дм?ну в?д вза?мно? ?нформац??, спрямована ?нформац?я не симетрична. вим?рю? к?льк?сть ?нформац??, що переда?ться причинно[прояснити: ком.] в?д до . Спрямована ?нформац?я знаходить широке застосування в задачах, де важливу роль в?д?гра? причинн?сть, як-от пропускна спроможн?сть каналу з? зворотним зв'язком,[32][33] пропускна спроможн?сть дискретних мереж без пам'ят??(?нш? мови) з? зворотним зв'язком,[34] ставки з причинною додатковою ?нформац??ю,[35] стиснення з причинною додатковою ?нформац??ю,[36] постановки комун?кац?? керування в реальному час?,[37][38] та у статистичн?й ф?зиц?.[39]

?нш? к?лькост?

[ред. | ред. код]

До ?нших важливих ?нформац?йно-теоретичних к?лькостей належать ентроп?я Рень? та ентроп?я Цалл?са (узагальнення поняття ентроп??), диференц?альна ентроп?я (узагальнення к?лькостей ?нформац?? для неперервних розпод?л?в) та умовна вза?мна ?нформац?я?(?нш? мови). Також було запропоновано прагматичну ?нформац?ю?(?нш? мови) як м?ру к?лькост? ?нформац??, використано? для ухвалення р?шення.

Теор?я кодування

[ред. | ред. код]
Докладн?ше: Теор?я кодування
Зображення подряпин на зчитуван?й поверхн? CD-R. Музичн? й ?нформац?йн? CD кодують з використанням код?в з виправлянням помилок, тому ?х можливо прочитати нав?ть за наявност? незначних подряпин, використовуючи виявляння й виправляння помилок.

Теор?я кодування — одне з найважлив?ших ? найбезпосередн?ших застосувань теор?? ?нформац??. ?? можливо под?лити на теор?ю кодування джерела та теор?ю кодування каналу. Використовуючи статистичний опис даних, теор?я ?нформац?? визнача? к?льк?сть б?т?в, необх?дних для опису даних, що ? ?нформац?йною ентроп??ю джерела.

Цей под?л теор?? кодування на стиснення й передавання об?рунтовано теоремами про передавання ?нформац??, або теоремами про розд?лення джерела й каналу, як? п?дтверджують використання б?т?в як ун?версально? валюти для ?нформац?? в багатьох контекстах. Проте ц? теореми справедлив? лише в ситуац?ях, коли один передавач прагне сп?лкуватися з одним приймачем. У випадках, коли ? понад одного передавача (канал ?з множинним доступом), понад одного приймача (канал мовлення) або пром?жн? ?пом?чники? (ретрансляц?йний канал?(?нш? мови), англ. relay channel), чи для загальн?ших мереж, стиснення з подальшим передавання може вже не бути оптимальним.

Теор?я джерела

[ред. | ред. код]

Будь-який процес, що породжу? посл?довн? пов?домлення, можливо розглядати як джерело (англ. source) ?нформац??. Джерело без пам'ят? (англ. memoryless) — це таке джерело, в якому кожне пов?домлення — незалежна й однаково розпод?лена випадкова величина, тод? як властивост? ергодичност? та стац?онарност? накладають менш жорстк? обмеження. Ус? так? джерела стохастичн?. Ц? терм?ни добре вивчен? й поза межами теор?? ?нформац??.

Швидк?сть

[ред. | ред. код]

?нформац?йна швидк?сть (англ. rate) — це усереднена ентроп?я на символ. Для джерел без пам'ят? це просто ентроп?я кожного символу, тод? як у випадку стац?онарного стохастичного процесу це

тобто умовна ентроп?я символу за заданих вс?х попередньо породжених символ?в. Для загальн?шого випадку не обов'язково стац?онарного процесу середня швидк?сть (англ. average rate) це

тобто границя сп?льно? ентроп?? на символ. Для стац?онарних джерел ц? два вирази дають однаковий результат.[40]

?нформац?йну швидк?сть?(?нш? мови) (англ. information rate) визначають як

У теор?? ?нформац?? часто говорять про ?швидк?сть? або ?ентроп?ю? мови. Це доречно, наприклад, коли джерело ?нформац?? — англомовна проза. Швидк?сть джерела ?нформац?? пов'язана з його надм?рн?стю та можлив?стю стиснення, що ? предметом кодування джерела.

Пропускна спроможн?сть каналу

[ред. | ред. код]

Передавання ?нформац?? каналом — основний мотив теор?? ?нформац??. Проте канали часто не забезпечують точного в?дтворення сигналу; його як?сть часто можуть знижувати шум, пер?оди тиш? та ?нш? форми спотворення сигналу.

Розгляньмо процес передавання дискретним каналом. Просту модель процесу подано нижче:

Тут X пода? прост?р передаваних пов?домлень, а Y — прост?р отримуваних пов?домлень за одиницю часу нашим каналом. Нехай p(y|x) — умовна ймов?рн?сть Y за заданого X. Розгляньмо p(y|x) як притаманну незм?нну властив?сть нашого каналу (що в?добража? природу його шуму). Тод? сп?льний розпод?л X та Y повн?стю визнача?ться нашим каналом ? вибором f(x), в?дособленого розпод?лу пов?домлень, як? ми обира?мо для передавання каналом. За цих обмежень ми би хот?ли максим?зувати швидк?сть ?нформац??, або сигнал, який можливо передавати цим каналом. В?дпов?дною м?рою для цього ? вза?мна ?нформац?я, ? цю максимальну вза?мну ?нформац?ю називають пропускною спроможн?стю каналу (англ. channel capacity), та задають як

Ця пропускна спроможн?сть ма? наступну властив?сть, пов'язану з передаванням на ?нформац?йн?й швидкост? R (де R зазвичай вим?рюють у б?тах на символ). Для будь-яко? ?нформац?йно? швидкост? R < C та похибки кодування ε > 0, за достатньо великого N, ?сну? кодування довжини N, швидк?сть ≥ R та алгоритм декодування, так?, що максимальна ймов?рн?сть помилки в блоц? ≤ ε; тобто завжди можливо передавати з дов?льно малою блоковою похибкою. Кр?м того, для будь-яко? швидкост? R > C передавати з дов?льно малою блоковою похибкою неможливо.

Канальне кодування (англ. channel coding) займа?ться пошуком таких майже оптимальних кодувань, як? можливо використовувати для передавання даних зашумленим каналом з невеликою кодувальною похибкою на швидкост?, наближен?й до пропускно? спроможност? каналу.

Пропускна спроможн?сть окремих моделей канал?в

[ред. | ред. код]
  • Канал аналогового передавання безперервного часу, п?дданий гауссовому шуму, — див. теорему Шеннона — Гартл?.
  • Дв?йковий симетричний канал?(?нш? мови) (ДСК) з ?мов?рн?стю спотворення p — це канал ?з б?нарним входом ? б?нарним виходом, який зм?ню? вх?дний б?т на протилежний з ?мов?рн?стю p. ДСК ма? пропускну спроможн?сть 1 - Hb(p) б?т?в на одне використання каналу, де Hb — функц?я б?нарно? ентроп?? для логарифму за основою 2:
  • Дв?йковий канал з? стиранням?(?нш? мови) (ДКС) з ?мов?рн?стю стирання p — це канал ?з б?нарним входом та тернарним виходом. Можлив? виходи каналу — 0, 1 та трет?й символ 'e', званий стиранням (англ. erasure). Стирання пода? повну втрату ?нформац?? про вх?дний б?т. Пропускна спроможн?сть ДКС становить 1 - p б?т?в на одне використання каналу.

Канали з пам'яттю та спрямована ?нформац?я

[ред. | ред. код]

На практиц? багато канал?в мають пам'ять. Тобто, у момент часу канал визнача?ться умовною ймов?рн?стю . Часто зручн?ше використовувати запис , тод? канал ста? . У такому випадку пропускна спроможн?сть визнача?ться швидк?стю вза?мно? ?нформац??, коли зворотний зв'язок недоступний, та швидк?стю спрямовано? ?нформац???(?нш? мови), якщо зворотний зв'язок наявний чи в?дсутн?й[32][41] (якщо зворотний зв'язок в?дсутн?й, спрямована ?нформац?я дор?вню? вза?мн?й ?нформац??).

Зам?нна ?нформац?я

[ред. | ред. код]

Зам?нна ?нформац?я (англ. fungible information) — це ?нформац?я, для яко? засоби кодування не мають значення.[42] Класичн? теоретики ?нформац?? та спец?ал?сти з комп'ютерних наук здеб?льшого ц?кавляться ?нформац??ю саме цього типу. ?нод? ?? називають вимовною (англ. speakable) ?нформац??ю.[43]

Застосування в ?нших галузях

[ред. | ред. код]

Використання в розв?дц? та прикладна секретн?сть

[ред. | ред. код]

Поняття теор?? ?нформац?? застосовн? до криптограф?? та криптоанал?зу. Одиницю ?нформац??, введену Тюр?нгом — бан, використовували у проект? ?Ультра?(?нш? мови)? для зламування коду н?мецько? машини ?Ен?гма?, що прискорило завершення Друго? св?тово? в?йни в ?вроп?. Сам Шеннон визначив важливе поняття, в?доме тепер як в?дстань ?диност?. Виходячи з надм?рност? в?дкритого тексту, це поняття намага?ться оц?нити м?н?мальну к?льк?сть шифротексту, необх?дну для забезпечення ун?кально? розшифровуваност?.

Теор?я ?нформац?? п?дказу? нам, що збер?гати секрети набагато складн?ше, н?ж може здатися на перший погляд. Атака повним перебором може зламувати системи на основ? асиметричних ключ?в, або б?льшост? широко використовуваних метод?в шифрування з симетричними ключами (?нод? званих алгоритмами з секретним ключем), як-от блокового шифру. Безпека вс?х таких метод?в ?рунту?ться на припущенн?, що не ?сну? в?домих атак, здатних зламати ?х за практично прийнятний час.

?нформац?йно-теоретична безпека?(?нш? мови) охоплю? так? методи як одноразовий блокнот, що не вразлив? до под?бних атак повним перебором. У таких випадках додатна умовна вза?мна ?нформац?я м?ж в?дкритим ? шифрованим текстом (обумовлена ключем) може забезпечувати належну передачу, тод? як безумовна вза?мна ?нформац?я м?ж в?дкритим ? шифрованим текстом залиша?ться нульовою, що забезпечу? абсолютно захищений зв'язок. ?ншими словами, перехоплювач не зможе покращити сво? припущення щодо в?дкритого тексту, здобувши ?нформац?ю про шифротекст без ключа. Проте, як ? в будь-як?й ?нш?й криптограф?чн?й систем?, для правильного застосування нав?ть ?нформац?йно-теоретично захищених метод?в потр?бно бути уважними; про?кт ?Венона? виявився здатним зламати одноразов? блокноти Радянського Союзу через ?хн? неналежне повторне використання ключового матер?алу.

Генерування псевдовипадкових чисел

[ред. | ред. код]

Генератори псевдовипадкових чисел широко доступн? в б?бл?отеках мов програмування та прикладних програмах. Проте майже повсюдно вони непридатн? для криптограф?чного застосування, оск?льки не обходять детерм?новану природу сучасного комп'ютерного обладнання та програмного забезпечення. Один з клас?в удосконалених генератор?в випадкових чисел називають криптограф?чно ст?йкими генераторами псевдовипадкових чисел, але нав?ть вони потребують для належно? роботи випадкових початкових значень ззовн? програмного забезпечення. ?х можливо отримувати за допомогою екстрактор?в?(?нш? мови), якщо робити це належним чином. М?рою достатньо? випадковост? в екстракторах ? м?н-ентроп?я?(?нш? мови), величина, пов'язана з ентроп??ю Шеннона через ентроп?ю Рень?; ентроп?ю Рень? також використовують для оц?нювання випадковост? в криптограф?чних системах. Хоч ц? м?ри й пов'язан?, в?дм?нност? м?ж ними означають, що випадкова величина з високою ентроп??ю Шеннона не обов'язково задов?льна для використання в екстрактор? та, в?дпов?дно, в криптограф??.

Сейсм?чна розв?дка

[ред. | ред. код]

Одним ?з ранн?х комерц?йних застосувань теор?? ?нформац?? була галузь сейсм?чного розв?дування нафти. Робота в ц?й галуз? уможливила в?докремлювання небажаного шуму в?д потр?бного сейсм?чного сигналу. Теор?я ?нформац?? та цифрова обробка сигнал?в пропонують значне п?двищення розд?льност? та ч?ткост? зображень пор?вняно з попередн?ми аналоговими методами.[44]

Сем?отика

[ред. | ред. код]

Сем?отики Дуде Наута?(?нш? мови) та В?нфр?д Ньот?(?нш? мови) у сво?х працях ?з сем?отики розглядали Чарлза Сандерса П?рса як творця теор?? ?нформац??.[45]:171[46]:137 Наута визначав сем?отичну теор?ю ?нформац?? як досл?дження ?внутр?шн?х процес?в кодування, ф?льтрування та обробки ?нформац??.?[45]:91

Поняття з теор?? ?нформац??, як-от керування надм?рн?стю та кодом, використовували так? сем?отики як Умберто Еко та Ферруччо Росс?-Ланд??(?нш? мови) для пояснення ?деолог?? як форми передавання пов?домлення, за яко? дом?нантний соц?альний клас переда? сво? пов?домлення, використовуючи знаки з високим р?внем надм?рност?, так що з множини конкурентних пов?домлень декоду?ться лише одне.[47]

Орган?зац?я ?нтегровано? обробки нейронно? ?нформац??

[ред. | ред. код]

К?льк?сн? методи теор?? ?нформац?? застосували у когн?тив?стиц? для анал?зу орган?зац?? ?нтегровано? обробки нейронно? ?нформац?? в контекст? проблеми зв'язування?(?нш? мови) в когн?тивн?й нейронауц?.[48] У цьому контекст? визначають або ?нформац?йно-теоретичну м?ру, таку як функц?йн? кластери (англ. functional clusters, модель функц?йного кластерування та г?потеза динам?чного ядра (ГДЯ, англ. dynamic core hypothesis, DCH) Джеральда Едельмана та Джул?о Тонон?[49]) або ефективна ?нформац?я (англ. effective information, теор?я ?нтегровано? ?нформац???(?нш? мови) (Т??, англ. integrated information theory, IIT) св?домост? Тонон?[50][51][52]), що ?рунту?ться на повторновикористовн?й орган?зац?? обробки, тобто синхрон?зац?? нейроф?з?олог?чно? активност? м?ж групами нейронних сукупностей, або м?ру м?н?м?зац?? в?льно? енерг?? на основ? статистичних метод?в (принцип в?льно? енерг?? Карла Фр?стана, ?нформац?йно-теоретична м?ра, яка стверджу?, що кожна адаптивна зм?на в самоорган?зовн?й систем? веде до м?н?м?зац?? в?льно? енерг??, та г?потеза ба?сового мозку?(?нш? мови)[53][54][55][56][57]).

?нш? застосування

[ред. | ред. код]

Теор?я ?нформац?? також знаходить застосування у пошуку позаземного розуму,[58] досл?дженн? чорних д?р, б?о?нформатиц?[джерело?], та ста?вках?(?нш? мови).

Див. також

[ред. | ред. код]

Застосування

[ред. | ред. код]

?стор?я

[ред. | ред. код]

Теор?я

[ред. | ред. код]

Поняття

[ред. | ред. код]

Прим?тки

[ред. | ред. код]
  1. Schneider, Thomas D. (2006). Claude Shannon: Biologist. IEEE Engineering in Medicine and Biology Magazine: The Quarterly Magazine of the Engineering in Medicine & Biology Society (англ.). 25 (1): 30—33. doi:10.1109/memb.2006.1578661. ISSN 0739-5175. PMC 1538977. PMID 16485389.
  2. а б Cruces, Sergio; Martín-Clemente, Rubén; Samek, Wojciech (3 липня 2019). Information Theory Applications in Signal Processing. Entropy (англ.). 21 (7): 653. Bibcode:2019Entrp..21..653C. doi:10.3390/e21070653. ISSN 1099-4300. PMC 7515149. PMID 33267367.
  3. а б Baleanu, D.; Balas, Valentina Emilia; Agarwal, Praveen, ред. (2023). Fractional Order Systems and Applications in Engineering. Advanced Studies in Complex Systems (англ.). London, United Kingdom: Academic Press. с. 23. ISBN 978-0-323-90953-2. OCLC 1314337815.
  4. Horgan, John (27 кв?тня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 8 листопада 2024.
  5. Shi, Zhongzhi (2011). Advanced Artificial Intelligence (англ.). World Scientific Publishing. с. 2. doi:10.1142/7547. ISBN 978-981-4291-34-7.
  6. Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (англ.) (вид. Second). New York: Springer Science. ISBN 978-0-387-95364-9.
  7. а б F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (англ.). The MIT press. ISBN 978-0262681087.
  8. Delgado-Bonal, Alfonso; Martín-Torres, Javier (3 листопада 2016). Human vision is determined based on information theory. Scientific Reports (англ.). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
  9. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). Bayesian inference of phylogeny and its impact on evolutionary biology. Science (англ.). 294 (5550): 2310—2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
  10. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences. Gene (англ.). 215 (1): 111—122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
  11. Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Phys. Rev. (англ.). 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. S2CID 17870175.
  12. Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (5 жовтня 2020). Method of information entropy for convergence assessment of molecular dynamics simulations. Journal of Applied Physics (англ.). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. OSTI 1691442. S2CID 225010720.
  13. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). Chain Letters and Evolutionary Histories. Scientific American (англ.). 288 (6): 76—81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Арх?в ориг?налу за 7 жовтня 2007. Процитовано 11 березня 2008. [Арх?вовано 2025-08-07 у Wayback Machine.]
  14. David R. Anderson (1 листопада 2003). Some background on why people in the empirical sciences may want to better understand the information-theoretic methods (PDF) (англ.). Арх?в ориг?налу (PDF) за 23 липня 2011. Процитовано 23 червня 2010. [Арх?вовано 2025-08-07 у Wayback Machine.]
  15. Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (ред.), Music, Expectation, and Information Theory, The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (англ.), Cham: Springer International Publishing, с. 161—169, doi:10.1007/978-3-319-47337-6_17, ISBN 978-3-319-47337-6, процитовано 19 вересня 2024
  16. Rocamora, Martín; Cancela, Pablo; Biscainho, Luiz (5 кв?тня 2019). Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns. Journal of the Audio Engineering Society (англ.). 67 (4): 160—173. doi:10.17743/jaes.2019.0003.
  17. Marsden, Alan (2020). New Prospects for Information Theory in Arts Research. Leonardo (англ.). 53 (3): 274—280. doi:10.1162/leon_a_01860. ISSN 0024-094X.
  18. Pinkard, Henry; Kabuli, Leyla; Markley, Eric; Chien, Tiffany; Jiao, Jiantao; Waller, Laura (2024). Universal evaluation and design of imaging systems using information estimation (англ.). arXiv:2405.20559 [physics.optics].
  19. Wing, Simon; Johnson, Jay R. (1 лютого 2019). Applications of Information Theory in Solar and Space Physics. Entropy (англ.). 21 (2): 140. Bibcode:2019Entrp..21..140W. doi:10.3390/e21020140. ISSN 1099-4300. PMC 7514618. PMID 33266856.
  20. Kak, Subhash (26 листопада 2020). Information theory and dimensionality of space. Scientific Reports (англ.). 10 (1): 20733. doi:10.1038/s41598-020-77855-9. ISSN 2045-2322.
  21. Harms, William F. (1998). The Use of Information Theory in Epistemology. Philosophy of Science (англ.). 65 (3): 472—501. doi:10.1086/392657. ISSN 0031-8248. JSTOR 188281.
  22. Gleick, 2011, с. 3—4.
  23. Horgan, John (27 кв?тня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 30 вересня 2023.
  24. Roberts, Siobhan (30 кв?тня 2016). The Forgotten Father of the Information Age. The New Yorker (амер.). ISSN 0028-792X. Процитовано 30 вересня 2023.
  25. а б Tse, David (22 грудня 2020). How Claude Shannon Invented the Future. Quanta Magazine (англ.). Процитовано 30 вересня 2023.
  26. Braverman, Mark (19 вересня 2011). Information Theory in Computer Science (PDF) (англ.).
  27. Reza, 1994.
  28. Кил?вник, В.С.; См?рнова, В.Л.; Панчишин, Н.Я. (2019). Теор?я ?нформац?? та ?? застосування в медичн?й реаб?л?тац?? (PDF). В?сник медичних ? б?олог?чних досл?джень (укр.). ТНМУ (1): 70—75. Арх?в (PDF) ориг?налу за 6 березня 2022.
  29. Ash, 1990.
  30. Жураковський та Полторак, 2001, с. 36—40.
  31. Коваленко, 2020, с. 38—41.
  32. а б Massey, James (1990), Causality, Feedback And Directed Information, Proc. 1990 Intl. Symp. on Info. Th. and its Applications (англ.), CiteSeerX 10.1.1.36.5688
  33. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
  34. Kramer, G. (January 2003). Capacity results for the discrete memoryless network. IEEE Transactions on Information Theory (англ.). 49 (1): 4—21. doi:10.1109/TIT.2002.806135.
  35. Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing. IEEE Transactions on Information Theory (англ.). 57 (6): 3248—3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
  36. Simeone, Osvaldo; Permuter, Haim Henri (June 2013). Source Coding When the Side Information May Be Delayed. IEEE Transactions on Information Theory (англ.). 59 (6): 3607—3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
  37. Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). Directed Information on Abstract Spaces: Properties and Variational Equalities. IEEE Transactions on Information Theory (англ.). 62 (11): 6019—6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
  38. Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). LQG Control With Minimum Directed Information: Semidefinite Programming Approach. IEEE Transactions on Automatic Control (англ.). 63 (1): 37—52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958. Арх?в ориг?налу за 12 кв?тня 2024 — через TU Delft Repositories.
  39. Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 кв?тня 2016). Analogy between gambling and measurement-based work extraction. Journal of Statistical Mechanics: Theory and Experiment (англ.). 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
  40. Jerry D. Gibson (1998). Digital Compression for Multimedia: Principles and Standards (англ.). Morgan Kaufmann. ISBN 1-55860-369-7.
  41. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
  42. Bartlett, Stephen D.; Rudolph, Terry; Spekkens, Robert W. (April–June 2007). Reference frames, superselection rules, and quantum information. Reviews of Modern Physics (англ.). 79 (2): 555—606. arXiv:quant-ph/0610030. Bibcode:2007RvMP...79..555B. doi:10.1103/RevModPhys.79.555.
  43. Peres, A.; P. F. Scudo (2002b). A. Khrennikov (ред.). Quantum Theory: Reconsideration of Foundations (англ.). V?xj? University Press, V?xj?, Sweden. с. 283.
  44. Haggerty, Patrick E. (1981). The corporation and innovation. Strategic Management Journal (англ.). 2 (2): 97—118. doi:10.1002/smj.4250020202.
  45. а б Nauta, Doede (1972). The Meaning of Information (англ.). The Hague: Mouton. ISBN 9789027919960.
  46. N?th, Winfried (January 2012). Charles S. Peirce's theory of information: a theory of the growth of symbols and of knowledge. Cybernetics and Human Knowing (англ.). 19 (1–2): 137—161.
  47. N?th, Winfried (1981). "Semiotics of ideology". Semiotica (англ.), Issue 148.
  48. Maurer, H. (2021). Chapter 10: Systematic Class of Information Based Architecture Types. Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism (англ.). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN 978-1-351-04352-6.
  49. Edelman, G.M.; Tononi, G. (2000). A Universe of Consciousness: How Matter Becomes Imagination (англ.). New York: Basic Books. ISBN 978-0465013777.
  50. Tononi, G.; Sporns, O. (2003). Measuring information integration. BMC Neuroscience (англ.). 4: 1—20. doi:10.1186/1471-2202-4-31. PMC 331407. PMID 14641936.
  51. Tononi, G. (2004a). An information integration theory of consciousness. BMC Neuroscience (англ.). 5: 1—22. doi:10.1186/1471-2202-5-42. PMC 543470. PMID 15522121.
  52. Tononi, G. (2004b). Consciousness and the brain: theoretical aspects. У Adelman, G.; Smith, B. (ред.). Encyclopedia of Neuroscience (англ.) (вид. 3rd). Amsterdam, Oxford: Elsevier. ISBN 0-444-51432-5. Арх?в (PDF) ориг?налу за 2 грудня 2023.
  53. Friston, K.; Stephan, K.E. (2007). Free-energy and the brain. Synthese (англ.). 159 (3): 417—458. doi:10.1007/s11229-007-9237-y. PMC 2660582. PMID 19325932.
  54. Friston, K. (2010). The free-energy principle: a unified brain theory. Nature Reviews Neuroscience (англ.). 11 (2): 127—138. doi:10.1038/nrn2787. PMID 20068583.
  55. Friston, K.; Breakstear, M.; Deco, G. (2012). Perception and self-organized instability. Frontiers in Computational Neuroscience (англ.). 6: 1—19. doi:10.3389/fncom.2012.00044. PMC 3390798. PMID 22783185.
  56. Friston, K. (2013). Life as we know it. Journal of the Royal Society Interface (англ.). 10 (86): 20130475. doi:10.1098/rsif.2013.0475. PMC 3730701. PMID 23825119.
  57. Kirchhoff, M.; Parr, T.; Palacios, E.; Friston, K.; Kiverstein, J. (2018). The Markov blankets of life: autonomy, active inference and the free energy principle. Journal of the Royal Society Interface (англ.). 15 (138): 20170792. doi:10.1098/rsif.2017.0792. PMC 5805980. PMID 29343629.
  58. Doyle, Laurance R.; McCowan, Brenda; Johnston, Simon; Hanser, Sean F. (February 2011). Information theory, animal communication, and the search for extraterrestrial intelligence. Acta Astronautica (англ.). 68 (3–4): 406—417. Bibcode:2011AcAau..68..406D. doi:10.1016/j.actaastro.2009.11.018.

Л?тература

[ред. | ред. код]

Класичн? прац?

[ред. | ред. код]

?нш? журнальн? статт?

[ред. | ред. код]
  • J. L. Kelly Jr., Princeton, "A New Interpretation of Information Rate" Bell System Technical Journal (англ.), Vol. 35, July 1956, pp. 917–26.
  • R. Landauer, IEEE.org, "Information is Physical" Proc. Workshop on Physics and Computation PhysComp'92 (англ.) (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1–4.
  • Landauer, R. (1961). Irreversibility and Heat Generation in the Computing Process (PDF). IBM J. Res. Dev. (англ.). 5 (3): 183—191. doi:10.1147/rd.53.0183.
  • Timme, Nicholas; Alford, Wesley; Flecker, Benjamin; Beggs, John M. (2012). Multivariate information measures: an experimentalist's perspective (англ.). arXiv:1111.6857 [cs.IT].

П?дручники з теор?? ?нформац??

[ред. | ред. код]

Укра?нською

[ред. | ред. код]

?нш? книги

[ред. | ред. код]

Посилання

[ред. | ред. код]
白痰多是什么原因 腹部胀气是什么原因 口差念什么 性早熟是什么意思 燕麦片热量高为什么还能减肥
井底之蛙是什么意思 墨绿色大便是什么原因 幽门螺旋杆菌弱阳性是什么意思 松香有毒吗对人体有什么危害 非典型腺细胞是什么意思
脂蛋白a高有什么危害 吐痰带血丝是什么原因 淋巴细胞百分比偏低是什么原因 考军校要什么条件 中国的国菜是什么
承受是什么意思 泰山在什么地方 鸭肚是鸭的什么部位 什么叫自然拼读 梦见好多羊是什么意思
五月一号什么星座hcv8jop5ns4r.cn 牵牛花像什么bfb118.com 521什么星座hcv7jop5ns5r.cn 硬不起吃什么药hcv8jop3ns4r.cn 艾滋病有什么危害hcv8jop0ns5r.cn
上午10点是什么时辰hcv8jop5ns3r.cn ns是什么单位hcv9jop2ns8r.cn 刀伤用什么药愈合最快hcv7jop9ns9r.cn 熬夜对身体有什么危害hcv9jop5ns6r.cn 银渐层是什么品种hcv9jop1ns3r.cn
什么是支气管扩张hcv9jop5ns7r.cn 扁桃体看什么科室hcv8jop2ns9r.cn 许久是什么意思helloaicloud.com 梦见小猪仔什么意思hcv9jop4ns5r.cn 望而生畏是什么意思hcv8jop0ns1r.cn
胃不舒服吃什么水果好hcv8jop2ns5r.cn 睡眠不好吃什么中成药hcv9jop2ns1r.cn 来例假能吃什么水果hcv9jop8ns2r.cn 上校是什么级别hcv8jop8ns2r.cn 灵芝有什么好处hcv9jop7ns3r.cn
百度