Взаимная информация: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
м стилевые правки: правильный математический разделитель для условия
шаблон
 
(не показаны 3 промежуточные версии 2 участников)
Строка 1: Строка 1:
{{Теория информации}}
'''Взаимная информация''' — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
'''Взаимная информация''' — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.


Строка 14: Строка 15:
::<math> I( X;Y ) = H ( X ) - H ( X \mid Y ) = H ( X ) - 0 = H ( X )</math>
::<math> I( X;Y ) = H ( X ) - H ( X \mid Y ) = H ( X ) - 0 = H ( X )</math>


== Условная и безусловная взаимная информация ==
== Условная и относительная взаимная информация ==
'''Условная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
'''Условная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
::<math>I( X;Y \mid Z = z ) = H( X \mid Z = z ) - H( X \mid Y,Z = z ) </math>
::<math>I( X;Y \mid Z = z ) = H( X \mid Z = z ) - H( X \mid Y,Z = z ) </math>


'''Безусловная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:
'''Относительная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y,Z ) </math>
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y,Z ) = H( X \mid Z ) + H( Y \mid Z ) - H( X, Y \mid Z )</math>


=== Свойства ===
=== Свойства ===
Строка 28: Строка 29:
::<math>0 \le I( X;Y \mid Z ) \le \min [ H ( X \mid Z ), H ( Y \mid Z ) ]</math>
::<math>0 \le I( X;Y \mid Z ) \le \min [ H ( X \mid Z ), H ( Y \mid Z ) ]</math>
::<math>0 \le I( X;Y \mid Z = z ) \le \min [ H ( X \mid Z = z ), H ( Y \mid Z = z ) ]</math>
::<math>0 \le I( X;Y \mid Z = z ) \le \min [ H ( X \mid Z = z ), H ( Y \mid Z = z ) ]</math>

== Взаимная информация трёх случайных величин ==
Определяют также '''взаимную информацию трёх случайных величин''':
::<math>I( X; Y; Z ) = I( X; Y ) - I( X; Y \mid Z ) </math>

Взаимная информация трёх случайных величин может быть отрицательной. Рассмотрим равномерное распределение на тройках битов <math>(x,y,z)</math>, таких, что <math>x\oplus y\oplus z = 0</math>. Определим случайные величины <math>X, Y, Z</math> как значения битов <math>x, y, z</math>, соответственно. Тогда
::<math>I( X; Y ) = H( X ) - H( X \mid Y ) = 1 - 1 = 0, </math>
но при этом
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y, Z ) = 1 + 0 = 1, </math>
а, следовательно, <math>I( X; Y; Z ) = -1</math>.


== Литература ==
== Литература ==
* {{source|Q27473383|ref=Габидулин, Пилипчук|ref-year=2007}} <!-- Лекции по теории информации -->
* {{source|Q27473383|ref=Габидулин, Пилипчук|ref-year=2007}} <!-- Лекции по теории информации -->
* {{книга|автор=Верещагин Н.К., Щепин Е.В.|заглавие=Информация, кодирование и предсказание|издательство=ФМОП, МЦНМО|место=М.|год=2012|страниц=238}}


{{^}}
{{^}}

Текущая версия от 13:27, 1 марта 2021

Теория информации

Взаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.

Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как

Свойства взаимной информации

[править | править код]
  • Взаимная информация является симметричной функцией случайных величин:

В частности, для независимых случайных величин взаимная информация равна нулю:

В случае, когда одна случайная величина (например, ) является детерминированной функцией другой случайной величины (), взаимная информация равна энтропии:

Условная и относительная взаимная информация

[править | править код]

Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:

Относительная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:

  • Являются симметричными функциями:
  • Удовлетворяют неравенствам:

Взаимная информация трёх случайных величин

[править | править код]

Определяют также взаимную информацию трёх случайных величин:

Взаимная информация трёх случайных величин может быть отрицательной. Рассмотрим равномерное распределение на тройках битов , таких, что . Определим случайные величины как значения битов , соответственно. Тогда

но при этом

а, следовательно, .

Литература

[править | править код]
  • Габидулин Э. М., Пилипчук Н. И. Лекции по теории информацииМФТИ, 2007. — 214 с. — ISBN 978-5-7417-0197-3
  • Верещагин Н.К., Щепин Е.В. Информация, кодирование и предсказание. — М.: ФМОП, МЦНМО, 2012. — 238 с.