Взаимная информация: различия между версиями
[непроверенная версия] | [непроверенная версия] |
Avsmal (обсуждение | вклад) м стилевые правки: правильный математический разделитель для условия Метка: визуальный редактор отключён |
Rotondus (обсуждение | вклад) шаблон |
||
(не показаны 3 промежуточные версии 2 участников) | |||
Строка 1: | Строка 1: | ||
{{Теория информации}} |
|||
'''Взаимная информация''' — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. |
'''Взаимная информация''' — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. |
||
Строка 14: | Строка 15: | ||
::<math> I( X;Y ) = H ( X ) - H ( X \mid Y ) = H ( X ) - 0 = H ( X )</math> |
::<math> I( X;Y ) = H ( X ) - H ( X \mid Y ) = H ( X ) - 0 = H ( X )</math> |
||
== Условная и |
== Условная и относительная взаимная информация == |
||
'''Условная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей: |
'''Условная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей: |
||
::<math>I( X;Y \mid Z = z ) = H( X \mid Z = z ) - H( X \mid Y,Z = z ) </math> |
::<math>I( X;Y \mid Z = z ) = H( X \mid Z = z ) - H( X \mid Y,Z = z ) </math> |
||
''' |
'''Относительная взаимная информация''' — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины: |
||
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y,Z ) </math> |
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y,Z ) = H( X \mid Z ) + H( Y \mid Z ) - H( X, Y \mid Z )</math> |
||
=== Свойства === |
=== Свойства === |
||
Строка 28: | Строка 29: | ||
::<math>0 \le I( X;Y \mid Z ) \le \min [ H ( X \mid Z ), H ( Y \mid Z ) ]</math> |
::<math>0 \le I( X;Y \mid Z ) \le \min [ H ( X \mid Z ), H ( Y \mid Z ) ]</math> |
||
::<math>0 \le I( X;Y \mid Z = z ) \le \min [ H ( X \mid Z = z ), H ( Y \mid Z = z ) ]</math> |
::<math>0 \le I( X;Y \mid Z = z ) \le \min [ H ( X \mid Z = z ), H ( Y \mid Z = z ) ]</math> |
||
== Взаимная информация трёх случайных величин == |
|||
Определяют также '''взаимную информацию трёх случайных величин''': |
|||
::<math>I( X; Y; Z ) = I( X; Y ) - I( X; Y \mid Z ) </math> |
|||
Взаимная информация трёх случайных величин может быть отрицательной. Рассмотрим равномерное распределение на тройках битов <math>(x,y,z)</math>, таких, что <math>x\oplus y\oplus z = 0</math>. Определим случайные величины <math>X, Y, Z</math> как значения битов <math>x, y, z</math>, соответственно. Тогда |
|||
::<math>I( X; Y ) = H( X ) - H( X \mid Y ) = 1 - 1 = 0, </math> |
|||
но при этом |
|||
::<math>I( X; Y \mid Z ) = H( X \mid Z ) - H( X \mid Y, Z ) = 1 + 0 = 1, </math> |
|||
а, следовательно, <math>I( X; Y; Z ) = -1</math>. |
|||
== Литература == |
== Литература == |
||
* {{source|Q27473383|ref=Габидулин, Пилипчук|ref-year=2007}} <!-- Лекции по теории информации --> |
* {{source|Q27473383|ref=Габидулин, Пилипчук|ref-year=2007}} <!-- Лекции по теории информации --> |
||
* {{книга|автор=Верещагин Н.К., Щепин Е.В.|заглавие=Информация, кодирование и предсказание|издательство=ФМОП, МЦНМО|место=М.|год=2012|страниц=238}} |
|||
{{^}} |
{{^}} |
Текущая версия от 13:27, 1 марта 2021
Взаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как
Свойства взаимной информации
[править | править код]- Взаимная информация является симметричной функцией случайных величин:
- Взаимная информация неотрицательна и не превосходит информационную энтропию аргументов:
В частности, для независимых случайных величин взаимная информация равна нулю:
В случае, когда одна случайная величина (например, ) является детерминированной функцией другой случайной величины (), взаимная информация равна энтропии:
Условная и относительная взаимная информация
[править | править код]Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
Относительная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:
Свойства
[править | править код]- Являются симметричными функциями:
- Удовлетворяют неравенствам:
Взаимная информация трёх случайных величин
[править | править код]Определяют также взаимную информацию трёх случайных величин:
Взаимная информация трёх случайных величин может быть отрицательной. Рассмотрим равномерное распределение на тройках битов , таких, что . Определим случайные величины как значения битов , соответственно. Тогда
но при этом
а, следовательно, .
Литература
[править | править код]- Габидулин Э. М., Пилипчук Н. И. Лекции по теории информации — МФТИ, 2007. — 214 с. — ISBN 978-5-7417-0197-3
- Верещагин Н.К., Щепин Е.В. Информация, кодирование и предсказание. — М.: ФМОП, МЦНМО, 2012. — 238 с.