Взаимная информация: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
Строка 7: Строка 7:
* Взаимная информация является симметричной функцией случайных величин:
* Взаимная информация является симметричной функцией случайных величин:
::<math>I\left( {X;Y} \right) = I\left( {Y;X} \right)</math>
::<math>I\left( {X;Y} \right) = I\left( {Y;X} \right)</math>
* Взаиная информация неотрицательная и не превосходит [[Информационная энтропия|информационную энтропию]] аргументов:
::<math>0 \le I\left( {X;Y} \right) \le \min \left[ H\left( X \right), H\left( Y \right) \right]</math>


== Условная взаимная информация ==
== Условная взаимная информация ==

Версия от 23:22, 22 июня 2008

Взаимная информация - статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.

Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как

Свойства взаимной информации

  • Взаимная информация является симметричной функцией случайных величин:

Условная взаимная информация

Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:

Безусловная взаимная информация

Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьй случайной величины:

См. также

Литература