Взаимная информация: различия между версиями
Перейти к навигации
Перейти к поиску
[непроверенная версия] | [непроверенная версия] |
Содержимое удалено Содержимое добавлено
Vlsergey (обсуждение | вклад) →Условная взаимная информация: дополнение |
Vlsergey (обсуждение | вклад) →Свойства взаимной информации: дополнение |
||
Строка 7: | Строка 7: | ||
* Взаимная информация является симметричной функцией случайных величин: |
* Взаимная информация является симметричной функцией случайных величин: |
||
::<math>I\left( {X;Y} \right) = I\left( {Y;X} \right)</math> |
::<math>I\left( {X;Y} \right) = I\left( {Y;X} \right)</math> |
||
* Взаиная информация неотрицательная и не превосходит [[Информационная энтропия|информационную энтропию]] аргументов: |
|||
::<math>0 \le I\left( {X;Y} \right) \le \min \left[ H\left( X \right), H\left( Y \right) \right]</math> |
|||
== Условная взаимная информация == |
== Условная взаимная информация == |
Версия от 23:22, 22 июня 2008
Взаимная информация - статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как
Свойства взаимной информации
- Взаимная информация является симметричной функцией случайных величин:
- Взаиная информация неотрицательная и не превосходит информационную энтропию аргументов:
Условная взаимная информация
Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
Безусловная взаимная информация
Условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьй случайной величины:
См. также
Литература
Это заготовка статьи по математике. Помогите Википедии, дополнив её. |