Теорія ймовірностей: відмінності між версіями
[перевірена версія] | [перевірена версія] |
Вилучено вміст Додано вміст
Олюсь (обговорення | внесок) мНемає опису редагування |
|||
(Не показані 45 проміжних версій 22 користувачів) | |||
Рядок 1:
{{Основи теорії ймовірностей}}
'''Тео́рія ймові́рностей'''<ref>[http://esu.com.ua/search_articles.php?id=12965 Ймові́рностей тео́рія] {{Webarchive|url=https://web.archive.org/web/20160423172832/http://esu.com.ua/search_articles.php?id=12965 |date=23 квітня 2016 }} // {{ЕСУ}}</ref> (''імові́рностей''<ref>{{УРЕ|4|360|Імові́рностей тео́рія}}</ref>), '''тео́рія імові́рності'''<ref>{{СУМ-11|Імовірність}}</ref> — розділ [[математика|математики]], що вивчає закономірності випадкових явищ: [[випадкова подія|випадкові події]], [[випадкова величина|випадкові величини]], їхні [[Функції випадкових величин|функції]], властивості й операції над ними. [[Математична модель|Математичні моделі]] в теорії ймовірності описують з деяким ступенем точності випробування ([[експеримент]]и, [[спостереження]], [[вимірювання]]), результати яких неоднозначно визначаються умовами випробування.
Математичним апаратом теорії ймовірності є [[комбінаторика]] та [[теорія міри]].
Теорія ймовірностей виникла і спершу розвивалася як прикладна дисципліна (зокрема, для розрахунків в азартних іграх).
== Історія ==
Виникнення теорії ймовірностей як науки відносять до середньовіччя і перших спроб математичного аналізу [[азартні ігри|азартних ігор]]. Спочатку її основні поняття не мали строго математичного вигляду, до них можна було ставитися як до емпіричних фактів, властивостей реальних подій, і формулювалися вони в наочних уявленнях. Найперші наукові праці в галузі теорії ймовірностей належать до XVII століття. Досліджуючи прогнозування виграшу в азартних іграх, [[Блез Паскаль]] і [[П'єр Ферма]] відкрили перші ймовірнісні залежності, що виникають під час кидання [[гральні кубики|гральних кубиків]].
Вважають, що вперше [[Блез Паскаль|Паскаль]] взявся за теорію ймовірностей під впливом питань, поставлених перед ним одним з придворних французького двору Шевальє де Мере (
Питання були такими:<ref>Стройк Д.
1. Скільки разів треба кинути два гральних кубика, щоб випадків випадання відразу двох шісток було більше половини від загальної кількості кидків?
Рядок 17:
2. Як справедливо розділити поставлені двома гравцями гроші, якщо вони з якихось причин припинили гру передчасно?
Ці задачі обговорювалися в листуванні Б. Паскаля і П. Ферма (
Справжню наукову основу теорії ймовірностей заклав великий математик [[Якоб Бернуллі]] (
Значний внесок в теорію ймовірностей зробив українсько-російський математик,
Врешті-решт теорія ймовірностей набула чіткого математичного вигляду
== Основні положення ==
Рядок 44:
=== Приклад ===
Нехай події A<sub>i</sub>, (i = 1, 2, 3, 4, 5, 6) полягають у тому, що при одному киданні грального кубика випало <math>i</math> очок ; подія '''''А'''''
=== Дискретні розподіли ймовірностей ===
Рядок 73:
=== Неперервні розподіли ймовірностей ===
{{Main|Неперервний розподіл ймовірностей}}
[[Файл:Gaussian distribution 2.jpg|thumb|300px|[[Нормальний розподіл]], неперервна розподіл ймовірностей.]]
Рядок 90:
# <math>\lim_{x\rightarrow \infty} F(x)=1\,.</math>
Якщо <math>F\,</math> є [[Абсолютна неперервність|абсолютно неперервною]], тобто, існує її [[похідна]], а інтегрування її похідної функції знову дає КФР, то кажуть, що випадкова величина ''X'' має '''[[Густина імовірності|функцію густини імовірності]]''', або '''ФГІ''', або просто '''густину''' <math>f(x)=\frac{dF(x)}{dx}\,.</math>
Для множини <math>E \subseteq \mathbb{R}</math> ймовірність того, що значення випадкової величини ''X'' знаходиться в <math>E</math>, дорівнює
Рядок 101:
Ці поняття можливо узагальнити й для [[Розмірність простору|багатовимірних]] випадків у просторі <math>\mathbb{R}^n</math> та інших неперервних просторів подій.
== Збіжність випадкових величин ==
{{Main|Збіжність випадкових величин}}
У теорії ймовірності існують декілька різних визначень збіжності [[Випадкова величина|випадкових величин]]. Вони перераховані нижче у порядку своєї суворості, тобто, будь-яке наступне поняття збіжності означає виконання збіжності попередніх.
;Слабка збіжність: Послідовність випадкових величин <math>X_1,X_2,\dots,\,</math> '''слабко''' збігається до випадкової величини <math>X\,</math> якщо їх відповідні кумулятивні ''функції розподілу'' <math>F_1,F_2,\dots\,</math> збігаються до кумулятивної функції розподілу <math>F\,</math> величини <math>X\,</math>, де <math>F\,</math> є [[Неперервна функція|неперервною]]. Слабку збіжність також називають '''збіжністю за розподілом'''.
: Найбільш поширена скорочена нотація: <math>\displaystyle X_n \, \xrightarrow{\mathcal D} \, X</math>
;Збіжність за ймовірністю: Говорять, що послідовність випадкових величин <math>X_1,X_2,\dots\,</math> збігається до випадкової величини <math>X\,</math> '''за ймовірністю''' якщо <math>\lim_{n\rightarrow\infty}P\left(\left|X_n-X\right|\geq\varepsilon\right)=0</math> для кожної ε > 0.
: Найбільш поширена скорочена нотація: <math>\displaystyle X_n \, \xrightarrow{P} \, X</math>
;Сильна збіжність: Кажуть, що послідовність випадкових величин <math>X_1,X_2,\dots\,</math> збігається до випадкової величини <math>X\,</math> '''сильно''' якщо <math>P(\lim_{n\rightarrow\infty} X_n=X)=1</math>. Сильну збіжність також називають '''збіжністю за нормою''' або '''майже певною збіжністю'''.
: Найбільш поширена скорочена нотація: <math>\displaystyle X_n \, \xrightarrow{\mathrm{a.s.}} \, X</math>
Як зрозуміло із назв слабка збіжність є менш строгою ніж сильна збіжність. По суті, сильна збіжність передбачає збіжність за імовірністю, а збіжність за імовірністю передбачає слабку збіжність. Обернене твердження не завжди буде мати місце.
=== Закон великих чисел ===
{{Main|Закон великих чисел}}
Інтуїтивно можна передбачити, що якщо монету підкинути багато разів, тоді ''приблизно'' половину разів вона падатиме ''чіт'' до гори, а іншу половину разів до гори випаде ''лишка''. Крім того, чим більше разів підкидати монети, тим ймовірніше співвідношення кількості випадіння ''чіт'' до кількості ''лишків'' буде наближатися до одиниці. Сучасна теорія ймовірності надає формальне визначення цієї інтуїтивної здогадки, що відоме як '''закон великих чисел'''. Цей закон є визначальним, оскільки він не є припущенням яке лежить в основі теорії ймовірностей, а є теоремою, що доведена із її аксіом. Оскільки він пов'язує теоретично виведені ймовірності на основі частоти їх фактичного виникнення при реальному спостереженні, закон великих чисел є одним із найважливішим в історії статистичної теорії і має широке застосування.<ref>{{cite web|url=http://www.leithner.com.au/circulars/circular17.htm|archiveurl=https://web.archive.org/web/20140126113323/http://www.leithner.com.au/circulars/circular17.htm|archivedate=2014-01-26 |title=Leithner & Co Pty Ltd - Value Investing, Risk and Risk Management - Part I |publisher=Leithner.com.au |date=2000-09-15 |accessdate=2012-02-12}}</ref>
'''Закон великих чисел''' стверджує, що вибіркове середнє
: <math>\overline{X}_n=\frac1n{\sum_{k=1}^n X_k}</math>
послідовності незалежних і однаково розподілених випадкових величин <math>X_k</math> збігається до їх спільного сподівання <math>\mu</math>, за умови що математичне сподівання <math>|X_k|</math> є скінченним.
Різні форми [[Збіжність випадкових величин|збіжності випадкових величин]] визначають як наслідок дві форми закону великих чисел: ''слабкий'' і ''сильний''
: Слабкий закон: <math>\displaystyle \overline{X}_n \, \xrightarrow{P} \, \mu</math> для <math>n \to \infty</math>
: Сильний закон: <math>\displaystyle \overline{X}_n \, \xrightarrow{\mathrm{a.\,s.}} \, \mu </math> для <math> n \to \infty .</math>
Із закону великих чисел випливає, що навіть якщо ймовірність ''p'' є результатом спостережень за повторюваними незалежними експериментами, співвідношення частоти спостереження за цією подією до загальної кількості повторень експерименту буде збігатися до значення ''p''.
Наприклад, якщо <math>Y_1,Y_2,...\,</math> є незалежними [[Розподіл Бернуллі|випадковими величинами Бернуллі]], що можуть приймати значення 1 із ймовірністю ''p'' і значення 0 із ймовірністю 1-''p'', тоді <math>\textrm{E}(Y_i)=p</math> для всіх ''i'', так що <math>\bar Y_n</math> [[майже напевно]] збігається до ''p''.
=== Центральна гранична теорема ===
{{Main|Центральна гранична теорема}}
Центральна гранична теорема є одним із видатних результатів математики.<ref>Chapter 18 in [[David Williams (mathematician)|David Williams]], «Probability with martingales», Cambridge 1991/2008</ref> Вона пояснює всюдисуще існування [[Нормальний розподіл|нормального розподілу]] в природі.
Теорема стверджує, що [[Середнє значення|середнє]] багатьох незалежних і однаково розподілених випадкових величин із скінченною дисперсією прямує до нормального розподілу ''незалежно'' від розподілу, якому слідує початкова випадкова величина. Формально, нехай <math>X_1,X_2,\dots\,</math> є незалежними випадковими величинами із [[Середнє значення|середнім]] <math>\mu</math> та [[Дисперсія випадкової величини|дисперсією]] <math>\sigma^2 > 0.\,</math> Тоді послідовність випадкових величин
: <math>Z_n=\frac{\sum_{i=1}^n (X_i - \mu)}{\sigma\sqrt{n}}\,</math>
збігається за розподілом до випадкової величини із [[Нормальний розподіл|стандартним нормальним розподілом]].
== Теми теорії ймовірностей ==
Рядок 120 ⟶ 164:
== Особливість теорії ймовірностей ==
* У теорії ймовірностей випадкову змінну вважають відомою.
Ця особливість відрізняє предмет і методи теорії ймовірностей від предмету і методів [[Математична статистика|математичної статистики]], де випадкову змінну досліджують після одержання статистичного матеріалу.
Рядок 126 ⟶ 170:
== Див. також ==
{{Портал|Математика}}
{{Вікіцитати1}}
* [[Ймовірнісний простір]]
* [[Інтерпретації ймовірності]]
* [[Теорема Баєса]]
* [[Математична статистика]]
* [[Передбачувальне моделювання]]
== Примітки ==
{{reflist|2}}
== Література ==
* Теорія ймовірностей, математична статистика та імовірнісні процеси : навч. посіб. / Ю. М. Слюсарчук, Й. Я. Хром'як, Л. Л. Джавала, В. М. Цимбал ; М-во освіти і науки України, Нац. ун-т "Львів. політехніка". – Львів : Вид-во Львів. політехніки, 2015. – 364 с. : іл. – Бібліогр.: с. 351 (10 назв). – ISBN 978-617-607-775-6 ▼
* {{Карташов.Імовірність процеси статистика}}
* Сеньо П.С. Теорія ймовірностей та математична статистика. — 2-ге вид. — Київ: Знання, 2007. — 556 с.▼
* {{Гіхман.Скороход.Ядренко}}
* Барковський В.В. Теорія ймовірностей та математична статистика. 5-те видання. — Київ: Центр учбової літератури, 2010. — 424 с.▼
▲* Теорія ймовірностей, математична статистика та імовірнісні процеси
* Жлуктенко В. І. Теорія ймовірностей і математичниа статистика. У 2 ч. — Ч. І. Теорія ймовірностей. — К.: КНЕУ, 2000. — 304 с.▼
*
▲*
▲*Гнєденко Б.В. Курс теорії ймовірностей. — К.: ВПЦ Київський університет, 2010. — 464 с.
▲* Жлуктенко В.
*Дороговцев А.Я Збірник задач з теорії ймовірностей. — К.: Вища школа, 1976. — 384 с.▼
*
* Каленюк П. І. та ін. Теорія ймовірностей і математична статистика. — Львів: Видавництво Національного університету «Львівська політехніка», 2005. — 240 с.
▲*
* {{книга
|автор = Донченко В. С., Сидоров М. В.-С., Шарапов М. М.
Рядок 176 ⟶ 224:
|ref =
}}
* Вступ до нестандартної теорії ймовірностей
* {{Феллер.Введение в теорию вероятностей и ее приложения.т1}}
== Посилання ==
* [http://esu.com.ua/search_articles.php?id=12965 Ймові́рностей Тео́рія] {{Webarchive|url=https://web.archive.org/web/20160423172832/http://esu.com.ua/search_articles.php?id=12965 |date=23 квітня 2016 }} // [[ЕСУ]].
* [http://gymnasium152.edu.kh.ua/Files/downloads/Теория%20вероятностей.pdf Початки теорії ймовірностей] {{Webarchive|url=https://web.archive.org/web/20200110031719/http://gymnasium152.edu.kh.ua/Files/downloads/Теория%20вероятностей.pdf |date=10 січня 2020 }}
* [http://probability.univ.kiev.ua/ Кафедра теорії ймовірностей, статистики та актуарної математики Київського національного університету імені Тараса Шевченка]▼
* Теорія ймовірностей: розрахункова робота ([https://ela.kpi.ua/bitstream/123456789/30757/1/Teoriia_imovirnostei_Rozrakh_rob.pdf Електронний ресурс] {{Webarchive|url=https://web.archive.org/web/20200720110858/https://ela.kpi.ua/bitstream/123456789/30757/1/Teoriia_imovirnostei_Rozrakh_rob.pdf |date=20 липня 2020 }}): навчальний посібник / уклад.: І. Ю. Каніовська, О. В. Стусь.– Київ: КПІ ім. Ігоря Сікорського, 2019. — 87 с.
* [http://matan.kpi.ua/uk/ Кафедра математичного аналізу та теорії ймовірностей Національний технічний університет України «Київський політехнічний інститут»]▼
* Теорія ймовірностей і математична статистика: практикум для студентів / О. Б. Білоцерківський. — Харків: НТУ «ХПІ», 2018. — 170 с. {{Webarchive|url=https://web.archive.org/web/20200608001242/http://repository.kpi.kharkov.ua/bitstream/KhPI-Press/37094/1/Bilotserkivskyi_Teoriia_yimovirnostei_2018.pdf |date=8 червня 2020 }} [http://repository.kpi.kharkov.ua/bitstream/KhPI-Press/37094/1/Bilotserkivskyi_Teoriia_yimovirnostei_2018.pdf Електронний ресурс]
* Теорія ймовірностей та елементи математичної статистики/ Укл.: І. С. Пожуєва, Т. І. Левицька, Г. А. Шишканова. — Запоріжжя: ЗНТУ, 2005. — 67 с. {{Webarchive|url=https://web.archive.org/web/20220106123130/http://eir.zntu.edu.ua/bitstream/123456789/230/1/M01258.pdf |date=6 січня 2022 }} [http://eir.zntu.edu.ua/bitstream/123456789/230/1/M01258.pdf Електронний ресурс]
▲* [http://probability.univ.kiev.ua/ Кафедра теорії ймовірностей, статистики та актуарної математики Київського національного університету імені Тараса Шевченка] {{Webarchive|url=https://web.archive.org/web/20090910163206/http://probability.univ.kiev.ua/ |date=10 вересня 2009 }}
▲* [http://matan.kpi.ua/uk/ Кафедра математичного аналізу та теорії ймовірностей Національний технічний університет України «Київський політехнічний інститут»] {{Webarchive|url=https://web.archive.org/web/20151121140918/http://matan.kpi.ua/uk |date=21 листопада 2015 }}
{{перекласти}}
{{Азартні ігри}}
{{Математика-footer}}
{{Інформатика}}
[[Категорія:Теорія ймовірностей|*]]
|