国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大數(shù)定律&中心極限定理

這篇具有很好參考價值的文章主要介紹了大數(shù)定律&中心極限定理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.切比雪夫不等式

切比雪夫不等式可以對隨機變量偏離期望值的概率做出估計,這是大數(shù)定律的推理基礎(chǔ)。以下介紹一個對切比雪夫不等式的直觀證明。

1.1 示性函數(shù)

對于隨機事件A,我們引入一個示性函數(shù) I A = { 1 , A發(fā)生 0 , A不發(fā)生 I_A=\begin{cases} 1&,\text{A發(fā)生} \\ 0&,\text{A不發(fā)生} \end{cases} IA?={10?,A發(fā)生,A不發(fā)生?,即一次實驗中,若 A A A發(fā)生了,則 I I I的值為1,否則為0。

現(xiàn)在思考一個問題:這個函數(shù)的自變量是什么?

我們知道,隨機事件在做一次試驗后有一個確定的觀察結(jié)果,稱這個觀察結(jié)果為樣本點 ω \omega ω,所有可能的樣本點的集合稱為樣本空間$\Omega =\left { \omega \right } ,稱 ,稱 ,稱\Omega 的一個子集 的一個子集 的一個子集A$為隨機事件。

例如,擲一個六面骰子,記得到數(shù)字 k k k的樣本點為 ω k \omega_k ωk?,則 Ω = { ω 1 , ω 2 , ω 3 , ω 4 , ω 5 , ω 6 } \Omega = \{\omega_1,\omega_2,\omega_3,\omega_4,\omega_5,\omega_6\} Ω={ω1?,ω2?,ω3?,ω4?,ω5?,ω6?},隨機事件“得到的數(shù)字為偶數(shù)”為 A = { ω 2 , ω 4 , ω 6 } A = \{\omega_2,\omega_4,\omega_6\} A={ω2?,ω4?,ω6?}

由此可知,示性函數(shù)是關(guān)于樣本點的函數(shù),即
I A ( ω ) = { 1 , ω ∈ A 0 , ω ? A (試驗后) I_A(\omega)=\begin{cases} 1&,\omega \in A \\ 0&,\omega \notin A \end{cases} \text {(試驗后)} IA?(ω)={10?,ωA,ω/A?(試驗后)

在試驗之前,我們能獲得哪個樣本點也是未知的,因此樣本點也是個隨機事件,記為 ξ \xi ξ,相應(yīng)的示性函數(shù)可以記為
I A = { 1 , ξ ∈ A 0 , ξ ? A (試驗前) I_A=\begin{cases} 1&,\xi \in A \\ 0&,\xi \notin A \end{cases} \text {(試驗前)} IA?={10?,ξA,ξ/A?(試驗前)

在試驗之前, I I I的值也是未知的,因此 I I I是個二值隨機變量。這樣,我們就建立了隨機事件 A A A和隨機變量 I I I之間的一一對應(yīng)關(guān)系。

I I I求數(shù)學期望可得
E I A = 1 × P ( ξ ∈ A ) + 0 × P ( ξ ? A ) = P ( ξ ∈ A ) \mathbb{E}I_A=1 \times P(\xi \in A) + 0 \times P(\xi \notin A)=P(\xi \in A) EIA?=1×P(ξA)+0×P(ξ/A)=P(ξA)

P ( ξ ∈ A ) P(\xi \in A) P(ξA)是什么?是樣本點落在 A A A里面的概率,也就是 A A A事件發(fā)生的概率 P ( A ) P(A) P(A),由此我們就得到了示性函數(shù)很重要的性質(zhì):其期望值正是對應(yīng)的隨機事件的概率,即
E I A = P ( A ) \mathbb{E}I_A=P(A) EIA?=P(A)

1.2 馬爾科夫不等式

對于非負的隨機變量 X X X和定值 a a a,考慮隨機事件 A = { X ≥ a } A=\{X \ge a\} A={Xa},我們可以畫出示性函數(shù) I A I_A IA?關(guān)于觀察值 x x x的圖像,如圖所示:
大數(shù)定律&中心極限定理,統(tǒng)計學,概率論,機器學習,人工智能,數(shù)據(jù)挖掘,算法

容易發(fā)現(xiàn) I X ≥ a ( x ) ≤ x a I_{X \ge a}(x) \le \frac{x}{a} IXa?(x)ax?恒成立。把 x x x換為隨機變量 X X X,再對該式取數(shù)學期望得
E I X ≥ a = P ( X ≥ a ) ≤ E X a \mathbb{E}I_{X \ge a}=P(X \ge a) \le \frac{\mathbb{E}X}{a} EIXa?=P(Xa)aEX?
稱該不等式為馬爾科夫Markov不等式

從理解上說,如果非負隨機變量 X X X的期望存在,則 X X X超過某個定值 a a a的概率不超過 E a \frac{\mathbb{E}}{a} aE?。舉個簡單的例子:如果我們知道所有人收入的平均數(shù) a a a,那么隨機抽一個人收入超過 10 a 10a 10a的概率不超過 10 % 10\% 10%。

根據(jù)圖中兩個函數(shù)的差距,我們大致能理解這個不等式對概率的估計時比較粗超的。

1.3 切比雪夫不等式

對于隨機變量 X X X,記 μ = E X \mu = \mathbb{E}X μ=EX,考慮隨機事件 A = { ∣ X ? μ ∣ ≥ a } A=\{|X-\mu|\ge a\} A={X?μa},其示性函數(shù)的圖像如圖所示:
大數(shù)定律&中心極限定理,統(tǒng)計學,概率論,機器學習,人工智能,數(shù)據(jù)挖掘,算法

易知 I ∣ X ? μ ∣ ≥ a ≤ ( x ? μ ) 2 a 2 I_{|X-\mu|\ge a}\le \frac{{(x-\mu)}^2}{a^2} IX?μa?a2(x?μ)2?恒成立。將該式 x x x換成 X X X并取數(shù)學期望得
E I ∣ X ? μ ∣ ≥ a = P ( ∣ X ? μ ∣ ≥ a ) ≤ D X a 2 \mathbb{E}I_{|X-\mu|\ge a}=P(|X-\mu|\ge a)\le \frac{\mathbb{D}X}{a^2} EIX?μa?=P(X?μa)a2DX?
稱上面這個不等式為切比雪夫Chebyshev不等式。

從理解上來說,如果隨機變量 X X X的期望和方差存在,則 X X X和期望值的距離大于 a a a的概率不超過 D X a 2 \frac{\mathbb{D}X}{a^2} a2DX?,給定的范圍越大( a a a越大),或 X X X的方差越小,則偏離的概率越小,這和直覺是相符的。

同樣的,切比雪夫不等式對概率的估計也比較粗糙。


2. 大數(shù)定律

對于一系列隨機變量 { X n } \{X_n\} {Xn?},設(shè)每個隨機變量都有期望。由于隨機變量之和 ∑ i = 1 n X i \sum_{i=1}^{n}X_i i=1n?Xi?很有可能發(fā)散到無窮大,我們轉(zhuǎn)而考慮隨機變量的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn?=n1?i=1n?Xi?和其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?)之間的距離。若 { X n } \{X_n\} {Xn?}滿足一定條件,當 n n n足夠大時,這個距離會以非常大的概率接近0,這就是大數(shù)定律的主要思想。

定義:
任取 ε > 0 \varepsilon >0 ε>0,若恒有 lim ? n → ∞ P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) = 1 \lim_{n \to \infty} P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )=1 limn?P( ?Xˉn??EXˉn? ?<ε)=1,稱 { X n } \{X_n\} {Xn?}服從(弱)大數(shù)定律,稱 X ˉ n \bar{X}_n Xˉn?依概率收斂于 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?),記作
X ˉ n ? P E ( X ˉ n ) \bar{X}_n\overset{P}{\longrightarrow} \mathbb{E}({\bar{X}_n}) Xˉn??P?E(Xˉn?)

2.1 馬爾可夫大數(shù)定律

任取 ε > 0 \varepsilon >0 ε>0,由切比雪夫不等式可知
P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) ≥ 1 ? D ( X ˉ n ) ε 2 P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{\mathbb{D}({\bar{X}_n})}{{\varepsilon}^2} P( ?Xˉn??EXˉn? ?<ε)1?ε2D(Xˉn?)?
= 1 ? 1 ε 2 n 2 D ( ∑ i = 1 n X i ) =1-\frac{1}{{\varepsilon}^2n^2}\mathbb{D}(\sum_{i=1}^{n}X_i) =1?ε2n21?D(i=1n?Xi?)
由此得到馬爾可夫大數(shù)定律:
如果 lim ? n → ∞ 1 n 2 D ( ∑ i = 1 n X i ) = 0 \lim_{n \to \infty}\frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=0 limn?n21?D(i=1n?Xi?)=0,則 { X n } \{X_n\} {Xn?}服從大數(shù)定律。

2.2 切比雪夫大數(shù)定律

在馬爾可夫大數(shù)定律的基礎(chǔ)上,如果 { X n } \{X_n\} {Xn?}兩兩不相關(guān),則方差可以拆開:
1 n 2 D ( ∑ i = 1 n X i ) = 1 n 2 ∑ i = 1 n D X i \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)=\frac{1}{n^2}\sum_{i=1}^{n}\mathbb{D}X_i n21?D(i=1n?Xi?)=n21?i=1n?DXi?
如果 D X i \mathbb{D}X_i DXi?有共同的上界c,則
1 n 2 D ( ∑ i = 1 n X i ) ≤ n c n 2 = c n \frac{1}{n^2}\mathbb{D}(\sum_{i=1}^{n}X_i)\le \frac{nc}{n^2}=\frac{c}{n} n21?D(i=1n?Xi?)n2nc?=nc?
P ( ∣ X ˉ n ? E X ˉ n ∣ < ε ) ≥ 1 ? c ε 2 n P(\left | \bar{X}_n-\mathbb{E}\bar{X}_n \right | < \varepsilon )\ge 1-\frac{c}{{\varepsilon}^2n} P( ?Xˉn??EXˉn? ?<ε)1?ε2nc?
由此得到切比雪夫大數(shù)定律:
如果 { X n } \{X_n\} {Xn?}兩兩不相關(guān),且方差有共同的上界,則 { X n } \{X_n\} {Xn?}兩兩不相關(guān)服從大數(shù)定律。


3. 中心極限定理

大數(shù)定律研究的是一系列隨機變量 { X n } \{X_n\} {Xn?}的均值 X ˉ n = 1 n ∑ i = 1 n X i {\bar{X}_n}=\frac{1}{n}\sum_{i=1}^{n}X_i Xˉn?=n1?i=1n?Xi?是否會依概率收斂于其期望 E ( X ˉ n ) \mathbb{E}({\bar{X}_n}) E(Xˉn?)這個數(shù)值,而中心極限定理進一步研究 X ˉ n {\bar{X}_n} Xˉn?服從什么分布。若 { X n } \{X_n\} {Xn?}滿足一定的條件,當 n n n足夠大時, X ˉ n {\bar{X}_n} Xˉn?服從正態(tài)分布,這就是中心極限定理的主要思想,這也體現(xiàn)了正態(tài)分布的重要性和普遍性。

3.1 獨立同分布中心極限定理(林德貝格-勒維)

如果 { X n } \{X_n\} {Xn?}獨立同分布,且 E X = μ \mathbb{E}X=\mu EX=μ, D X = σ 2 > 0 \mathbb{D}X={\sigma}^2>0 DX=σ2>0,則 n n n足夠大時 X ˉ n {\bar{X}_n} Xˉn?近似服從正態(tài)分布 N ( μ , σ 2 n ) N(\mu, \frac{{\sigma}^2}{n}) N(μ,nσ2?),即
lim ? x → ∞ P ( X ˉ n ? μ σ / n < a ) = Φ ( a ) = ∫ ? ∞ a 1 2 π e ? t 2 / 2 d t \lim_{x \to \infty} P(\frac{{\bar X}_n-\mu}{\sigma / \sqrt{n}}<a)=\Phi (a)=\int_{-\infty}^{a}\frac{1}{\sqrt{2\pi}}e^{-t^2/2}dt xlim?P(σ/n ?Xˉn??μ?<a)=Φ(a)=?a?2π ?1?e?t2/2dt文章來源地址http://www.zghlxwxcb.cn/news/detail-767243.html

到了這里,關(guān)于大數(shù)定律&中心極限定理的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 數(shù)學模型在人工智能中的使用:統(tǒng)計學和概率論

    數(shù)學模型在人工智能中的使用:統(tǒng)計學和概率論 隨著人工智能技術(shù)的發(fā)展,數(shù)學模型的重要性越來越突出。數(shù)學模型可以幫助人工智能

    2024年02月16日
    瀏覽(26)
  • 【概率論】中心極限定理(一)

    假設(shè)有同一批次的產(chǎn)品,每件產(chǎn)品的重量是隨機的,其平均重量是 50 公斤,標準差是 5 公斤。現(xiàn)用最大載重為 5 噸的汽車來運載該產(chǎn)品,試用中心極限定理說明,若要以 0.99 的概率保證不超載,每輛汽車最多可以裝載( C )件產(chǎn)品。 A. 90 B. 95 C. 98 D. 100 解析: ① E ( X i ) = 5

    2024年02月08日
    瀏覽(18)
  • 通俗講解 依概率收斂,大數(shù)定理和中心極限定理

    通俗講解 依概率收斂,大數(shù)定理和中心極限定理

    首先說一下結(jié)論, 依概率收斂 是一種基礎(chǔ)證明工具,可以類比到高數(shù)中的 極限定義 ,將一種直覺上的 “逼近某個數(shù)” 用數(shù)學公式來定義,這有利于嚴謹?shù)淖C明。與極限定義不同,之所以叫 依概率收斂 ,我的理解是因為隨機變量是一種有概率的值,它會在概率的意義上逼

    2024年02月15日
    瀏覽(22)
  • 【算法原理和代碼實戰(zhàn)】德州撲克計算概率4-2法則原理(基于概率論和統(tǒng)計學的基本原理),詳細計算步驟,具體算法代碼實例。

    德州撲克計算概率的4-2法則是一種簡便的計算方法,用于估算在德州撲克中獲得某種牌型的概率。4-2法則的原理是基于概率論和統(tǒng)計學的基本原理,通過觀察德州撲克中的牌型組合和可能性,得出一個簡單的計算公式。 在德州撲克的前三張公共牌(翻牌圈)之后,如果你需要

    2024年02月14日
    瀏覽(28)
  • AI人工智能中的概率論與統(tǒng)計學原理與Python實戰(zhàn):35. Python實現(xiàn)量子計算與量子機器學習...

    量子計算和量子機器學習是人工智能領(lǐng)域的一個重要分支,它們利用量子物理現(xiàn)象來解決一些傳統(tǒng)計算方法無法解決的問題。量子計算的核心是量子比特(qubit),它可以存儲多種信息,而不是傳統(tǒng)的二進制比特(bit)。量子機器學習則利用量子計算的優(yōu)勢,為機器學習問題提供更

    2024年04月14日
    瀏覽(23)
  • AI人工智能中的概率論與統(tǒng)計學原理與Python實戰(zhàn):隱馬爾可夫模型(HMM)的理解與實現(xiàn)...

    隨著人工智能技術(shù)的不斷發(fā)展,人工智能已經(jīng)成為了許多行業(yè)的核心技術(shù)之一。在人工智能中,概率論和統(tǒng)計學是非常重要的一部分,它們可以幫助我們更好地理解和解決問題。在本文中,我們將討論概率論與統(tǒng)計學原理在人工智能中的應(yīng)用,以及如何使用Python實現(xiàn)隱馬爾可

    2024年04月10日
    瀏覽(26)
  • 【概率論】大數(shù)定律

    【概率論】大數(shù)定律

    概要:首先介紹了切比雪夫不等式,然后介紹大數(shù)定律概念和3種大數(shù)定律及證明。 切比雪夫不等式 已知隨機變量X的期望EX和方差DX,對 ,可得 的一個上界。 解釋: 不論X服從什么分布,X在E(x)的 ε 鄰域內(nèi)取值的概率不小于 1- D x ε2 。 證明: 本質(zhì): 隨機變量X偏離E(X)越大,則

    2024年02月04日
    瀏覽(21)
  • 統(tǒng)計學 - 數(shù)理統(tǒng)計與應(yīng)用統(tǒng)計的區(qū)別

    目錄 1. 概率與統(tǒng)計 2. 數(shù)理統(tǒng)計與應(yīng)用統(tǒng)計 概率論是研究隨機現(xiàn)象數(shù)量規(guī)律的數(shù)學分支。隨機現(xiàn)象是相對于決定性現(xiàn)象而言的,在一定條件下必然發(fā)生某一結(jié)果的現(xiàn)象稱為決定性現(xiàn)象。例如在標準大氣壓,純水加熱到100℃時水必然會沸騰等。隨機現(xiàn)象則是指在基本條件不變的

    2024年02月13日
    瀏覽(24)
  • 《SPSS統(tǒng)計學基礎(chǔ)與實證研究應(yīng)用精解》視頻講解:SPSS依托統(tǒng)計學處理數(shù)據(jù)的應(yīng)用場景

    《SPSS統(tǒng)計學基礎(chǔ)與實證研究應(yīng)用精解》視頻講解:SPSS依托統(tǒng)計學處理數(shù)據(jù)的應(yīng)用場景

    《SPSS統(tǒng)計學基礎(chǔ)與實證研究應(yīng)用精解》1.4 視頻講解 視頻為 《SPSS統(tǒng)計學基礎(chǔ)與實證研究應(yīng)用精解》張?zhí)?楊維忠著 清華大學出版社 一書的隨書贈送視頻講解1.4節(jié)內(nèi)容 。本書已正式出版上市,當當、京東、淘寶等平臺熱銷中,搜索書名即可。本書旨在手把手教會使用SPSS撰寫實

    2024年01月23日
    瀏覽(21)
  • 【應(yīng)用統(tǒng)計學】方差分析

    【應(yīng)用統(tǒng)計學】方差分析

    【例7-1】 三臺設(shè)備平均灌裝時間分別是15.82秒、16.67秒和14.97秒。試用樣本數(shù)據(jù)檢驗這3臺機器灌裝過程的時間是否存在顯著不同,以便對設(shè)備的購買做出決策。( α=0.05 ) ?如果檢驗結(jié)果 接受原假設(shè) ,則樣本數(shù)據(jù)表明三臺設(shè)備的平均灌裝時間沒有顯著差異,選擇任何一家提供商

    2023年04月16日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包