国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)-必備的數(shù)學(xué)知識-概率論3

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)-必備的數(shù)學(xué)知識-概率論3。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

深度學(xué)習(xí)

必備的數(shù)學(xué)知識

概率論

我們將接著上一篇文章繼續(xù)講解。

條件概率

大家還記得上一篇文章的提到的聯(lián)合概率分布嗎?定義在一組變量的聯(lián)合概率分布的子集上的概率分布被稱為邊緣概率分布(marginal probability distribution)。
對于離散型隨機(jī)變量x和y,如果我們有 P ( x , y ) P(x,y) P(x,y),則可以根據(jù)以下求和法則(sum rule)來計(jì)算 P ( x ) P(x) P(x)
? x ∈ x , P ( x = x ) = ∑ y P ( x = x , y = y ) \forall x \in x,P(x=x)=\sum_{y}P(x=x,y=y) ?xx,P(x=x)=y?P(x=x,y=y)
例如,假設(shè)我們有兩個離散隨機(jī)變量 x x x y y y,它們的可能值分別為 x = 1 , 2 x = {1, 2} x=1,2 y = a , b y = {a, b} y=a,b。假設(shè)我們知道以下聯(lián)合概率:

  • P ( x = 1 , y = a ) = 0.1 P(x=1, y=a) = 0.1 P(x=1,y=a)=0.1

  • P ( x = 1 , y = b ) = 0.2 P(x=1, y=b) = 0.2 P(x=1,y=b)=0.2

  • P ( x = 2 , y = a ) = 0.3 P(x=2, y=a) = 0.3 P(x=2,y=a)=0.3

  • P ( x = 2 , y = b ) = 0.4 P(x=2, y=b) = 0.4 P(x=2,y=b)=0.4
    那么我們可以通過對所有可能的 y y y值求和來計(jì)算 x x x取特定值的概率:

  • P ( x = 1 ) = P ( x = 1 , y = a ) + P ( x = 1 , y = b ) = 0.1 + 0.2 = 0.3 P(x=1) = P(x=1, y=a) + P(x=1, y=b) = 0.1 + 0.2 = 0.3 P(x=1)=P(x=1,y=a)+P(x=1,y=b)=0.1+0.2=0.3

  • P ( x = 2 ) = P ( x = 2 , y = a ) + P ( x = 2 , y = b ) = 0.3 + 0.4 = 0.7 P(x=2) = P(x=2, y=a) + P(x=2, y=b) = 0.3 + 0.4 = 0.7 P(x=2)=P(x=2,y=a)+P(x=2,y=b)=0.3+0.4=0.7

這就是如何使用這個公式來計(jì)算概率的一個例子。
對于連續(xù)性隨機(jī)變量,通過對聯(lián)合概率求積分來計(jì)算 P ( x ) P(x) P(x)
P ( x ) = ∫ P ( x , y ) d y P(x)=\int P(x,y)dy P(x)=P(x,y)dy

條件概率

條件概率指的是某件事在給定的其他事件發(fā)生時(shí)出現(xiàn)的概率。我們將當(dāng)x=x時(shí),y=y發(fā)生的概率記作 P ( y = y ∣ x = x ) P(y=y|x=x) P(y=yx=x)。條件概率可以通過以下公式計(jì)算
P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)} P(y=yx=x)=P(x=x)P(y=y,x=x)?
需要注意的是,條件概率只有在 P ( x = x ) > 0 P(x=x)>0 P(x=x)>0時(shí)才有定義,也就是說,我們不能計(jì)算在某個肯定不會發(fā)生的事件的條件下另一事件發(fā)生的概率

注意條件概率說的不是某件事發(fā)生后會發(fā)生什么。假定一個人拿著車鑰匙出門,那么他開車的概率很高,但是讓一個人拿車鑰匙他的出行方式不會改變。

條件概率的鏈?zhǔn)椒▌t

概率的鏈?zhǔn)椒▌t(chain rule)(也稱為乘法法則)是一種用于計(jì)算多個隨機(jī)變量的聯(lián)合概率的方法。對于兩個隨機(jī)變量 x x x y y y,鏈?zhǔn)椒▌t可以寫作:

P ( x = x , y = y ) = P ( x = x ) ? P ( y = y ∣ x = x ) P(x=x, y=y) = P(x=x) \cdot P(y=y|x=x) P(x=x,y=y)=P(x=x)?P(y=yx=x)

這個公式表示 x = x x=x x=x y = y y=y y=y同時(shí)發(fā)生的概率等于 x = x x=x x=x發(fā)生的概率乘以在 x = x x=x x=x的條件下 y = y y=y y=y發(fā)生的概率。

相信大家已經(jīng)看出來了,這是從關(guān)系概率的公式推導(dǎo)而來的。
P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) P ( x = x ) ? P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) ? P ( x = x ) P ( y = y , x = x ) = P ( x = x ) ? P ( y = y ∣ x = x ) P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)}\\ P(x=x) \cdot P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)} \cdot P(x=x)\\ P(y=y,x=x)= P(x=x) \cdot P(y=y|x=x) P(y=yx=x)=P(x=x)P(y=y,x=x)?P(x=x)?P(y=yx=x)=P(x=x)P(y=y,x=x)??P(x=x)P(y=y,x=x)=P(x=x)?P(y=yx=x)

鏈?zhǔn)椒▌t可以擴(kuò)展到更多的隨機(jī)變量
P ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) = P ( x 1 ) ∏ i n P ( x ( i ) ∣ x 1 , . . . , x ( i ? 1 ) ) P(x^{(1)},x^{(2)},...,x^{(n)})=P(x^{1})\prod^{n}_{i}P(x^{(i)}|x^{1},...,x^{(i-1)}) P(x(1),x(2),...,x(n))=P(x1)in?P(x(i)x1,...,x(i?1))

獨(dú)立性和條件獨(dú)立性

我們稱兩個隨機(jī)變量相互獨(dú)立的(independent),這意味著它的聯(lián)合概率分布等于它們各自的概率分布的乘積,知道 x x x的值并不會改變 y y y的概率分布,反之亦然。
? x ∈ x , y ∈ y P ( x = x , y = y ) = P ( x = x ) ? P ( y = y ) \forall x \in x,y \in y P(x=x,y=y)=P(x=x) \cdot P(y=y) ?xx,yyP(x=x,y=y)=P(x=x)?P(y=y)

如果在給定隨機(jī)變量z=z的條件下,隨機(jī)變量x和y是獨(dú)立的,我們就說x和y在z=z的條件下是條件獨(dú)立的conditionally independent)。換句話說,對于x和y的條件概率分布對于z的每一個值都可以寫成乘積的形式。用公式表示為:
? x ∈ X , y ∈ Y , z ∈ Z , P ( X = x , Y = y ∣ Z = z ) = P ( X = x ∣ Z = z ) ? P ( Y = y ∣ Z = z ) \forall x \in X, y \in Y, z \in Z, P(X=x, Y=y|Z=z) = P(X=x|Z=z) \cdot P(Y=y|Z=z) ?xX,yY,zZ,P(X=x,Y=yZ=z)=P(X=xZ=z)?P(Y=yZ=z)文章來源地址http://www.zghlxwxcb.cn/news/detail-773354.html

到了這里,關(guān)于深度學(xué)習(xí)-必備的數(shù)學(xué)知識-概率論3的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 數(shù)學(xué)模型在人工智能中的使用:統(tǒng)計(jì)學(xué)和概率論

    數(shù)學(xué)模型在人工智能中的使用:統(tǒng)計(jì)學(xué)和概率論 隨著人工智能技術(shù)的發(fā)展,數(shù)學(xué)模型的重要性越來越突出。數(shù)學(xué)模型可以幫助人工智能

    2024年02月16日
    瀏覽(26)
  • 【知識存儲】用于深度學(xué)習(xí)研究的 ☆ 概率論和數(shù)理統(tǒng)計(jì)☆ 基礎(chǔ)理論知識,用時(shí)查閱,靈活運(yùn)用,很基礎(chǔ)很重要

    隨機(jī)事件和概率 1.事件的關(guān)系與運(yùn)算 (1) 子事件: A ? B A subset B A ? B ,若 A A A 發(fā)生,則 B B B 發(fā)生。 (2) 相等事件: A = B A = B A = B ,即 A ? B A subset B A ? B ,且 B ? A B subset A B ? A 。 (3) 和事件: A ? B Abigcup B A ? B (或 A + B A + B A + B ), A A A 與 B B B 中至少有一個發(fā)生

    2024年02月16日
    瀏覽(17)
  • <6>【深度學(xué)習(xí) × PyTorch】概率論知識大匯總 | 實(shí)現(xiàn)模擬骰子的概率圖像 | 互斥事件、隨機(jī)變量 | 聯(lián)合概率、條件概率、貝葉斯定理 | 附:Markdown 不等于符號、無窮符號

    ? 人的一生中會有很多理想。短的叫念頭,長的叫志向,壞的叫野心,好的叫愿望。理想就是希望,希望是生命的原動力! ? ??作者主頁: 追光者♂?? ???????? ??個人簡介: ? ??[1] 計(jì)算機(jī)專業(yè)碩士研究生?? ? ??[2] 2022年度博客之星人工智能領(lǐng)域TOP4?? ? ??[3] 阿里

    2024年02月10日
    瀏覽(26)
  • 概率論與深度學(xué)習(xí):從簡單到復(fù)雜

    深度學(xué)習(xí)是一種人工智能技術(shù),它旨在讓計(jì)算機(jī)模仿人類的智能。概率論是數(shù)學(xué)的一個分支,它用于描述不確定性和隨機(jī)性。深度學(xué)習(xí)和概率論之間的關(guān)系非常緊密,因?yàn)樯疃葘W(xué)習(xí)模型需要處理大量的隨機(jī)數(shù)據(jù),并且需要使用概率論來描述和優(yōu)化這些模型。 在這篇文章中,我

    2024年04月24日
    瀏覽(69)
  • 概率論與機(jī)器學(xué)習(xí):從樸素貝葉斯到深度學(xué)習(xí)

    概率論和機(jī)器學(xué)習(xí)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的基本概念。概率論是用于描述不確定性和隨機(jī)性的數(shù)學(xué)框架,而機(jī)器學(xué)習(xí)則是利用數(shù)據(jù)來訓(xùn)練計(jì)算機(jī)程序以進(jìn)行自動化決策的方法。這兩個領(lǐng)域密切相連,因?yàn)闄C(jī)器學(xué)習(xí)算法通常需要使用概率論來描述和處理數(shù)據(jù)的不確定性。

    2024年02月01日
    瀏覽(51)
  • AI人工智能中的概率論與統(tǒng)計(jì)學(xué)原理與Python實(shí)戰(zhàn):35. Python實(shí)現(xiàn)量子計(jì)算與量子機(jī)器學(xué)習(xí)...

    量子計(jì)算和量子機(jī)器學(xué)習(xí)是人工智能領(lǐng)域的一個重要分支,它們利用量子物理現(xiàn)象來解決一些傳統(tǒng)計(jì)算方法無法解決的問題。量子計(jì)算的核心是量子比特(qubit),它可以存儲多種信息,而不是傳統(tǒng)的二進(jìn)制比特(bit)。量子機(jī)器學(xué)習(xí)則利用量子計(jì)算的優(yōu)勢,為機(jī)器學(xué)習(xí)問題提供更

    2024年04月14日
    瀏覽(23)
  • 高等數(shù)學(xué):概率論(二)

    設(shè)隨機(jī)實(shí)驗(yàn)E的樣本空間為 Ω Omega Ω ,X為定義于樣本空間 Ω Omega Ω 上的函數(shù),對任意的 w ∈ Ω win Omega w ∈ Ω ,總存在唯一確定的的 X ( w ) X(w) X ( w ) 與之對應(yīng),稱 X ( w ) X(w) X ( w ) 為隨機(jī)變量。 隨機(jī)變量的分布函數(shù) 設(shè) X 為隨機(jī)變量, 對任意的實(shí)數(shù) x, 稱函數(shù) F ( x ) = P { X ?

    2024年02月09日
    瀏覽(36)
  • 人工智能教程(四):概率論入門

    人工智能教程(四):概率論入門

    目錄 前言 TensorFlow 入門 SymPy 入門 概率論入門 前言 前些天發(fā)現(xiàn)了一個巨牛的人工智能學(xué)習(xí)網(wǎng)站,通俗易懂,風(fēng)趣幽默,忍不住分享一下給大家。?點(diǎn)擊跳轉(zhuǎn)到網(wǎng)站 在本系列的?上一篇文章?中,我們進(jìn)一步討論了矩陣和線性代數(shù),并學(xué)習(xí)了用 JupyterLab 來運(yùn)行 Python 代碼。在本

    2024年02月03日
    瀏覽(24)
  • AI 人工智能之概率論基礎(chǔ)(2)

    AI 人工智能之概率論基礎(chǔ)(2)

    設(shè)試驗(yàn)?E?的樣本空間為?S={e}?,而?X=X(e)?,?Y=Y(e)?是定義在?S={e}?上的兩個隨機(jī)變量成為由這兩個隨機(jī)變量組成的向量?(X(e),Y(e))?為二維隨機(jī)變量或者二維隨機(jī)向量。 設(shè)?(X,Y)?為二維隨機(jī)變量,對任意實(shí)數(shù)?x,y?,二元函數(shù): ?稱為二維隨機(jī)變量?(X,Y)?的分布函數(shù),或者稱為

    2024年02月05日
    瀏覽(35)
  • 概率論-條件數(shù)學(xué)期望(復(fù)習(xí)筆記自用)

    概率論-條件數(shù)學(xué)期望(復(fù)習(xí)筆記自用)

    實(shí)際上,求條件期望就是在新的概率空間上進(jìn)行計(jì)算,即 ,因此也繼承了期望的所有性質(zhì) 如果 ,則E(X)=Eg(Y) 使用全概率公式,可以容易得到證明 理解,找到共性 正態(tài)分布的優(yōu)良性質(zhì):正態(tài)分布的條件分布仍為正態(tài)分布 公式的證明充分體現(xiàn)出微分法的優(yōu)勢 理解:對于固定的

    2024年02月08日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包