国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學習】S2 數(shù)學基礎 P6 概率論

這篇具有很好參考價值的文章主要介紹了【深度學習】S2 數(shù)學基礎 P6 概率論。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

基本概率論

機器學習本質(zhì)上,就是做出預測。而概率論提供了一種量化和表達不確定性水平的方法,可以幫助我們量化對某個結果的確定性程度。

在一個簡單的圖像分類任務中;

  • 如果我們非常確定圖像中的對象是一只貓,那么我們可以說標簽為 “貓” 的概率是 1,即 P ( y = “貓” ) = 1 P(y =“貓”) = 1 P(y=)=1;
  • 如果我們無法區(qū)分圖像是貓還是狗,那么我們可以說兩者出現(xiàn)的概率相等,即 P ( y = “貓” ) = P ( y = “狗” ) = 0.5 P(y =“貓”) = P(y =“狗”) = 0.5 P(y=)=P(y=)=0.5;
  • 如果我們對圖像是否為貓不太確定,我們可以將概率設置在一個介于 0.5 和 1 之間的值,表示我們對其為貓的確定性程度不是完全的,但比完全不確定要高。

這種概率的量化和比較使得我們可以更加客觀和量化地評估和處理不確定性。

概率論公理

概率論名詞:

  • 樣本空間:所有可能結果的集合;
  • 事件:給定樣本空間的一個子集;
  • 概率:將集合映射到真實值的函數(shù),反映了事件發(fā)生的可能性;

概率論公理:

  • 對于任意事件,其概率從不會是負數(shù);
  • 整個樣本空間的概率為 1;
  • 對于互斥事件(A、B、C互斥),有 P ( A ∪ B ∪ C ) = P ( A ) + P ( B ) + P ( C ) P(A∪B∪C)=P(A) + P(B) + P(C) P(ABC)=P(A)+P(B)+P(C)

隨機變量

隨機變量是將樣本空間中的每個結果映射到一個實數(shù)集上的函數(shù);

e . g . e.g. e.g. 以擲一個六面的骰子為例,其樣本空間 S S S 包含所有可能的結果,即 S = { 1 , 2 , 3 , 4 , 5 , 6 } S = \{1, 2, 3, 4, 5, 6\} S={1,2,3,4,5,6}。我們定義一個隨機變量 X X X,它將每個結果映射到一個實數(shù)。這里假設我們設定 X = x 2 + 1 X = x^2+1 X=x2+1,其中 x x x 為骰子的結果。

那么我們可以計算出每個結果對應的 X X X 值:

  • x = 1 x=1 x=1 時, X = x 2 + 1 = 2 X = x^2+1=2 X=x2+1=2
  • x = 2 x=2 x=2 時, X = x 2 + 1 = 5 X = x^2+1=5 X=x2+1=5;
  • x = 3 x=3 x=3 時, X = x 2 + 1 = 10 X = x^2+1=10 X=x2+1=10;
  • x = 4 x=4 x=4 時, X = x 2 + 1 = 17 X = x^2+1=17 X=x2+1=17;
  • x = 5 x=5 x=5 時, X = x 2 + 1 = 26 X = x^2+1=26 X=x2+1=26
  • x = 6 x=6 x=6 時, X = x 2 + 1 = 37 X = x^2+1=37 X=x2+1=37

因此,離散隨機變量 X X X 的可能取值為 {2, 5, 10, 17, 26, 37};在公平骰子的情況下,每個結果出現(xiàn)的概率是相等的,出現(xiàn)的概率都為 1 6 \frac 1 6 61?。


多個隨機變量

聯(lián)合概率

聯(lián)合概率 P ( A = a , B = b ) P(A=a, B=b) P(A=a,B=b) 描述的是事件 A A A 發(fā)生且事件 B B B 也發(fā)生的概率。具體來說,它表示在所有可能的情況中,事件 A A A 結果為 a a a 且事件 B B B 結果為 b b b 的這種情況出現(xiàn)的概率是多少。

隱含在這個概念中的概率定律是,事件 A A A 和事件 B B B 同時發(fā)生的概率不會超過事件 A A A 或者事件 B B B 單獨發(fā)生的概率。即 P ( A = a , B = b ) ≤ P ( A = a ) P(A=a, B=b) ≤ P(A=a) P(A=a,B=b)P(A=a)。

條件概率

而聯(lián)合概率不等式的變形:
0 ≤ P ( A = a , B = b ) P ( A = a ) ≤ 1 0 ≤ \frac {P(A=a, B=b)} {P(A=a)} ≤ 1 0P(A=a)P(A=a,B=b)?1

這個比率稱為條件概率,并用 P ( B = b ∣ A = a ) P(B=b|A=a) P(B=bA=a) 來表示。他是 B = b B=b B=b 的概率,前提是 A = a A=a A=a 已發(fā)生。

完整公式為: P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A)=\frac {P(AB)} {P(A)} P(BA)=P(A)P(AB)?

貝葉斯定理

根據(jù)條件概率的定義,我們可以得出統(tǒng)計學最有用的方程之一:Bayes 貝葉斯定理。
P ( A ∣ B ) = P ( B ∣ A ) ? P ( A ) P ( B ) P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} P(AB)=P(B)P(BA)?P(A)?

貝葉斯定理的直觀含義是,當我們觀察到事件 B B B 發(fā)生時,事件 A A A 發(fā)生的概率會根據(jù)事件 B B B 發(fā)生的概率和對事件 A A A B B B 相關性的了解而改變。貝葉斯定理是一種強大的工具,可以幫助我們在有新的證據(jù)出現(xiàn)時更新我們對某個假設的信念。

求和法則

根據(jù)求和法則, P ( B ) = ∑ A P ( A , B ) P(B)=\sum_{A}P(A,B) P(B)=A?P(A,B)

B B B 的概率相當于計算 A A A 的所有可能選擇,并將所有選擇聯(lián)合概率聚合在一起。

獨立性

如果兩個隨機變量 A A A B B B 是獨立的,意味著事件 A A A 的發(fā)生跟事件 B B B 的發(fā)生無關。根據(jù)貝葉斯定理,馬上就能得到 P ( A ∣ B ) = P ( A ) P(A|B)=P(A) P(AB)=P(A);

獨立性的一個常見例子是拋硬幣。拋擲一枚公平的硬幣,事件 A A A 是出現(xiàn)正面,事件 B B B 是出現(xiàn)反面。因為硬幣的每一面出現(xiàn)都是相互獨立的,所以事件 A A A 發(fā)生不影響事件 B B B 發(fā)生的概率,反之亦然。因此,事件 A 和事件 B 是獨立的。

獨立性在統(tǒng)計學和概率論中非常有用,它簡化了我們對事件之間關系的理解。如果我們知道兩個事件是獨立的,那么我們就可以將它們的概率分開來考慮,而不需要考慮它們之間的任何關系。


期望與方差

期望描述了一個隨機變量在多次重復實驗中平均可能取得的值。
E x ? P [ f ( x ) ] = ∑ x f ( x ) P ( x ) E_{x~P}[f(x)]=\sum _x f(x)P(x) Ex?P?[f(x)]=x?f(x)P(x)

方差衡量的是隨機變量分布中采樣不同的 x x x 值時,函數(shù)值偏離該函數(shù)的期望的程度。
V a r [ f ( x ) ] = E [ ( f ( x ) ? E [ f ( x ) ] ) 2 ] Var[f(x)]=E[(f(x)-E[f(x)])^2] Var[f(x)]=E[(f(x)?E[f(x)])2]


小結

  • 我們可以從概率分布中采樣;
  • 我們可以使用聯(lián)合分布、條件分布、Bayes 定理、邊緣化和獨立性假設等來分析多個隨機變量;
  • 期望和方差為概率分布的關鍵特征的概括提供了實用的度量形式。

以上
本節(jié)概率論內(nèi)容全部為理論知識。實踐部分將在后續(xù)博文中逐步展現(xiàn)。

2024.2.15文章來源地址http://www.zghlxwxcb.cn/news/detail-829088.html

到了這里,關于【深度學習】S2 數(shù)學基礎 P6 概率論的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 深度學習-必備的數(shù)學知識-概率論2

    概率論 在上一篇文章中,我?guī)Т蠹页趼缘牧私饬烁怕收撌鞘裁?。這篇文章中我將為大家講解概率論中的隨機變量和概率分布。 隨機變量 在概率論中,隨機變量(random variable)是一個可以隨機地取不同值的變量。一個隨機變量是對可能的狀態(tài)的描述,它的取值范圍是事件的所

    2024年02月03日
    瀏覽(24)
  • 【機器學習/深度學習】數(shù)學基礎——矩陣求導

    【機器學習/深度學習】數(shù)學基礎——矩陣求導

    A矩陣對B矩陣求導,實質(zhì)是矩陣A中的每個元素對矩陣B中的每個元素進行求導。 廣義上,矩陣可以認為是一個單獨的標量(矩陣中只有一個元素)、一個向量(m 1矩陣或者1 n矩陣)。那么矩陣對矩陣求導實際上可以分為以下幾種: 標量對向量求導 向量對標量求導 向量對向量

    2024年02月04日
    瀏覽(19)
  • 強化學習的數(shù)學基礎:從動態(tài)規(guī)劃到深度學習

    強化學習(Reinforcement Learning, RL)是一種人工智能技術,它旨在讓智能體(agent)在環(huán)境(environment)中學習如何做出最佳決策,以最大化累積獎勵(cumulative reward)。強化學習的核心思想是通過在環(huán)境中與智能體與環(huán)境的交互來學習,而不是通過傳統(tǒng)的監(jiān)督學習(supervised le

    2024年02月01日
    瀏覽(32)
  • 深度學習的數(shù)學基礎:從線性代數(shù)到隨機過程

    深度學習是人工智能領域的一個重要分支,它主要通過模擬人類大腦中的神經(jīng)網(wǎng)絡來進行數(shù)據(jù)處理和學習。深度學習的核心技術是神經(jīng)網(wǎng)絡,神經(jīng)網(wǎng)絡由多個節(jié)點組成,這些節(jié)點之間有權重和偏置的連接。通過對這些節(jié)點進行訓練,我們可以使神經(jīng)網(wǎng)絡具有學習和推理的能力

    2024年03月18日
    瀏覽(23)
  • 【知識存儲】用于深度學習研究的 ☆ 概率論和數(shù)理統(tǒng)計☆ 基礎理論知識,用時查閱,靈活運用,很基礎很重要

    隨機事件和概率 1.事件的關系與運算 (1) 子事件: A ? B A subset B A ? B ,若 A A A 發(fā)生,則 B B B 發(fā)生。 (2) 相等事件: A = B A = B A = B ,即 A ? B A subset B A ? B ,且 B ? A B subset A B ? A 。 (3) 和事件: A ? B Abigcup B A ? B (或 A + B A + B A + B ), A A A 與 B B B 中至少有一個發(fā)生

    2024年02月16日
    瀏覽(17)
  • 【人工智能的數(shù)學基礎】深度學習中的不確定性(Uncertainty)

    使用貝葉斯深度學習建模深度學習中的不確定性. paper:What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? 現(xiàn)有的深度學習方法大多只能給出特定的預測結果,而不能給出結果的不確定性程度。 深度學習中輸出結果的不確定性主要有兩種: 偶然不確定性 是由數(shù)據(jù)中的

    2024年02月07日
    瀏覽(33)
  • 【人工智能的數(shù)學基礎】積分概率度量(Integral Probability Metric)

    Integral Probability Metric. 積分概率度量( integral probability metrics, IPM )用于衡量兩個概率分布

    2024年02月07日
    瀏覽(29)
  • 人工智能數(shù)學基礎--概率與統(tǒng)計13:連續(xù)隨機變量的標準正態(tài)分布

    人工智能數(shù)學基礎--概率與統(tǒng)計13:連續(xù)隨機變量的標準正態(tài)分布

    一、引言 在《人工智能數(shù)學基礎–概率與統(tǒng)計12:連續(xù)隨機變量的概率密度函數(shù)以及正態(tài)分布》介紹了連續(xù)隨機變量概率分布及概率密度函數(shù)的概念,并介紹了連續(xù)隨機變量一個重要的概率密度函數(shù):正態(tài)分布的概率密度函數(shù)的定義以及推導、使用場景,本文將介紹連續(xù)隨機

    2023年04月25日
    瀏覽(24)
  • 概率論與深度學習:從簡單到復雜

    深度學習是一種人工智能技術,它旨在讓計算機模仿人類的智能。概率論是數(shù)學的一個分支,它用于描述不確定性和隨機性。深度學習和概率論之間的關系非常緊密,因為深度學習模型需要處理大量的隨機數(shù)據(jù),并且需要使用概率論來描述和優(yōu)化這些模型。 在這篇文章中,我

    2024年04月24日
    瀏覽(69)
  • 概率論與機器學習:從樸素貝葉斯到深度學習

    概率論和機器學習是計算機科學和人工智能領域的基本概念。概率論是用于描述不確定性和隨機性的數(shù)學框架,而機器學習則是利用數(shù)據(jù)來訓練計算機程序以進行自動化決策的方法。這兩個領域密切相連,因為機器學習算法通常需要使用概率論來描述和處理數(shù)據(jù)的不確定性。

    2024年02月01日
    瀏覽(51)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包