国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學習-必備的數(shù)學知識-概率論2

這篇具有很好參考價值的文章主要介紹了深度學習-必備的數(shù)學知識-概率論2。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

深度學習

必備的數(shù)學知識

概率論

在上一篇文章中,我?guī)Т蠹页趼缘牧私饬烁怕收撌鞘裁础_@篇文章中我將為大家講解概率論中的隨機變量和概率分布。

隨機變量

在概率論中,隨機變量(random variable)是一個可以隨機地取不同值的變量。一個隨機變量是對可能的狀態(tài)的描述,它的取值范圍是事件的所有可能的狀態(tài)。它必須伴隨著概率分布來指定每個狀態(tài)的可能性。隨機變量可以是離散的,也可以是連續(xù)的,取決于它的值是否可以在一個連續(xù)的范圍內變化。

離散型隨機變量的例子有:擲骰子的結果,1到6的整數(shù)

連續(xù)型隨機變量的例子有:一個人的體重,一個人的體重可以在一個連續(xù)的范圍內取任何值。

概率分布

概率分布(probability distribution)用來描述隨機變量在每一個可能取到的狀態(tài)的可能性。換句話說,概率分布是描述隨機變量可能的取值及其對應概率的函數(shù)。
對于離散型隨機變量和連續(xù)型隨機變量使用不同的方式描述。

概率質量函數(shù)

對于離散型隨機變量的概率分布可以用概率質量函數(shù)描述(probability mass function,PMF)。我們通常使用大寫字母P來描述概率質量函數(shù)。通常每一個隨機變量都有著不同的概率密度函數(shù),也就是說概率密度函數(shù)是不通用的。我們不通過函數(shù)名來推斷所使用的概率密度函數(shù),而是通過隨機變量來推斷。如 P ( x ) P(x) P(x) P ( y ) P(y) P(y)是不一樣的。

x = x x=x x=x(前一個x是隨機變量本身,后一個是隨機變量的取值)的概率密度函數(shù)記作 P ( x ) P(x) P(x),通常我們明確寫出隨機變量的名稱來避免混淆,如: P ( x = x ) P(x=x) P(x=x)。使用~符號表示隨機變量遵循的概率密度函數(shù),如:$x $ ~ P ( x ) P(x) P(x)

概率密度函數(shù)是將隨機變量能取到的每個狀態(tài)映射到隨機變量取得該狀態(tài)的概率,概率為1表示x=x是必然發(fā)生的,概率為0表示x=x是不可能發(fā)生。

如果一個函數(shù)P是隨機變量的概率密度函數(shù),則必須滿足以下三個條件

  • 函數(shù)的定義域是隨機變量所有可能的狀態(tài)的集合
  • ? x ∈ x \forall x \in x ?xx, 0 ≤ P ( x ) ≤ 1 0\leq P(x) \leq 1 0P(x)1,必然發(fā)生的事概率為1,不存在比這概率還大的;必然不可能發(fā)生的事件的概率是0,不存在比這概率還小的。
  • ∑ x ∈ x P ( x ) = 1 \sum_{x \in x} P(x)=1 xx?P(x)=1,隨機變量的能取到的所有可能的狀態(tài)的概率加起來等于1。這稱為歸一化(normalized)。

我們再拿出擲骰子這個例子。我們用隨機變量x表示擲骰子的結果,它一共有6個不同的狀態(tài)( x 1 , x 2 , . . , x 6 x_1,x_2,..,x_6 x1?,x2?,..,x6?)。在理想情況下,x是均勻分布的,也就是它的每一個狀態(tài)是等可能的。此時我們可以將x的PMF設為
P ( x = x i ) = 1 6 P(\texttt{x}=x_i)=\frac{1}{6} P(x=xi?)=61?
這個函數(shù)滿足上述的條件,這很容易就可以看出來。

概率質量函數(shù)可以用于多個隨機變量,如 P ( x = x , y = y ) P(x=x,y=y) P(x=x,y=y),它表示的是當x=x,y=y同時發(fā)生的概率,我們也可以簡寫為P(x,y)。這稱為聯(lián)合概率分布

概率密度函數(shù)

對于連續(xù)性隨機變量的概率分布我們使用概率密度函數(shù)(probability density function,PDF)。概率密度函數(shù) P ( x ) P(x) P(x)并沒有直接給出特定狀態(tài)的概率。這是因為連續(xù)性隨機變量,它的可能的狀態(tài)是無限多的,以至于取到某一個特定的狀態(tài)的概率為0。概率密度函數(shù) P ( x ) P(x) P(x)給出的是隨機變量落在x附近無窮小的區(qū)間的概率。具體來說,如果Δx是一個很小的正數(shù),那么X落在[x, x+Δx]內的概率近似等于p(x)Δx。

我們可以通過 P ( x ) P(x) P(x)對某個區(qū)間區(qū)間[a,b]求積分來獲得x落在區(qū)間中的概率,
∫ a b P ( x ) d x \int_{a}^P(x)dx ab?P(x)dx

概率密度函數(shù)需要滿足以下條件:文章來源地址http://www.zghlxwxcb.cn/news/detail-771608.html

  • 函數(shù)的定義域是隨機變量所有可能的狀態(tài)的集合
  • ? x ∈ x \forall x \in x ?xx, P ( x ) ≥ 0 P(x) \geq 0 P(x)0,PDF表示的是隨機變量在某個特定值附近的概率密度,所有PDF值可以大于1/
  • ∫ P ( x ) d x = 1 \int P(x)dx=1 P(x)dx=1,隨機變量x的任意可能的狀態(tài)它必然會落到定義域中。這反映了所有可能事件的概率之和為1的事實。
    聯(lián)合概率分布對于概率密度函數(shù)同樣成立。對于多個隨機變量,我們可以定義聯(lián)合概率密度函數(shù),它描述了這些隨機變量同時取特定值的概率密度。

到了這里,關于深度學習-必備的數(shù)學知識-概率論2的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 數(shù)學模型在人工智能中的使用:統(tǒng)計學和概率論

    數(shù)學模型在人工智能中的使用:統(tǒng)計學和概率論 隨著人工智能技術的發(fā)展,數(shù)學模型的重要性越來越突出。數(shù)學模型可以幫助人工智能

    2024年02月16日
    瀏覽(26)
  • 【知識存儲】用于深度學習研究的 ☆ 概率論和數(shù)理統(tǒng)計☆ 基礎理論知識,用時查閱,靈活運用,很基礎很重要

    隨機事件和概率 1.事件的關系與運算 (1) 子事件: A ? B A subset B A ? B ,若 A A A 發(fā)生,則 B B B 發(fā)生。 (2) 相等事件: A = B A = B A = B ,即 A ? B A subset B A ? B ,且 B ? A B subset A B ? A 。 (3) 和事件: A ? B Abigcup B A ? B (或 A + B A + B A + B ), A A A 與 B B B 中至少有一個發(fā)生

    2024年02月16日
    瀏覽(17)
  • <6>【深度學習 × PyTorch】概率論知識大匯總 | 實現(xiàn)模擬骰子的概率圖像 | 互斥事件、隨機變量 | 聯(lián)合概率、條件概率、貝葉斯定理 | 附:Markdown 不等于符號、無窮符號

    ? 人的一生中會有很多理想。短的叫念頭,長的叫志向,壞的叫野心,好的叫愿望。理想就是希望,希望是生命的原動力! ? ??作者主頁: 追光者♂?? ???????? ??個人簡介: ? ??[1] 計算機專業(yè)碩士研究生?? ? ??[2] 2022年度博客之星人工智能領域TOP4?? ? ??[3] 阿里

    2024年02月10日
    瀏覽(26)
  • 概率論與深度學習:從簡單到復雜

    深度學習是一種人工智能技術,它旨在讓計算機模仿人類的智能。概率論是數(shù)學的一個分支,它用于描述不確定性和隨機性。深度學習和概率論之間的關系非常緊密,因為深度學習模型需要處理大量的隨機數(shù)據(jù),并且需要使用概率論來描述和優(yōu)化這些模型。 在這篇文章中,我

    2024年04月24日
    瀏覽(69)
  • 概率論與機器學習:從樸素貝葉斯到深度學習

    概率論和機器學習是計算機科學和人工智能領域的基本概念。概率論是用于描述不確定性和隨機性的數(shù)學框架,而機器學習則是利用數(shù)據(jù)來訓練計算機程序以進行自動化決策的方法。這兩個領域密切相連,因為機器學習算法通常需要使用概率論來描述和處理數(shù)據(jù)的不確定性。

    2024年02月01日
    瀏覽(51)
  • AI人工智能中的概率論與統(tǒng)計學原理與Python實戰(zhàn):35. Python實現(xiàn)量子計算與量子機器學習...

    量子計算和量子機器學習是人工智能領域的一個重要分支,它們利用量子物理現(xiàn)象來解決一些傳統(tǒng)計算方法無法解決的問題。量子計算的核心是量子比特(qubit),它可以存儲多種信息,而不是傳統(tǒng)的二進制比特(bit)。量子機器學習則利用量子計算的優(yōu)勢,為機器學習問題提供更

    2024年04月14日
    瀏覽(23)
  • 高等數(shù)學:概率論(二)

    設隨機實驗E的樣本空間為 Ω Omega Ω ,X為定義于樣本空間 Ω Omega Ω 上的函數(shù),對任意的 w ∈ Ω win Omega w ∈ Ω ,總存在唯一確定的的 X ( w ) X(w) X ( w ) 與之對應,稱 X ( w ) X(w) X ( w ) 為隨機變量。 隨機變量的分布函數(shù) 設 X 為隨機變量, 對任意的實數(shù) x, 稱函數(shù) F ( x ) = P { X ?

    2024年02月09日
    瀏覽(36)
  • 人工智能教程(四):概率論入門

    人工智能教程(四):概率論入門

    目錄 前言 TensorFlow 入門 SymPy 入門 概率論入門 前言 前些天發(fā)現(xiàn)了一個巨牛的人工智能學習網(wǎng)站,通俗易懂,風趣幽默,忍不住分享一下給大家。?點擊跳轉到網(wǎng)站 在本系列的?上一篇文章?中,我們進一步討論了矩陣和線性代數(shù),并學習了用 JupyterLab 來運行 Python 代碼。在本

    2024年02月03日
    瀏覽(24)
  • AI 人工智能之概率論基礎(2)

    AI 人工智能之概率論基礎(2)

    設試驗?E?的樣本空間為?S={e}?,而?X=X(e)?,?Y=Y(e)?是定義在?S={e}?上的兩個隨機變量成為由這兩個隨機變量組成的向量?(X(e),Y(e))?為二維隨機變量或者二維隨機向量。 設?(X,Y)?為二維隨機變量,對任意實數(shù)?x,y?,二元函數(shù): ?稱為二維隨機變量?(X,Y)?的分布函數(shù),或者稱為

    2024年02月05日
    瀏覽(34)
  • 概率論-條件數(shù)學期望(復習筆記自用)

    概率論-條件數(shù)學期望(復習筆記自用)

    實際上,求條件期望就是在新的概率空間上進行計算,即 ,因此也繼承了期望的所有性質 如果 ,則E(X)=Eg(Y) 使用全概率公式,可以容易得到證明 理解,找到共性 正態(tài)分布的優(yōu)良性質:正態(tài)分布的條件分布仍為正態(tài)分布 公式的證明充分體現(xiàn)出微分法的優(yōu)勢 理解:對于固定的

    2024年02月08日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包