国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

這篇具有很好參考價(jià)值的文章主要介紹了【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

邏輯回歸分類

考慮二分類問題,其中每個(gè)樣本由一個(gè)特征向量表示。

直觀理解:將特征向量 x \text{x} x映射到一個(gè)實(shí)數(shù) w T x \text{w}^T\text{x} wTx

  • 一個(gè)正的值 w T x \text{w}^T\text{x} wTx表示 x \text{x} x屬于正類的可能性較高。
  • 一個(gè)負(fù)的值 w T x \text{w}^T\text{x} wTx表示 x \text{x} x屬于負(fù)類的可能性較高。

概率解釋:【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

  • 對(duì)映射值應(yīng)用一個(gè)變換函數(shù),將其范圍壓縮在0和1之間。
  • 變換后的值表示屬于正類的概率。
  • 變換后的值 w T x ∈ ( ? ∞ , + ∞ ) \text{w}^T\text{x}\in(-∞,+∞) wTx(?+)的范圍是 [ 0 , 1 ] [0, 1] [0,1]。

注意:在邏輯回歸中通常使用的變換函數(shù)是sigmoid函數(shù)。

Logistic Regression Classification

條件概率:

  • 條件概率在分類任務(wù)中很重要。
  • 使用邏輯函數(shù)(也稱為sigmoid函數(shù))計(jì)算條件概率。

邏輯函數(shù) / sigmoid函數(shù):

  • 當(dāng) z 趨近正無窮時(shí),邏輯函數(shù)趨近于1。

  • 當(dāng) z 趨近負(fù)無窮時(shí),邏輯函數(shù)趨近于0。

  • 當(dāng) z = 0 時(shí),邏輯函數(shù)等于0.5,表示兩個(gè)類別的概率相等。
    【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

  • 給定輸入 x,正類的概率表示為:
    p ( y = 1 ? ∣ ? x ) = σ ( w T x ) = 1 1 + e ? w T x = e w T x 1 + e w T x p(y = 1 \,|\, x) =\sigma(w^Tx) = \cfrac{1}{1 + e^{-w^T x}} = \cfrac{e^{w^T x}}{1 + e^{w^T x}} p(y=1x)=σ(wTx)=1+e?wTx1?=1+ewTxewTx?

  • 給定輸入 x,負(fù)類的概率表示為:
    p ( y = 0 ? ∣ ? x ) = 1 ? p ( y = 1 ? ∣ ? x ) = 1 1 + e w T x p(y = 0 \,|\, x) = 1 - p(y = 1 \,|\, x) = \cfrac{1}{1 + e^{w^T x}} p(y=0x)=1?p(y=1x)=1+ewTx1?

Logistic Regression: Log Odds

  • 在邏輯回歸中,我們使用log odds(對(duì)數(shù)幾率)來建模。
  • 一個(gè)事件的幾率(odds):該事件發(fā)生的概率與不發(fā)生的概率的比值, p 1 ? p \cfrac{p}{1-p} 1?pp?。
  • log odds / logit function: log ? ( p 1 ? p ) \log\left(\cfrac{p}{1-p}\right) log(1?pp?)。
  • Log odds for logistic regression: log ? ( p ( y = 1 ∣ x ) 1 ? p ( y = 1 ∣ x ) ) = w T x \log\left(\cfrac{p(y=1|x)}{1-p(y=1|x)}\right) = w^Tx log(1?p(y=1∣x)p(y=1∣x)?)=wTx。

在邏輯回歸中,我們通過學(xué)習(xí)適當(dāng)?shù)臋?quán)重 w w w 來建立一個(gè)線性模型,該模型可以將輸入特征 x x x 映射到對(duì)數(shù)幾率(log odds)上。然后,通過對(duì)對(duì)數(shù)幾率應(yīng)用邏輯函數(shù)(sigmoid函數(shù))來得到分類概率。

Logistic Regression: Decision Boundary

決策邊界:【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

  • 在邏輯回歸中,決策邊界是指分類模型對(duì)于輸入特征的判斷邊界。
  • 對(duì)于線性邏輯回歸模型,決策邊界是線性的。
    【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

決策規(guī)則:

  • 如果 p ^ ( y = 1 ∣ x ) ≥ 0.5 \hat{p}(y=1|x) \geq 0.5 p^?(y=1∣x)0.5,則預(yù)測(cè)為正類。
  • 如果 p ^ ( y = 1 ∣ x ) < 0.5 \hat{p}(y=1|x) < 0.5 p^?(y=1∣x)<0.5,則預(yù)測(cè)為負(fù)類。

對(duì)于線性邏輯回歸,決策邊界是一個(gè)線性函數(shù),用于將特征空間劃分為兩個(gè)不同的類別區(qū)域。

Likelihood under the Logistic Model

在邏輯回歸中,我們觀察標(biāo)簽并測(cè)量它們?cè)谀P拖碌母怕省?img src="https://imgs.yssmx.com/Uploads/2023/06/490033-5.png" alt="【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降" referrerpolicy="no-referrer" />

給定參數(shù) w w w,樣本的條件對(duì)數(shù)似然函數(shù)為:
【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

對(duì)數(shù)似然函數(shù)的表達(dá)式為:
【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

其中, N N N 是樣本數(shù)量, x i x_i xi? 是第 i i i 個(gè)樣本的特征向量, y i y_i yi? 是第 i i i 個(gè)樣本的標(biāo)簽。

通過最大化對(duì)數(shù)似然函數(shù)來估計(jì)參數(shù) w w w,可以找到最佳的參數(shù)值,使得模型的概率預(yù)測(cè)與觀察到的標(biāo)簽盡可能一致。

Training the Logistic Model

訓(xùn)練邏輯回歸模型(即找到參數(shù) w w w)可以通過最大化訓(xùn)練數(shù)據(jù)的條件對(duì)數(shù)似然函數(shù)或最小化損失函數(shù)來完成。【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

最大化條件對(duì)數(shù)似然函數(shù) or 最小化損失函數(shù):
【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

其中, N N N 是訓(xùn)練數(shù)據(jù)的樣本數(shù)量, x i x_i xi? 是第 i i i 個(gè)樣本的特征向量, y i y_i yi? 是第 i i i 個(gè)樣本的標(biāo)簽。

通過最大化條件對(duì)數(shù)似然函數(shù)或最小化損失函數(shù),我們可以找到最優(yōu)的參數(shù) w w w,使得模型能夠最好地?cái)M合訓(xùn)練數(shù)據(jù),并能夠準(zhǔn)確地預(yù)測(cè)新的樣本標(biāo)簽。常用的優(yōu)化算法,如梯度下降法或牛頓法,可以用于求解最優(yōu)參數(shù)。

Gradient Descent

梯度下降是一種常用的優(yōu)化算法,用于求解最小化損失函數(shù)的問題。
【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降

梯度下降的步驟如下:

  1. 初始化參數(shù) w w w 的值。
  2. 重復(fù)以下步驟直到滿足停止條件:
    • 計(jì)算損失函數(shù) J ( w ) J(w) J(w) 對(duì)參數(shù) w w w 的梯度,即 ? J ( w ) ? w \cfrac{\partial J(w)}{\partial w} ?w?J(w)?。
    • 根據(jù)學(xué)習(xí)率 α \alpha α,更新參數(shù) w w w 的值: w j : = w j ? α ? J ( w ) ? w j w_j := w_j - \alpha \cfrac{\partial J(w)}{\partial w_j} wj?:=wj??α?wj??J(w)?,對(duì)所有參數(shù) w j w_j wj? 同時(shí)進(jìn)行更新。

梯度下降的目標(biāo)是通過迭代更新參數(shù),逐漸減小損失函數(shù)的值,直到達(dá)到局部最小值或收斂。

在邏輯回歸中,我們可以使用梯度下降算法來最小化損失函數(shù) J ( w ) J(w) J(w),從而找到最優(yōu)的參數(shù) w w w,使得模型能夠最好地?cái)M合訓(xùn)練數(shù)據(jù)。通過計(jì)算損失函數(shù)對(duì)參數(shù)的梯度,然后根據(jù)梯度和學(xué)習(xí)率更新參數(shù),我們可以逐步調(diào)整參數(shù)的值,使得損失函數(shù)逐漸減小,從而達(dá)到最優(yōu)參數(shù)的目標(biāo)。
【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降文章來源地址http://www.zghlxwxcb.cn/news/detail-490033.html

到了這里,關(guān)于【人工智能】— 邏輯回歸分類、對(duì)數(shù)幾率、決策邊界、似然估計(jì)、梯度下降的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 初識(shí)人工智能,一文讀懂機(jī)器學(xué)習(xí)之邏輯回歸知識(shí)文集(1)

    初識(shí)人工智能,一文讀懂機(jī)器學(xué)習(xí)之邏輯回歸知識(shí)文集(1)

    ??作者簡(jiǎn)介,普修羅雙戰(zhàn)士,一直追求不斷學(xué)習(xí)和成長,在技術(shù)的道路上持續(xù)探索和實(shí)踐。 ??多年互聯(lián)網(wǎng)行業(yè)從業(yè)經(jīng)驗(yàn),歷任核心研發(fā)工程師,項(xiàng)目技術(shù)負(fù)責(zé)人。 ??歡迎 ??點(diǎn)贊?評(píng)論?收藏 ?? 人工智能領(lǐng)域知識(shí) ?? 鏈接 專欄 人工智能專業(yè)知識(shí)學(xué)習(xí)一 人工智能專欄 人

    2024年01月23日
    瀏覽(27)
  • 【機(jī)器學(xué)習(xí)】西瓜書習(xí)題3.3Python編程實(shí)現(xiàn)對(duì)數(shù)幾率回歸

    【機(jī)器學(xué)習(xí)】西瓜書習(xí)題3.3Python編程實(shí)現(xiàn)對(duì)數(shù)幾率回歸

    參考代碼 結(jié)合自己的理解,添加注釋。 導(dǎo)入相關(guān)的庫 導(dǎo)入數(shù)據(jù),進(jìn)行數(shù)據(jù)處理和特征工程 定義若干需要使用的函數(shù) y = 1 1 + e ? x y= frac{1}{1+e^{-x}} y = 1 + e ? x 1 ? ? ( β ) = ∑ i = 1 m ( ? y i β T x ^ i + l n ( 1 + e β T x ^ i ) ) ell(beta) = sum_{i=1}^{m}(-y_{i}beta^{T} hat{x}_{i} + ln(1+e^{

    2024年02月15日
    瀏覽(23)
  • 人工智能 :一種現(xiàn)代的方法 第七章 邏輯智能體

    人工智能 :一種現(xiàn)代的方法 第七章 邏輯智能體

    本文旨在講清楚: KBA(knowledge based agent)與邏輯 模型,有效性,可滿足性,蘊(yùn)含,推理過程 如何證明KB蘊(yùn)含a(模型檢驗(yàn),邏輯等價(jià),推理規(guī)則) 基于命題邏輯的Agent如何工作的 7.1 基于知識(shí)的智能體 基于知識(shí)的系統(tǒng) 基于知識(shí)的Agent的核心部件是其知識(shí)庫,或稱KB。 知識(shí)庫

    2024年01月22日
    瀏覽(25)
  • 人工智能-線性回歸的從零開始實(shí)現(xiàn)

    人工智能-線性回歸的從零開始實(shí)現(xiàn)

    在了解線性回歸的關(guān)鍵思想之后,我們可以開始通過代碼來動(dòng)手實(shí)現(xiàn)線性回歸了。 在這一節(jié)中,我們將從零開始實(shí)現(xiàn)整個(gè)方法, 包括數(shù)據(jù)流水線、模型、損失函數(shù)和小批量隨機(jī)梯度下降優(yōu)化器。 雖然現(xiàn)代的深度學(xué)習(xí)框架幾乎可以自動(dòng)化地進(jìn)行所有這些工作,但從零開始實(shí)現(xiàn)

    2024年02月08日
    瀏覽(28)
  • 【人工智能】簡(jiǎn)單線性回歸模型介紹及python實(shí)現(xiàn)

    【人工智能】簡(jiǎn)單線性回歸模型介紹及python實(shí)現(xiàn)

    簡(jiǎn)單線性回歸是人工智能和統(tǒng)計(jì)學(xué)中一個(gè)基本的預(yù)測(cè)技術(shù),用于分析兩個(gè)連續(xù)變量之間的線性關(guān)系。在簡(jiǎn)單線性回歸中,我們?cè)噲D找到一個(gè)線性方程來最好地描述這兩個(gè)變量之間的關(guān)系。 變量 :簡(jiǎn)單線性回歸涉及兩個(gè)變量 - 自變量(independent variable)和因變量(dependent vari

    2024年01月17日
    瀏覽(20)
  • 人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)001_線性回歸_多元線性回歸_最優(yōu)解_基本概念_有監(jiān)督機(jī)器學(xué)習(xí)_jupyter notebook---人工智能工作筆記0040

    人工智能基礎(chǔ)_機(jī)器學(xué)習(xí)001_線性回歸_多元線性回歸_最優(yōu)解_基本概念_有監(jiān)督機(jī)器學(xué)習(xí)_jupyter notebook---人工智能工作筆記0040

    ? ?線性和回歸,就是自然規(guī)律,比如人類是身高趨于某個(gè)值的概率最大,回歸就是通過數(shù)學(xué)方法找到事物的規(guī)律. 機(jī)器學(xué)習(xí)作用: 該專業(yè)實(shí)際應(yīng)用于機(jī)器視覺、指紋識(shí)別、人臉識(shí)別、視網(wǎng)膜識(shí)別、虹膜識(shí)別、掌紋識(shí)別、專家系統(tǒng)、自動(dòng)規(guī)劃、智能搜索、定理證明、博弈、自動(dòng)程序

    2024年02月06日
    瀏覽(27)
  • 人工智能分類算法概述

    人工智能分類算法概述

    人工智能分類算法是用于將數(shù)據(jù)劃分為不同類別的算法。這些算法通過學(xué)習(xí)數(shù)據(jù)的特征和模式,將輸入數(shù)據(jù)映射到相應(yīng)的類別。分類算法在人工智能中具有廣泛的應(yīng)用,如圖像識(shí)別、語音識(shí)別、文本分類等。以下是幾種常見的人工智能分類算法的詳細(xì)講解過程: 決策樹 決策

    2024年04月11日
    瀏覽(23)
  • 人工智能文本分類

    人工智能文本分類

    在本文中,我們?nèi)嫣接懥宋谋痉诸惣夹g(shù)的發(fā)展歷程、基本原理、關(guān)鍵技術(shù)、深度學(xué)習(xí)的應(yīng)用,以及從RNN到Transformer的技術(shù)演進(jìn)。文章詳細(xì)介紹了各種模型的原理和實(shí)戰(zhàn)應(yīng)用,旨在提供對(duì)文本分類技術(shù)深入理解的全面視角。 文本分類作為人工智能領(lǐng)域的一個(gè)重要分支,其價(jià)值

    2024年02月03日
    瀏覽(21)
  • 【人工智能】— 邏輯Agent、一般邏輯、Entailment 蘊(yùn)涵、命題邏輯、前向鏈接、反向鏈接、Resolution歸結(jié)

    【人工智能】— 邏輯Agent、一般邏輯、Entailment 蘊(yùn)涵、命題邏輯、前向鏈接、反向鏈接、Resolution歸結(jié)

    邏輯智能體:基于知識(shí)的智能體 知識(shí)和推理的重要性 部分可觀察的環(huán)境 自然語言理解 基于知識(shí)的智能體的靈活性 知識(shí)庫是一組用形式化語言表述的陳述句,其中包含有系統(tǒng)需要了解的信息。 在構(gòu)建一個(gè)智能體時(shí),通常采用“告訴”和“詢問”的方式,即先將需要的知識(shí)加

    2024年02月08日
    瀏覽(18)
  • 【人工智能】多元線性回歸模型舉例及python實(shí)現(xiàn)方式

    【人工智能】多元線性回歸模型舉例及python實(shí)現(xiàn)方式

    比如你做了一個(gè)企業(yè)想要招人,但是不知道月薪應(yīng)該定在多少,你做了一個(gè)月薪和收入的調(diào)研,包括年限、學(xué)歷、地區(qū)和月薪 做一個(gè)月薪=w1 年限+w2 學(xué)歷+w3*城市+…+b的工作年限和薪資的多元線性模型,然后找出最適合線性模型的直線-成本函數(shù)、梯度下降方式,來預(yù)估你可以

    2024年02月19日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包