国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)可解釋性一(LIME)

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)可解釋性一(LIME)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

隨著深度學(xué)習(xí)的發(fā)展,越來(lái)越多的模型誕生,并且在訓(xùn)練集和測(cè)試集上的表現(xiàn)甚至于高于人類(lèi),但是深度學(xué)習(xí)一直被認(rèn)為是一個(gè)黑盒模型,我們通俗的認(rèn)為,經(jīng)過(guò)訓(xùn)練后,機(jī)器學(xué)習(xí)到了數(shù)據(jù)中的特征,進(jìn)而可以正確的預(yù)測(cè)結(jié)果,但是,對(duì)于機(jī)器到底學(xué)到了什么,仍然是個(gè)黑盒模型,我們迫切想要知道機(jī)器所學(xué)習(xí)到的特征,這就需要對(duì)模型的可解釋性進(jìn)行研究。
本文主要介紹一下機(jī)器學(xué)習(xí)可解釋性的相關(guān)內(nèi)容與實(shí)現(xiàn)方法,并回答以下問(wèn)題。

  • 什么是機(jī)器學(xué)習(xí)可解釋性?
  • 為什么要進(jìn)行可解釋性的研究
  • Lime可解釋性的原理
  • Lime可解釋性的代碼實(shí)現(xiàn)

什么是機(jī)器學(xué)習(xí)可解釋性?

對(duì)于機(jī)器學(xué)習(xí)的用戶(hù)而言,模型的可解釋性是一種較為主觀的性質(zhì),我們無(wú)法通過(guò)嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)表達(dá)方法形式化定義可解釋性。通常,我們可以認(rèn)為機(jī)器學(xué)習(xí)的可解釋性刻畫(huà)了“人類(lèi)對(duì)模型決策或預(yù)測(cè)結(jié)果的理解程度”,即用戶(hù)可以更容易地理解解釋性較高的模型做出的決策和預(yù)測(cè)。

從哲學(xué)的角度來(lái)說(shuō),為了理解何為機(jī)器學(xué)習(xí)的可解釋性,我們需要回答以下幾個(gè)問(wèn)題:首先,我們應(yīng)該如何定義對(duì)模型的“解釋”,怎樣的解釋才足夠好?許多學(xué)者認(rèn)為,要判斷一個(gè)解釋是否足夠好,取決于這個(gè)解釋需要回答的問(wèn)題是什么。對(duì)于機(jī)器學(xué)習(xí)任務(wù)而言,我們最感興趣的兩類(lèi)問(wèn)題是“為什么會(huì)得到該結(jié)果”和“為什么結(jié)果應(yīng)該是這樣”。而理想狀態(tài)下,如果我們能夠通過(guò)溯因推理的方式恢復(fù)出模型計(jì)算出輸出結(jié)果的過(guò)程,就可以實(shí)現(xiàn)較強(qiáng)的模型解釋性。

實(shí)際上,我們可以從“可解釋性”和“完整性”這兩個(gè)方面來(lái)衡量一種解釋是否合理?!翱山忉屝浴敝荚谕ㄟ^(guò)一種人類(lèi)能夠理解的方式描述系統(tǒng)的內(nèi)部結(jié)構(gòu),它與人類(lèi)的認(rèn)知、知識(shí)和偏見(jiàn)息息相關(guān);而“完整性”旨在通過(guò)一種精確的方式來(lái)描述系統(tǒng)的各個(gè)操作步驟(例如,剖析深度學(xué)習(xí)網(wǎng)絡(luò)中的數(shù)學(xué)操作和參數(shù))。然而,不幸的是,我們很難同時(shí)實(shí)現(xiàn)很強(qiáng)的“可解釋性”和“完整性”,這是因?yàn)榫_的解釋術(shù)語(yǔ)往往對(duì)于人們來(lái)說(shuō)晦澀難懂。同時(shí),僅僅使用人類(lèi)能夠理解的方式進(jìn)行解釋由往往會(huì)引入人類(lèi)認(rèn)知上的偏見(jiàn)。

此外,我們還可以從更宏大的角度理解“可解釋性人工智能”,將其作為一個(gè)“人與智能體的交互”問(wèn)題。如圖 1所示,人與智能體的交互涉及人工智能、社會(huì)科學(xué)、人機(jī)交互等領(lǐng)域。
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

為什么要進(jìn)行可解釋性的研究

在當(dāng)下的深度學(xué)習(xí)浪潮中,許多新發(fā)表的工作都聲稱(chēng)自己可以在目標(biāo)任務(wù)上取得良好的性能。盡管如此,用戶(hù)在諸如醫(yī)療、法律、金融等應(yīng)用場(chǎng)景下仍然需要從更為詳細(xì)和具象的角度理解得出結(jié)論的原因。為模型賦予較強(qiáng)的可解釋性也有利于確保其公平性、隱私保護(hù)性能、魯棒性,說(shuō)明輸入到輸出之間個(gè)狀態(tài)的因果關(guān)系,提升用戶(hù)對(duì)產(chǎn)品的信任程度。下面,我們從“完善深度學(xué)習(xí)模型”、“深度學(xué)習(xí)模型與人的關(guān)系”、“深度學(xué)習(xí)模型與社會(huì)的關(guān)系”3 個(gè)方面簡(jiǎn)介研究機(jī)器學(xué)習(xí)可解釋性的意義。

(1)完善深度學(xué)習(xí)模型
大多數(shù)深度學(xué)習(xí)模型是由數(shù)據(jù)驅(qū)動(dòng)的黑盒模型,而這些模型本身成為了知識(shí)的來(lái)源,模型能提取到怎樣的知識(shí)在很大程度上依賴(lài)于模型的組織架構(gòu)、對(duì)數(shù)據(jù)的表征方式,對(duì)模型的可解釋性可以顯式地捕獲這些知識(shí)。

盡管深度學(xué)習(xí)模型可以取得優(yōu)異的性能,但是由于我們難以對(duì)深度學(xué)習(xí)模型進(jìn)行調(diào)試,使其質(zhì)量保證工作難以實(shí)現(xiàn)。對(duì)錯(cuò)誤結(jié)果的解釋可以為修復(fù)系統(tǒng)提供指導(dǎo)。

(2)深度學(xué)習(xí)模型與人的關(guān)系
在人與深度學(xué)習(xí)模型交互的過(guò)程中,會(huì)形成經(jīng)過(guò)組織的知識(shí)結(jié)構(gòu)來(lái)為用戶(hù)解釋模型復(fù)雜的工作機(jī)制,即「心理模型」。為了讓用戶(hù)得到更好的交互體驗(yàn),滿(mǎn)足其好奇心,就需要賦予模型較強(qiáng)的可解釋性,否則用戶(hù)會(huì)感到沮喪,失去對(duì)模型的信任和使用興趣。

人們希望協(xié)調(diào)自身的知識(shí)結(jié)構(gòu)要素之間的矛盾或不一致性。如果機(jī)器做出了與人的意愿有出入的決策,用戶(hù)則會(huì)試圖解釋這種差異。當(dāng)機(jī)器的決策對(duì)人的生活影響越大時(shí),對(duì)于這種決策的解釋就更為重要。

當(dāng)模型的決策和預(yù)測(cè)結(jié)果對(duì)用戶(hù)的生活會(huì)產(chǎn)生重要影響時(shí),對(duì)模型的可解釋性與用戶(hù)對(duì)模型的信任程度息息相關(guān)。例如,對(duì)于醫(yī)療、自動(dòng)駕駛等與人們的生命健康緊密相關(guān)的任務(wù),以及保險(xiǎn)、金融、理財(cái)、法律等與用戶(hù)財(cái)產(chǎn)安全相關(guān)的任務(wù),用戶(hù)往往需要模型具有很強(qiáng)的可解釋性才會(huì)謹(jǐn)慎地采用該模型。

(3)深度學(xué)習(xí)模型與社會(huì)的關(guān)系
由于深度學(xué)習(xí)高度依賴(lài)于訓(xùn)練數(shù)據(jù),而訓(xùn)練數(shù)據(jù)往往并不是無(wú)偏的,會(huì)產(chǎn)生對(duì)于人種、性別、職業(yè)等因素的偏見(jiàn)。為了保證模型的公平性,用戶(hù)會(huì)要求深度學(xué)習(xí)模型具有檢測(cè)偏見(jiàn)的功能,能夠通過(guò)對(duì)自身決策的解釋說(shuō)明其公平。

深度學(xué)習(xí)模型作為一種商品具有很強(qiáng)的社會(huì)交互屬性,具有強(qiáng)可解釋性的模型也會(huì)具有較高的社會(huì)認(rèn)可度,會(huì)更容易被公眾所接納。

Lime可解釋性的原理

Lime(Local Interpretable Model-Agnostic Explanations)是使用訓(xùn)練的局部代理模型來(lái)對(duì)單個(gè)樣本進(jìn)行解釋。假設(shè)對(duì)于需要解釋的黑盒模型,取關(guān)注的實(shí)例樣本,在其附近進(jìn)行擾動(dòng)生成新的樣本點(diǎn),并得到黑盒模型的預(yù)測(cè)值,使用新的數(shù)據(jù)集訓(xùn)練可解釋的模型(如線(xiàn)性回歸、決策樹(shù)),得到對(duì)黑盒模型良好的局部近似。值得注意的是,可解釋性模型是黑盒模型的局部近似,而不是全局近似。
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
實(shí)現(xiàn)步驟

  • 如上圖是一個(gè)非線(xiàn)性的復(fù)雜模型,藍(lán)/粉背景的交界為決策函數(shù);
  • 選取關(guān)注的樣本點(diǎn),如圖粗線(xiàn)的紅色十字叉為關(guān)注的樣本點(diǎn)X;
  • 定義一個(gè)相似度計(jì)算方式,以及要選取的K個(gè)特征來(lái)解釋?zhuān)?/li>
  • 在該樣本點(diǎn)周?chē)M(jìn)行擾動(dòng)采樣(細(xì)線(xiàn)的紅色十字叉),按照它們到X的距離賦予樣本權(quán)重;
  • 用原模型對(duì)這些樣本進(jìn)行預(yù)測(cè),并訓(xùn)練一個(gè)線(xiàn)性模型(虛線(xiàn))在X的附近對(duì)原模型近似。
    其數(shù)學(xué)表示如下:
    可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
    對(duì)于實(shí)例x的解釋模型g,我們通過(guò)最小化損失函數(shù)來(lái)比較模型g和原模型f的近似性,其中,代表了解釋模型g的模型復(fù)雜度,G表示所有可能的解釋模型(例如我們想用線(xiàn)性模型解釋?zhuān)瑒tG表示所有的線(xiàn)性模型),定義了x的鄰域。我們通過(guò)最小化L使得模型f變得可解釋。其中,模型g,鄰域范圍大小,模型復(fù)雜度均需要定義。

對(duì)于結(jié)構(gòu)化數(shù)據(jù),首先確定可解釋性模型,興趣點(diǎn)x,鄰域的范圍。LIME首先在全局進(jìn)行采樣,然后對(duì)于所有采樣點(diǎn),選出興趣點(diǎn)x的鄰域,然后利用興趣點(diǎn)的鄰域范圍擬合可解釋性模型。如圖。
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
其中,背景灰色為負(fù)例,背景藍(lán)色為正例,黃色為興趣點(diǎn),小粒度黑色點(diǎn)為采樣點(diǎn),大粒度黑點(diǎn)為鄰域范圍,右下圖為L(zhǎng)IME的結(jié)果。

LIME的優(yōu)點(diǎn)我們很容易就可以看到,原理簡(jiǎn)單,適用范圍廣,可解釋任何黑箱模型。

Lime可解釋性的代碼實(shí)現(xiàn)

算法流程
宏觀來(lái)看:
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
首先,在待解釋的模型中取一個(gè)待解釋樣本,之后隨機(jī)生成擾動(dòng)樣本,并以與待解釋樣本的距離作為標(biāo)準(zhǔn)附加權(quán)重,再將得到的結(jié)果作為輸入投入待解釋模型中,同時(shí)選擇在局部考察的待訓(xùn)練可解釋模型(如決策樹(shù)、邏輯回歸等等),最終即可訓(xùn)練出在可解釋特征維度上的可解釋性模型。

微觀來(lái)看:

可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
選取待解釋樣本X,并轉(zhuǎn)換為可解釋特征維度上的樣本X’。
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
通過(guò)隨機(jī)擾動(dòng),得到其余在可解釋特征維度上的樣本Z’。可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
將Z’恢復(fù)至原始維度,計(jì)算f(z)與相似度。可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
利用自適應(yīng)相似度對(duì)各個(gè)樣本點(diǎn)進(jìn)行加權(quán)。
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)
以X’作為特征,f(z)作為標(biāo)準(zhǔn)訓(xùn)練局部可解釋模型(如圖虛線(xiàn))。

import sklearn
import sklearn.datasets
import sklearn.ensemble
import numpy as np
import lime
import lime.lime_tabular
#讀取數(shù)據(jù)
x = np.array(data[feats].fillna(-99999))
y = np.array(data['target'])
# 數(shù)據(jù)集劃分
X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state = 400)
# 以XGBoost模型為例
model_xgb = xgb.XGBClassifier(
                        learning_rate =0.05,
                         n_estimators=50,
                         max_depth=3,
                         min_child_weight=1,
                         gamma=0.3,
                         subsample=0.8,
                         colsample_bytree=0.8,
                         objective= 'multi:softprob',
                         nthread=4,
                         scale_pos_weight=1,
                         num_class=2,
                         seed=27
                    ).fit(X_train, y_train)
# 生成解釋器
explainer = lime.lime_tabular.LimeTabularExplainer(X_train, feature_names=feats,
                                                   class_names=[0,1], discretize_continuous=True)
# 對(duì)局部點(diǎn)的解釋
i = np.random.randint(0, X_test.shape[0])
#參數(shù)解釋
#image:待解釋圖像
#classifier_fn:分類(lèi)器
#labels:可解析標(biāo)簽
#hide_color:隱藏顏色
#top_labels:預(yù)測(cè)概率最高的K個(gè)標(biāo)簽生成解釋
#num_features:說(shuō)明中出現(xiàn)的最大功能數(shù)
#num_samples:學(xué)習(xí)線(xiàn)性模型的鄰域大小
#batch_size:批處理大小
#distance_metric:距離度量
#model_regressor:模型回歸器,默認(rèn)為嶺回歸
#segmentation_fn:分段,將圖像分為多個(gè)大小
#random_seed:隨機(jī)整數(shù),用作分割算法的隨機(jī)種子
exp = explainer.explain_instance(X_test[i], model_xgb.predict_proba, num_features=6)
# 顯示詳細(xì)信息圖
exp.show_in_notebook(show_table=True, show_all=True)
# 顯示權(quán)重圖
exp.as_pyplot_figure()

結(jié)果示例:
可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)

可解釋機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器學(xué)習(xí),人工智能,深度學(xué)習(xí)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-803274.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)可解釋性一(LIME)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)中模型解釋性問(wèn)題筆記

    ????????模型解釋性是指能夠理解和解釋機(jī)器學(xué)習(xí)模型如何做出預(yù)測(cè)或決策的能力。以下是一些機(jī)器學(xué)習(xí)中模型解釋性問(wèn)題的例子: 醫(yī)療診斷:在醫(yī)療診斷領(lǐng)域,模型解釋性非常重要。例如,當(dāng)使用深度學(xué)習(xí)模型進(jìn)行腫瘤診斷時(shí),醫(yī)生需要知道模型是基于哪些特征或區(qū)域

    2024年02月13日
    瀏覽(26)
  • 【機(jī)器學(xué)習(xí)可解釋性】3.部分依賴(lài)圖

    【機(jī)器學(xué)習(xí)可解釋性】3.部分依賴(lài)圖

    1.模型洞察的價(jià)值 2.特征重要性排列 3.部分依賴(lài)圖 4.SHAP 值 5.SHAP值的高級(jí)使用 每個(gè)特征怎么樣影響預(yù)測(cè)結(jié)果? 部分依賴(lài)圖 Partial Dependence Plots 雖然特征重要性顯示了哪些變量對(duì)預(yù)測(cè)影響最大,但部分依賴(lài)圖顯示了特征如何影響預(yù)測(cè)。 這對(duì)于回答以下問(wèn)題很有用: 控制所有其

    2024年02月07日
    瀏覽(18)
  • 【機(jī)器學(xué)習(xí)可解釋性】4.SHAP 值

    【機(jī)器學(xué)習(xí)可解釋性】4.SHAP 值

    1.模型洞察的價(jià)值 2.特征重要性排列 3.部分依賴(lài)圖 4.SHAP 值 5.SHAP值的高級(jí)使用 理解各自特征的預(yù)測(cè)結(jié)果? 介紹 您已經(jīng)看到(并使用)了從機(jī)器學(xué)習(xí)模型中提取一般解釋技術(shù)。但是,如果你想要打破模型對(duì)單個(gè)預(yù)測(cè)的工作原理? SHAP 值 (SHapley Additive exPlanations的首字母縮寫(xiě))對(duì)預(yù)測(cè)進(jìn)

    2024年02月08日
    瀏覽(16)
  • 【機(jī)器學(xué)習(xí)可解釋性】5.SHAP值的高級(jí)使用

    【機(jī)器學(xué)習(xí)可解釋性】5.SHAP值的高級(jí)使用

    1.模型洞察的價(jià)值 2.特征重要性排列 3.部分依賴(lài)圖 4.SHAP 值 5.SHAP值的高級(jí)使用 匯總SHAP值以獲得更詳細(xì)的模型解釋 總體回顧 我們從學(xué)習(xí)排列重要性和部分依賴(lài)圖開(kāi)始,以顯示學(xué)習(xí)后的模型的內(nèi)容。 然后我們學(xué)習(xí)了SHAP值來(lái)分解單個(gè)預(yù)測(cè)的組成部分。 現(xiàn)在我們將對(duì)SHAP值展開(kāi)討論

    2024年02月08日
    瀏覽(23)
  • XAI——可解釋性人工智能

    可解釋性AI(XAI)旨在提高人工智能系統(tǒng)的透明度和可理解性,使人們更好地理解AI的決策過(guò)程和原理。隨著AI技術(shù)的廣泛應(yīng)用,XAI成為了一個(gè)備受關(guān)注的重要領(lǐng)域。它不僅有助于建立人們對(duì)AI的信任,還可以幫助解決AI倫理和偏見(jiàn)等問(wèn)題。XAI的研究和應(yīng)用涵蓋了從算法改進(jìn)、可

    2024年03月15日
    瀏覽(33)
  • 可解釋性AI:打開(kāi)人工智能決策的黑盒子

    可解釋性AI:打開(kāi)人工智能決策的黑盒子

    隨著人工智能(AI)的廣泛應(yīng)用,其在各個(gè)領(lǐng)域中的決策過(guò)程日益受到關(guān)注。然而,許多AI系統(tǒng)如同一個(gè)“黑盒子”,人們難以理解其內(nèi)部的決策邏輯和原理。為了解決這一問(wèn)題,可解釋性AI(XAI)應(yīng)運(yùn)而生,成為提高AI透明度和可理解性的關(guān)鍵。 可解釋性AI(XAI)是人工智能(

    2024年02月21日
    瀏覽(24)
  • 人工智能入門(mén)實(shí)戰(zhàn):如何在人工智能中實(shí)施可解釋性

    人工智能(Artificial Intelligence, AI)是一門(mén)研究如何讓計(jì)算機(jī)模擬人類(lèi)智能的科學(xué)。在過(guò)去的幾十年里,人工智能技術(shù)已經(jīng)取得了顯著的進(jìn)展,例如機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)等。然而,這些技術(shù)仍然存在一個(gè)重要的問(wèn)題:它們的決策過(guò)程通常是不可解釋

    2024年01月20日
    瀏覽(29)
  • 解釋性與可解釋性在語(yǔ)音識(shí)別中的重要性

    語(yǔ)音識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到將人類(lèi)的語(yǔ)音信號(hào)轉(zhuǎn)換為文本信息的過(guò)程。在過(guò)去的幾年里,語(yǔ)音識(shí)別技術(shù)取得了顯著的進(jìn)展,這主要?dú)w功于深度學(xué)習(xí)和大數(shù)據(jù)技術(shù)的發(fā)展。然而,盡管語(yǔ)音識(shí)別技術(shù)已經(jīng)非常強(qiáng)大,但它仍然存在一些挑戰(zhàn),其中一個(gè)重

    2024年02月21日
    瀏覽(23)
  • 可解釋性+knowledge tracing

    Post-hoc local explanation-事后可解釋性 ?-解釋模型為什么會(huì)做出這樣的預(yù)測(cè)或者決策 Lu, Y.; Wang, D.; Meng, Q.; and Chen, P. 2020. Towards interpretable deep learning models for knowledge tracing. In International Conference on Artifificial Intelligence in Edu cation , 185–190. Springer. Lu, Y.; Wang, D.; Chen, P.; Meng, Q.; and Yu,

    2024年02月09日
    瀏覽(51)
  • 模型可解釋性 DeepLIFT 論文解析

    模型可解釋性 DeepLIFT 論文解析

    論文標(biāo)題: Learning Important Features Through Propagating Activation Differences 論文作者: Avanti Shrikumar, ? Peyton Greenside, ? Anshul Kundaje 論文發(fā)表時(shí)間及來(lái)源:Oct 2019,ICML 論文鏈接: http://proceedings.mlr.press/v70/shrikumar17a/shrikumar17a.pdf 1. DeepLIFT理論 ????????DeepLIFT解釋了目標(biāo)輸入、目標(biāo)輸出

    2024年02月11日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包