国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

tensorflow 模型計(jì)算中,預(yù)測錯(cuò)誤;權(quán)重參數(shù)加載

這篇具有很好參考價(jià)值的文章主要介紹了tensorflow 模型計(jì)算中,預(yù)測錯(cuò)誤;權(quán)重參數(shù)加載。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

tensorflow 模型計(jì)算中,預(yù)測錯(cuò)誤;權(quán)重參數(shù)加載

tensorflow 模型計(jì)算主要代碼(正確代碼)

linear1_kernel_initializer = tf.constant_initializer(numpy.transpose(data["linear1.weight"]))
linear1_bias_initializer = tf.constant_initializer(numpy.transpose(data["linear1.bias"]))
linear1 = layers.Dense(units=400, activation=tf.nn.relu, kernel_initializer=linear1_kernel_initializer, use_bias=True, bias_initializer=linear1_bias_initializer, input_shape=(48,))
linear2_kernel_initializer = tf.constant_initializer(numpy.transpose(data["linear2.weight"]))
linear2_bias_initializer = tf.constant_initializer(numpy.transpose(data["linear2.bias"]))
linear2 = layers.Dense(units=400, activation=tf.nn.relu, kernel_initializer=linear2_kernel_initializer, use_bias=True, bias_initializer=linear2_bias_initializer)
linear3_kernel_initializer = tf.constant_initializer(numpy.transpose(data["linear3.weight"]))
linear3_bias_initializer = tf.constant_initializer(numpy.transpose(data["linear3.bias"]))
linear3 = layers.Dense(units=2, activation=None, kernel_initializer=linear3_kernel_initializer, use_bias=True, bias_initializer=linear3_bias_initializer)
model = tf.keras.Sequential([linear1, linear2, linear3])

input = numpy.ones((2, 48), dtype=float)
predict = model.predict(input)
print(predict[0:100,:])

原本權(quán)重參數(shù)采用以下代碼

linear1_kernel_initializer = tf.constant_initializer(data["linear1.weight"])
linear1_bias_initializer = tf.constant_initializer((data["linear1.bias"])

但模型預(yù)測值與Matlab計(jì)算值有誤。后經(jīng)過測試定位到 layers.Dense 此處,然后創(chuàng)建 layers.Dense時(shí)設(shè)置use_bias=False參數(shù),不去考慮偏差參數(shù)。改變初始權(quán)重參數(shù)方式:

input_size = 2
units_p = 3
data = numpy.array([1, 1, 2, 2, 2, 3], dtype=float)
linear1_kernel_initializer = tf.constant_initializer(data)
linear1 = layers.Dense(units=units_p, activation=None, kernel_initializer=linear1_kernel_initializer, use_bias=False, input_shape=(input_size,))
#變化data
data = numpy.array([1, 2, 3, 1, 2, 3], dtype=float)
#或者
data = numpy.array([1, 2, 3, 1, 2, 3], dtype=float).reshape(3, 2)

通過這樣的方式,才發(fā)現(xiàn) linear1_kernel_initializer = tf.constant_initializer(data) 中的 data 有問題,通過對預(yù)測結(jié)果的分析,發(fā)現(xiàn) tf.constant_initializer() 會將傳遞過來的數(shù)據(jù)拉成一維,再根據(jù) units不同層 來變更數(shù)據(jù)矩陣大小,所以傳入tf.constant_initializer()的數(shù)據(jù)只要總大小是對的就可以傳入,而不需要shape一致。
所以,既然之前的數(shù)據(jù)預(yù)測結(jié)果有誤,那就是數(shù)據(jù)排列有誤,將 data 數(shù)據(jù)進(jìn)行矩陣轉(zhuǎn)置 再 傳入到tf.constant_initializer() 函數(shù)中
問題成功解決。
同時(shí)我想說明的是,pytorchtorch.nn.LinearW x + btensorflowlayers.Densex W + b。

tensorflow這種情況可以形象的表達(dá)為 流動的關(guān)系,input -> HL1 -> HL2 -> output(HL1為隱藏層1)

input 卷上 W1 + b1 => HL1結(jié)果
HL1結(jié)果 卷上 W2 + b2 => HL2結(jié)果
HL2結(jié)果 卷上 W3 + b3 => outpu文章來源地址http://www.zghlxwxcb.cn/news/detail-658646.html

到了這里,關(guān)于tensorflow 模型計(jì)算中,預(yù)測錯(cuò)誤;權(quán)重參數(shù)加載的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Tensorflow】模型如何加載HDF文件數(shù)據(jù)集?

    如果每個(gè)樣本都被保存為一個(gè)單獨(dú)的 HDF5 文件,可以使用 `tf.data.Dataset.list_files` 函數(shù)來創(chuàng)建一個(gè)文件名數(shù)據(jù)集,然后使用 `tf.data.Dataset.interleave` 函數(shù)來并行讀取多個(gè)文件。 下面的示例展示了如何從多個(gè) HDF5 文件中讀取數(shù)據(jù)并創(chuàng)建一個(gè) `tf.data.Dataset` 對象: import h5py import tenso

    2023年04月24日
    瀏覽(18)
  • TensorFlow 高級技巧:自定義模型保存、加載和分布式訓(xùn)練

    本篇文章將涵蓋 TensorFlow 的高級應(yīng)用,包括如何自定義模型的保存和加載過程,以及如何進(jìn)行分布式訓(xùn)練。 在 TensorFlow 中,我們可以通過繼承 tf.train.Checkpoint 來自定義模型的保存和加載過程。 以下是一個(gè)例子: TensorFlow 提供了 tf.distribute.Strategy API,讓我們可以在不同的設(shè)備

    2024年02月15日
    瀏覽(30)
  • 【pytorch】使用訓(xùn)練好后的模型權(quán)重,在驗(yàn)證集上輸出分類的混淆矩陣并保存錯(cuò)誤圖片

    【pytorch】使用訓(xùn)練好后的模型權(quán)重,在驗(yàn)證集上輸出分類的混淆矩陣并保存錯(cuò)誤圖片

    在機(jī)器學(xué)習(xí)領(lǐng)域,混淆矩陣是一個(gè)非常有用的指標(biāo),它可以幫助我們更好地理解模型在驗(yàn)證集上的表現(xiàn)。本文介紹了如何使用pytorch框架,利用訓(xùn)練好后的模型權(quán)重,在驗(yàn)證集上輸出分類的混淆矩陣,并保存錯(cuò)誤圖片的方法。 首先,我們需要準(zhǔn)備一個(gè)pytorch框架的模型,并將模

    2024年02月13日
    瀏覽(49)
  • 請描述TensorFlow中的Saver對象及其用途。在TensorFlow中,如何保存和加載訓(xùn)練好的模型?

    請描述TensorFlow中的Saver對象及其用途。 TensorFlow中的Saver對象是一個(gè)用于保存和加載模型參數(shù)的類。Saver對象在TensorFlow中扮演著至關(guān)重要的角色,尤其是在模型訓(xùn)練和部署的過程中。 Saver對象的主要用途如下: 模型保存:在訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過程中,我們通常需要保存模型

    2024年04月15日
    瀏覽(25)
  • 【論文】模型大小計(jì)算方式(或者叫做權(quán)重大小/體積?)單位是MB

    【論文】模型大小計(jì)算方式(或者叫做權(quán)重大小/體積?)單位是MB

    搞不懂,論文里面的 模型大小(Modelsize) 到底是啥?感覺各有各的說法 就單純的網(wǎng)絡(luò)結(jié)構(gòu)的大??? 那就可以說成是:網(wǎng)絡(luò)結(jié)構(gòu)定義好了就是一個(gè)模型,可用于訓(xùn)練 還是整個(gè)權(quán)重(網(wǎng)絡(luò)結(jié)構(gòu)+參數(shù))的大??? 可以說成:整個(gè)權(quán)重文件包含了網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),那么這個(gè)訓(xùn)練好的權(quán)

    2024年02月05日
    瀏覽(27)
  • 信息檢索與數(shù)據(jù)挖掘 | (五)文檔評分、詞項(xiàng)權(quán)重計(jì)算及向量空間模型

    信息檢索與數(shù)據(jù)挖掘 | (五)文檔評分、詞項(xiàng)權(quán)重計(jì)算及向量空間模型

    目錄 ??詞項(xiàng)頻率及權(quán)重計(jì)算 ??詞項(xiàng)頻率 ??逆文檔頻率 ??tf-idf權(quán)重計(jì)算 ??向量空間模型 ??余弦相似度 ??查詢向量 ??向量相似度計(jì)算 ??其他tf-idf權(quán)值計(jì)算方法 ??tf的亞線性尺度變換方法 ??基于最大值的tf歸一化 ??文檔權(quán)值和查詢權(quán)重機(jī) 我們需要一種方法分配一個(gè)

    2024年02月08日
    瀏覽(34)
  • 機(jī)器學(xué)習(xí)---使用 TensorFlow 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型預(yù)測波士頓房價(jià)和鳶尾花數(shù)據(jù)集分類

    機(jī)器學(xué)習(xí)---使用 TensorFlow 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型預(yù)測波士頓房價(jià)和鳶尾花數(shù)據(jù)集分類

    1. 預(yù)測波士頓房價(jià) 1.1 導(dǎo)包 最后一行設(shè)置了TensorFlow日志的詳細(xì)程度: tf.logging.DEBUG :最詳細(xì)的日志級別,用于記錄調(diào)試信息。 tf.logging.INFO :用于記錄一般的信息性消息,比如訓(xùn)練過程中的指標(biāo)和進(jìn)度。 tf.logging.WARN :用于記錄警告消息,表示可能存在潛在問題,但不會導(dǎo)致

    2024年02月08日
    瀏覽(24)
  • 人工智能(pytorch)搭建模型17-pytorch搭建ReitnNet模型,加載數(shù)據(jù)進(jìn)行模型訓(xùn)練與預(yù)測

    人工智能(pytorch)搭建模型17-pytorch搭建ReitnNet模型,加載數(shù)據(jù)進(jìn)行模型訓(xùn)練與預(yù)測

    大家好,我是微學(xué)AI,今天給大家介紹一下人工智能(pytorch)搭建模型17-pytorch搭建ReitnNet模型,加載數(shù)據(jù)進(jìn)行模型訓(xùn)練與預(yù)測,RetinaNet 是一種用于目標(biāo)檢測任務(wù)的深度學(xué)習(xí)模型,旨在解決目標(biāo)檢測中存在的困難樣本和不平衡類別問題。它是基于單階段檢測器的一種改進(jìn)方法,通

    2024年02月15日
    瀏覽(173)
  • [paddle]paddleseg中eiseg加載模型參數(shù)的模型下載地址

    以下內(nèi)容為2D圖片標(biāo)注模型下載及EISeg2D圖片標(biāo)注流程,具體如下: 在使用EISeg前,請先下載模型參數(shù)。EISeg開放了在COCO+LVIS、大規(guī)模人像數(shù)據(jù)、mapping_challenge,Chest X-Ray,MRSpineSeg,LiTS及百度自建質(zhì)檢數(shù)據(jù)集上訓(xùn)練的7個(gè)垂類方向模型,滿足通用場景、人像場景、建筑物標(biāo)注,醫(yī)

    2024年02月07日
    瀏覽(19)
  • 第56步 深度學(xué)習(xí)圖像識別:CNN梯度權(quán)重類激活映射(TensorFlow)

    第56步 深度學(xué)習(xí)圖像識別:CNN梯度權(quán)重類激活映射(TensorFlow)

    一、寫在前面 類激活映射(Class Activation Mapping,CAM)和梯度權(quán)重類激活映射(Gradient-weighted Class Activation Mapping,Grad-CAM) 是兩種可視化深度學(xué)習(xí)模型決策過程的技術(shù)。他們都是為了理解模型的決策過程,特別是對于圖像分類任務(wù),它們可以生成一種熱力圖,這種圖可以突出顯

    2024年02月13日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包