国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

TensorFlow學(xué)習(xí)筆記(未完待續(xù))

這篇具有很好參考價(jià)值的文章主要介紹了TensorFlow學(xué)習(xí)筆記(未完待續(xù))。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

tf.Graph().as_default()

with tf.Graph().as_default():
     with tf.device('/gpu:'+str(GPU_INDEX)):

TensorFlow中所有計(jì)算都會(huì)被轉(zhuǎn)化為計(jì)算圖上的節(jié)點(diǎn)。是一個(gè)通過計(jì)算圖的形式來表述計(jì)算的編程系統(tǒng),每個(gè)計(jì)算都是計(jì)算圖的一個(gè)節(jié)點(diǎn),而節(jié)點(diǎn)之間的邊描述了計(jì)算之間的依賴關(guān)系。

在TensorFlow中,系統(tǒng)會(huì)自動(dòng)維護(hù)一個(gè)默認(rèn)的計(jì)算圖,通過tf.get_default_graph()函數(shù)可以獲取當(dāng)前默認(rèn)的計(jì)算圖。

如果沒有顯示創(chuàng)建一個(gè)圖的話,系統(tǒng)提供一個(gè)全局默認(rèn)的圖,默認(rèn)把所有的操作都添加到全局默認(rèn)圖中,配合with關(guān)鍵詞使用,可以只把with快中的操作添加到默認(rèn)圖中。計(jì)算圖可以通過tf.Graph.device函數(shù)來指定運(yùn)行計(jì)算的設(shè)備。

如果要用GPU跑的話要確保安裝的tensorflow是gpu版本的??梢酝ㄟ^一下方式來判斷:

import tensorflow as tf
print(tf.test.is_gpu_available())
#true為有g(shù)pu版本

session

#  創(chuàng)建本地 session
with tf.Session() as sess:
  # ...

# 創(chuàng)建遠(yuǎn)程 session
with tf.Session("grpc://example.org:2222"):
  # ...

session擁有和管理物理資源CPU、GPU、網(wǎng)絡(luò)連接的功能,最典型的使用方式是作為上下文管理器使用。session 使用的可選參數(shù)主要有三個(gè):target 用來控制 session 使用的硬件設(shè)備, 如果使用空值,那么這個(gè) session 就只會(huì)使用本地的設(shè)備,如果使用 grpc:// URL,那么就會(huì)使用這臺(tái)服務(wù)器控制的所有設(shè)備。graph 用來控制該 session 運(yùn)行哪個(gè)計(jì)算圖,如果為空,那么該 session 就只會(huì)使用當(dāng)前的默認(rèn) Graph,如果使用多個(gè)計(jì)算圖,就可以在這里指定。config 用來 指定一個(gè) tf.ConfigProto 格式的 session 運(yùn)行配置,比如說它里面包含的 allow_soft_placement 如果指定為 TRUE,那么 session 就會(huì)自動(dòng)把不適合在 GPU 上運(yùn)行的 OP 全部放到 CPU 上運(yùn)行;cluster_def 是分布式運(yùn)行時(shí)候需要指定的配置;gpu_options.allow_growth 設(shè)置會(huì)使得程序在開始時(shí)候逐步的增長(zhǎng) GPU 顯存使用量,而不是一開始就最大化的使用所有顯存。第一個(gè)和第三個(gè)配置是經(jīng)常用到的。

tf.Session.run 是運(yùn)行 OP 和獲取 tensor 的值的主要方式,可以一次性傳入多個(gè) OP 和 tensor 給它,然后TensorFlow 會(huì)自動(dòng)執(zhí)行所有需要的 OP 來得到結(jié)果。

tensorflow.placeholder()

placeholder是占位符的意思,在tensorflow中類似于函數(shù)參數(shù),在執(zhí)行的時(shí)候再賦具體的值。
TensorFlow學(xué)習(xí)筆記(未完待續(xù)),tensorflow,學(xué)習(xí),筆記
Tensorflow的設(shè)計(jì)理念稱之為計(jì)算流圖,在編寫程序時(shí),首先構(gòu)筑整個(gè)系統(tǒng)的graph,代碼并不會(huì)直接生效,這一點(diǎn)和python的其他數(shù)值計(jì)算庫(如Numpy等)不同,graph為靜態(tài)的,類似于docker中的鏡像。然后,在實(shí)際的運(yùn)行時(shí),啟動(dòng)一個(gè)session,程序才會(huì)真正的運(yùn)行。這樣做的好處就是:避免反復(fù)地切換底層程序?qū)嶋H運(yùn)行的上下文,tensorflow幫你優(yōu)化整個(gè)系統(tǒng)的代碼。我們知道,很多python程序的底層為C語言或者其他語言,執(zhí)行一行腳本,就要切換一次,是有成本的,tensorflow通過計(jì)算流圖的方式,幫你優(yōu)化整個(gè)session需要執(zhí)行的代碼,還是很有優(yōu)勢(shì)的。placeholder()函數(shù)是在神經(jīng)網(wǎng)絡(luò)構(gòu)建graph的時(shí)候在模型中的占位,此時(shí)并沒有把要輸入的數(shù)據(jù)傳入模型,它只會(huì)分配必要的內(nèi)存。等建立session,在會(huì)話中,運(yùn)行模型的時(shí)候通過feed_dict()函數(shù)向占位符喂入數(shù)據(jù)。

tf.summary

tensorboard作為一款可視化神奇,是學(xué)習(xí)tensorflow時(shí)模型訓(xùn)練以及參數(shù)可視化的法寶。而在訓(xùn)練過程中,主要用到了tf.summary()的各類方法,能夠保存訓(xùn)練過程以及參數(shù)分布圖并在tensorboard顯示。文章來源地址http://www.zghlxwxcb.cn/news/detail-714422.html

到了這里,關(guān)于TensorFlow學(xué)習(xí)筆記(未完待續(xù))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【未完待續(xù)】綜述:用于視頻分割(Video Segmentation)的深度學(xué)習(xí)

    【未完待續(xù)】綜述:用于視頻分割(Video Segmentation)的深度學(xué)習(xí)

    A Survey on Deep Learning Technique for Video Segmentation 本文回顧視頻分割的兩條基本研究路線:視頻目標(biāo)分割(object segmentation)和視頻語義分割(semantic segmentation)。本文介紹它們各自的task setting、背景概念、感知需求、發(fā)展歷史以及主要挑戰(zhàn)。本文詳細(xì)概述相關(guān)的方法和數(shù)據(jù)集的代

    2024年02月02日
    瀏覽(25)
  • 【深度學(xué)習(xí)筆記】TensorFlow 基礎(chǔ)

    【深度學(xué)習(xí)筆記】TensorFlow 基礎(chǔ)

    在 TensorFlow 2.0 及之后的版本中,默認(rèn)采用?Eager Execution 的方式,不再使用 1.0 版本的 Session 創(chuàng)建會(huì)話。Eager Execution 使用更自然地方式組織代碼,無需構(gòu)建計(jì)算圖,可以立即進(jìn)行數(shù)學(xué)計(jì)算,簡(jiǎn)化了代碼調(diào)試的過程。本文主要介紹 TensorFlow 的基本用法,通過構(gòu)建一個(gè)簡(jiǎn)單損失函數(shù)

    2024年02月13日
    瀏覽(59)
  • tensorflow學(xué)習(xí)筆記

    tensorflow學(xué)習(xí)過程中記錄的筆記 cuda的安裝過程略,參考pytorch的那篇筆記。 一個(gè)穩(wěn)定版本的tensorflow2.5版本匹配: 如果返回為True,說明GPU已經(jīng)可用。 參考:tensorflow靜態(tài)圖原理 筆記:在模型訓(xùn)練初始化init階段的最后,需要用任意數(shù)值的指定矩陣形狀讓模型先運(yùn)行一次,從而生

    2024年02月13日
    瀏覽(12)
  • SCI一區(qū)論文閱讀小結(jié)之深度學(xué)習(xí)在氣象領(lǐng)域應(yīng)用(未完待續(xù))

    SCI一區(qū)論文閱讀小結(jié)之深度學(xué)習(xí)在氣象領(lǐng)域應(yīng)用(未完待續(xù))

    最近文獻(xiàn)調(diào)研,發(fā)現(xiàn)一個(gè)研究相近的師兄最近發(fā)的幾篇文章給的啟發(fā)性很高,閱讀文獻(xiàn)的同時(shí)也對(duì)這幾篇文章做個(gè)總結(jié),以防自己忘記,也分享給大家。 首先,甩出這位大佬的RG: https://www.researchgate.net/profile/Xuan-Tong-3/research 最近的研究都是將深度學(xué)習(xí)應(yīng)用到氣象領(lǐng)域的,比如

    2024年02月21日
    瀏覽(33)
  • 深度學(xué)習(xí)筆記(二)——Tensorflow環(huán)境的安裝

    深度學(xué)習(xí)筆記(二)——Tensorflow環(huán)境的安裝

    本篇文章只做基本的流程概述,不闡述具體每個(gè)軟件的詳細(xì)安裝流程,具體的流程網(wǎng)上教程已經(jīng)非常豐富。主要是給出完整的安裝流程,以供參考 一個(gè)好的算法環(huán)境往往能夠幫助開發(fā)者事半功倍,入門學(xué)習(xí)的時(shí)候往往搭建好環(huán)境就已經(jīng)成功了一半。 在機(jī)器學(xué)習(xí)或者深度學(xué)習(xí)

    2024年01月17日
    瀏覽(23)
  • 【AI學(xué)習(xí)筆記】TensorFlow GPU版本的安裝(超詳細(xì))

    【AI學(xué)習(xí)筆記】TensorFlow GPU版本的安裝(超詳細(xì))

    在安裝之前,首先我們要確認(rèn)現(xiàn)有的或預(yù)定要采購的獨(dú)立顯卡是否支持CUDA,具體操作如下: 查看支持CUDA的顯卡,如下圖: 具體可到網(wǎng)站 https://developer.nvidia.com/cuda-gpus 查詢。 查看顯卡 打開任務(wù)管理器(Ctrl+Shift+Esc)——“性能”——點(diǎn)擊“GPU”,即可查看顯卡名稱(下圖右

    2024年02月05日
    瀏覽(19)
  • 【TensorFlow1.X】系列學(xué)習(xí)筆記之TF總覽

    大量經(jīng)典論文的算法均采用 TF 1.x 實(shí)現(xiàn), 為了閱讀方便, 同時(shí)加深對(duì)實(shí)現(xiàn)細(xì)節(jié)的理解, 需要 TF 1.x 的知識(shí) 【TensorFlow1.X】系列學(xué)習(xí)文章目錄 使用 TensorFlow1.X之前你需要了解關(guān)于 TensorFlow1.X 的以下基礎(chǔ)知識(shí): 使用張量 (tensors) 來代表數(shù)據(jù); 使用變量 (Variables) 維護(hù)狀態(tài); 使用圖 (g

    2023年04月25日
    瀏覽(13)
  • 深度學(xué)習(xí)筆記:搭建基于Python的tensorflow運(yùn)行環(huán)境1

    深度學(xué)習(xí)筆記:搭建基于Python的tensorflow運(yùn)行環(huán)境1

    首先,在系統(tǒng)下創(chuàng)建python虛擬環(huán)境目錄Venvs,本文我們?cè)O(shè)置的虛擬環(huán)境目錄如下:C:Userswuchhvenvs,接下來打開cmd命令窗口 進(jìn)入創(chuàng)建的目錄(C:Userswuchhvenvs)。 在命令行窗口中,執(zhí)行創(chuàng)建虛擬環(huán)境的python3命令,我們將創(chuàng)建一個(gè)名為tensorflow的虛擬環(huán)境。 在Windows上:我們通過

    2024年02月05日
    瀏覽(21)
  • 黑馬程序員3天帶你玩轉(zhuǎn)Python深度學(xué)習(xí)TensorFlow框架學(xué)習(xí)筆記

    黑馬程序員3天帶你玩轉(zhuǎn)Python深度學(xué)習(xí)TensorFlow框架學(xué)習(xí)筆記

    這是黑馬程序員3天帶你玩轉(zhuǎn)Python深度學(xué)習(xí)TensorFlow框架學(xué)習(xí)筆記 視頻鏈接: 黑馬程序員3天帶你玩轉(zhuǎn)Python深度學(xué)習(xí)TensorFlow框架 學(xué)習(xí)目標(biāo):知道深度學(xué)習(xí)與機(jī)器學(xué)習(xí)的區(qū)別 區(qū)別:深度學(xué)習(xí)沒有特征提取 特征方面 機(jī)器學(xué)習(xí)的特征工程步驟是要靠手動(dòng)完成的,而且需要大量領(lǐng)域?qū)?/p>

    2024年02月01日
    瀏覽(1622)
  • 機(jī)器學(xué)習(xí)筆記 - 使用 Tensorflow 從頭開始??構(gòu)建您自己的對(duì)象檢測(cè)器

    ? ? ? ? 之前的文章是利用了VGG16的預(yù)訓(xùn)練模型,然后構(gòu)造完全連接的層標(biāo)頭以輸出預(yù)測(cè)的邊界框坐標(biāo),但是不包含對(duì)象標(biāo)簽的分類。 機(jī)器學(xué)習(xí)筆記 - 使用Keras、TensorFlow框架進(jìn)行自定義數(shù)據(jù)集目標(biāo)檢測(cè)訓(xùn)練_keras 制作 目標(biāo)檢測(cè) 數(shù)據(jù)集_坐望云起的博客-CSDN博客 學(xué)習(xí)如何訓(xùn)練自定

    2024年02月14日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包