国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)基礎(chǔ)之《TensorFlow框架(6)—張量》

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)基礎(chǔ)之《TensorFlow框架(6)—張量》。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、張量

1、什么是張量
張量Tensor和ndarray是有聯(lián)系的,當(dāng)我們print()打印值的時(shí)候,它返回的就是ndarray對(duì)象

TensorFlow的張量就是一個(gè)n維數(shù)組,類型為tf.Tensor。Tensor具有以下兩個(gè)重要的屬性:
(1)type:數(shù)據(jù)類型
(2)shape:形狀(階)

2、張量的類型
張量,在計(jì)算機(jī)當(dāng)中如何存儲(chǔ)?

標(biāo)量,一個(gè)數(shù)字
向量,一維數(shù)組 [2,3,4]
矩陣,二維數(shù)組 [[2,3,4],[2,3,4]]
張量,就是n維數(shù)組
? ? 標(biāo)量,可以看做0階張量
? ? 向量,可以看做1階張量
? ? 矩陣,可以看做2階張量
? ? n維數(shù)組,n階張量

數(shù)據(jù)類型 python類型 描述
DT_FLOAT tf.float32 32位浮點(diǎn)數(shù)
DT_DOUBLE tf.float64 64位浮點(diǎn)數(shù)
DT_INT64 tf.int64 64位有符號(hào)整數(shù)
DT_INT32 tf.int32 32位有符號(hào)整數(shù)
DT_INT16 tf.int16 16位有符號(hào)整數(shù)
DT_INT8 tf.int8 8位有符號(hào)整數(shù)
DT_UINT8 tf.uint8 8位無(wú)符號(hào)整數(shù)
DT_STRING tf.string 可變長(zhǎng)度的字節(jié)數(shù)組,每一個(gè)張量元素都是一個(gè)字節(jié)數(shù)組
DT_BOOL tf.bool 布爾型
DT_COMPLEX64 tf.complex64 由兩個(gè)32位浮點(diǎn)數(shù)組成的復(fù)數(shù):實(shí)數(shù)和虛數(shù)
DT_QINT32 tf.qint32 用于量化Ops的32位有符號(hào)整型
DT_QINT8 tf.qint8 用于量化Ops的8位有符號(hào)整型
DT_QUINT8 tf.quint8 用于量化Ops的8位無(wú)符號(hào)整型

3、張量的階
對(duì)應(yīng)到ndarray的維數(shù)

數(shù)學(xué)實(shí)例 python 例子
0 純量 只有大小 s = 483
1 向量 大小和方向 v = [1.1, 2.2, 3.3]
2 矩陣 數(shù)據(jù)表 m = [[1,2,3],[4,5,6],[7,8,9]]
3 3階張量 數(shù)據(jù)立體 ...
n n階張量 自己想想... ...
import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf

def tensorflow_demo():
    """
    TensorFlow的基本結(jié)構(gòu)
    """

    # TensorFlow實(shí)現(xiàn)加減法運(yùn)算
    a_t = tf.constant(2)
    b_t = tf.constant(3)
    c_t = a_t + b_t
    print("TensorFlow加法運(yùn)算結(jié)果:\n", c_t)
    print(c_t.numpy())

    # 2.0版本不需要開(kāi)啟會(huì)話,已經(jīng)沒(méi)有會(huì)話模塊了

    return None

def graph_demo():
    """
    圖的演示
    """
    # TensorFlow實(shí)現(xiàn)加減法運(yùn)算
    a_t = tf.constant(2)
    b_t = tf.constant(3)
    c_t = a_t + b_t
    print("TensorFlow加法運(yùn)算結(jié)果:\n", c_t)
    print(c_t.numpy())

    # 查看默認(rèn)圖
    # 方法1:調(diào)用方法
    default_g = tf.compat.v1.get_default_graph()
    print("default_g:\n", default_g)

    # 方法2:查看屬性
    # print("a_t的圖屬性:\n", a_t.graph)
    # print("c_t的圖屬性:\n", c_t.graph)

    # 自定義圖
    new_g = tf.Graph()
    # 在自己的圖中定義數(shù)據(jù)和操作
    with new_g.as_default():
        a_new = tf.constant(20)
        b_new = tf.constant(30)
        c_new = a_new + b_new
        print("c_new:\n", c_new)
        print("a_new的圖屬性:\n", a_new.graph)
        print("b_new的圖屬性:\n", b_new.graph)

    # 開(kāi)啟new_g的會(huì)話
    with tf.compat.v1.Session(graph=new_g) as sess:
        c_new_value = sess.run(c_new)
        print("c_new_value:\n", c_new_value)
        print("我們自己創(chuàng)建的圖為:\n", sess.graph)

    # 可視化自定義圖
    # 1)創(chuàng)建一個(gè)writer
    writer = tf.summary.create_file_writer("./tmp/summary")
    # 2)將圖寫(xiě)入
    with writer.as_default():
        tf.summary.graph(new_g)

    return None

def session_run_demo():
    """
    feed操作
    """
    tf.compat.v1.disable_eager_execution()
    
    # 定義占位符
    a = tf.compat.v1.placeholder(tf.float32)
    b = tf.compat.v1.placeholder(tf.float32)
    sum_ab = tf.add(a, b)
    print("a:\n", a)
    print("b:\n", b)
    print("sum_ab:\n", sum_ab)
    # 開(kāi)啟會(huì)話
    with tf.compat.v1.Session() as sess:
        print("占位符的結(jié)果:\n", sess.run(sum_ab, feed_dict={a: 1.1, b: 2.2}))
 
    return None

def tensor_demo():
    """
    張量的演示
    """
    tensor1 = tf.constant(4.0)
    tensor2 = tf.constant([1, 2, 3, 4])
    linear_squares = tf.constant([[4], [9], [16], [25]], dtype=tf.int32)
    print("tensor1:\n", tensor1)
    print("tensor2:\n", tensor2)
    print("linear_squares:\n", linear_squares)
    return None

if __name__ == "__main__":
    # 代碼1:TensorFlow的基本結(jié)構(gòu)
    # tensorflow_demo()
    # 代碼2:圖的演示
    #graph_demo()
    # feed操作
    #session_run_demo()
    # 代碼4:張量的演示
    tensor_demo()
python3 day01_deeplearning.py

tensor1:
 tf.Tensor(4.0, shape=(), dtype=float32)
tensor2:
 tf.Tensor([1 2 3 4], shape=(4,), dtype=int32)
linear_squares:
 tf.Tensor(
[[ 4]
 [ 9]
 [16]
 [25]], shape=(4, 1), dtype=int32)

創(chuàng)建張量的時(shí)候,如果不指定類型:
整型:默認(rèn)tf.inf32
浮點(diǎn)型:默認(rèn)tf.float32

二、創(chuàng)建張量的指令

1、固定值張量
tf.zeros(shape, dtype=tf.float32, name=None)
創(chuàng)建所有元素設(shè)置為零的張量
此操作返回一個(gè)具有dtype、shape和所有元素設(shè)置為零的類型的張量

tf.zeros_like(tensor, dtype=None, name=None)
給定一個(gè)張量tensor,該操作返回與所有元素設(shè)置為零的tensor具有相同類型和形狀的張量

tf.ones(shape, dtype=tf.float32, name=None)
創(chuàng)建一個(gè)所有元素設(shè)置為1的張量
此操作返回一個(gè)具有dtype、shape和所有元素設(shè)置為1的類型的張量

tf.ones_like(tensor, dtype=None, name=None)
給定一個(gè)張量tensor,該操作返回與所有元素設(shè)置為1的tensor具有相同類型和形狀的張量

tf.fill(dims, value, name=None)
創(chuàng)建一個(gè)填充了標(biāo)量值的張量
此操作創(chuàng)建一個(gè)張量,形狀為dims,并用value填充

tf.constant(value, dtype=None, shape=None, name='Const')
創(chuàng)建一個(gè)常數(shù)張量

2、隨機(jī)值張量

一般我們經(jīng)常使用的隨機(jī)函數(shù)Math.random()產(chǎn)生的是服從均勻分布的隨機(jī)數(shù),能夠模擬等概率出現(xiàn)的情況
例如,仍一個(gè)骰子,1到6點(diǎn)的概率應(yīng)該相等,但現(xiàn)實(shí)生活中更多的隨機(jī)現(xiàn)象是符合正態(tài)分布的,例如20歲成年人的體重分布等

假如我們?cè)谥谱饕粋€(gè)游戲,要隨機(jī)設(shè)定許許多多NPC的升高,如果還用Math.random(),生成從140到220之間的數(shù)字,就會(huì)發(fā)現(xiàn)每個(gè)身高段的人數(shù)是一樣多的,這是比較無(wú)趣的,這樣的世界也與我們習(xí)慣不同,現(xiàn)實(shí)應(yīng)該是特別高和特別矮的都很少,處于中間的人數(shù)最多,這就要求隨機(jī)函數(shù)符合正態(tài)分布

tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
從截?cái)嗟恼龖B(tài)分布中輸出隨機(jī)值,和tf.random_normal()一樣,但是所有數(shù)字都不超過(guò)兩個(gè)標(biāo)準(zhǔn)差
mean:均值
stddev:標(biāo)準(zhǔn)差

tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
從正態(tài)分布中輸出隨機(jī)值,由隨機(jī)正態(tài)分布的數(shù)字組成的矩陣
mean:均值
stddev:標(biāo)準(zhǔn)差
?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-832234.html

到了這里,關(guān)于深度學(xué)習(xí)基礎(chǔ)之《TensorFlow框架(6)—張量》的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)基礎(chǔ)之《TensorFlow框架(3)—TensorBoard》

    深度學(xué)習(xí)基礎(chǔ)之《TensorFlow框架(3)—TensorBoard》

    一、TensorBoard可視化學(xué)習(xí) 1、TensorFlow有一個(gè)亮點(diǎn)就是,我們能看到自己寫(xiě)的程序的可視化效果,這個(gè)功能就是TensorBoard 2、TensorFlow可用于訓(xùn)練大規(guī)模深度神經(jīng)網(wǎng)絡(luò)所需的計(jì)算,使用該工具涉及的計(jì)算往往復(fù)雜而深?yuàn)W。為了方便TensorFlow程序的理解、調(diào)試和優(yōu)化,TensorFlow提供了

    2024年02月21日
    瀏覽(21)
  • 【《機(jī)器學(xué)習(xí)和深度學(xué)習(xí):原理、算法、實(shí)戰(zhàn)(使用Python和TensorFlow)》——以機(jī)器學(xué)習(xí)理論為基礎(chǔ)并包含其在工業(yè)界的實(shí)踐的一本書(shū)】

    【《機(jī)器學(xué)習(xí)和深度學(xué)習(xí):原理、算法、實(shí)戰(zhàn)(使用Python和TensorFlow)》——以機(jī)器學(xué)習(xí)理論為基礎(chǔ)并包含其在工業(yè)界的實(shí)踐的一本書(shū)】

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)已經(jīng)成為從業(yè)人員在人工智能時(shí)代必備的技術(shù),被廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言理解、推薦系統(tǒng)、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域,并取得了豐碩的成果。目前,很多高校的人工智能、軟件工程、計(jì)算機(jī)應(yīng)用等專業(yè)均已開(kāi)設(shè)了機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的課程,此外,為

    2024年02月16日
    瀏覽(26)
  • 深度學(xué)習(xí)框架教程:介紹一些流行的深度學(xué)習(xí)框架 (如TensorFlow、PyTorch等)

    目錄 一、引言 二、TensorFlow 三、Keras 四、PyTorch 五、技巧與最佳實(shí)踐

    2024年02月02日
    瀏覽(14)
  • Tensorflow入門(mén)(1)——深度學(xué)習(xí)框架Tesnsflow入門(mén) & 環(huán)境配置 & 認(rèn)識(shí)Tensorflow

    Tensorflow入門(mén)(1)——深度學(xué)習(xí)框架Tesnsflow入門(mén) & 環(huán)境配置 & 認(rèn)識(shí)Tensorflow

    1.anaconda以及Tensorflow的安裝: https://blog.csdn.net/qq_33505204/article/details/81584257 2.Anaconda詳細(xì)安裝及使用教程: https://blog.csdn.net/ITLearnHall/article/details/81708148 3.windows平臺(tái)下,TensorFlow的安裝、卸載以及遇到的各種錯(cuò)誤: https://blog.csdn.net/qq_27245699/article/details/81050035 CONDA環(huán)境安裝: co

    2024年02月12日
    瀏覽(25)
  • 深度學(xué)習(xí)框架TensorFlow和PyTorch的選取

    大家好,當(dāng)涉及到深度學(xué)習(xí)框架時(shí),TensorFlow和PyTorch是最受歡迎的兩個(gè)選擇。它們都是功能強(qiáng)大的開(kāi)源庫(kù),使開(kāi)發(fā)人員和研究人員能夠構(gòu)建和訓(xùn)練用于各種應(yīng)用的神經(jīng)網(wǎng)絡(luò)。本文將探討TensorFlow和PyTorch之間的主要區(qū)別,幫助你做出明智的決策。 首先簡(jiǎn)要介紹一下這兩個(gè)框架:

    2024年04月27日
    瀏覽(26)
  • TensorFlow是由Google開(kāi)發(fā)的開(kāi)源深度學(xué)習(xí)框架

    TensorFlow是由Google開(kāi)發(fā)的開(kāi)源深度學(xué)習(xí)框架。它提供了一種靈活而高效的方式來(lái)構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型。 TensorFlow的基本概念包括: Tensor:TensorFlow中的核心數(shù)據(jù)結(jié)構(gòu),表示多維數(shù)組??梢允菢?biāo)量、向量、矩陣或更高維度的張量。 圖(Graph):TensorFlow使用圖來(lái)表示計(jì)算任務(wù)。

    2024年01月16日
    瀏覽(35)
  • TensorFlow人工智能開(kāi)源深度學(xué)習(xí)框架簡(jiǎn)單認(rèn)識(shí)

    TensorFlow是一個(gè)使用數(shù)據(jù)流圖進(jìn)行數(shù)值計(jì)算的開(kāi)源深度學(xué)習(xí)框架。它由Google Brain團(tuán)隊(duì)開(kāi)發(fā),并于2015年開(kāi)源發(fā)布。TensorFlow的核心概念是使用圖表示計(jì)算任務(wù),其中節(jié)點(diǎn)表示操作,邊表示數(shù)據(jù)流動(dòng)。 TensorFlow被廣泛用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)。它的特點(diǎn)包括: 強(qiáng)大的計(jì)算能力:

    2024年01月21日
    瀏覽(34)
  • 機(jī)器學(xué)習(xí)分布式框架ray運(yùn)行TensorFlow實(shí)例

    使用Ray來(lái)實(shí)現(xiàn)TensorFlow的訓(xùn)練是一種并行化和分布式的方法,它可以有效地加速大規(guī)模數(shù)據(jù)集上的深度學(xué)習(xí)模型的訓(xùn)練過(guò)程。Ray是一個(gè)高性能、分布式計(jì)算框架,可以在集群上進(jìn)行任務(wù)并行化和數(shù)據(jù)并行化,從而提高訓(xùn)練速度和可擴(kuò)展性。 以下是實(shí)現(xiàn)TensorFlow訓(xùn)練的概括性描述

    2024年02月15日
    瀏覽(46)
  • 【深度學(xué)習(xí)筆記】TensorFlow 基礎(chǔ)

    【深度學(xué)習(xí)筆記】TensorFlow 基礎(chǔ)

    在 TensorFlow 2.0 及之后的版本中,默認(rèn)采用?Eager Execution 的方式,不再使用 1.0 版本的 Session 創(chuàng)建會(huì)話。Eager Execution 使用更自然地方式組織代碼,無(wú)需構(gòu)建計(jì)算圖,可以立即進(jìn)行數(shù)學(xué)計(jì)算,簡(jiǎn)化了代碼調(diào)試的過(guò)程。本文主要介紹 TensorFlow 的基本用法,通過(guò)構(gòu)建一個(gè)簡(jiǎn)單損失函數(shù)

    2024年02月13日
    瀏覽(59)
  • 深度學(xué)習(xí)框架安裝與配置指南:PyTorch和TensorFlow詳細(xì)教程

    如何安裝和配置深度學(xué)習(xí)框架PyTorch和TensorFlow 為什么選擇PyTorch和TensorFlow? PyTorch TensorFlow 安裝PyTorch 步驟1:安裝Python 步驟2:使用pip安裝PyTorch 安裝TensorFlow 步驟1:安裝Python 步驟2:使用pip安裝TensorFlow 驗(yàn)證安裝 配置深度學(xué)習(xí)環(huán)境 步驟1:選擇合適的IDE 步驟2:安裝必要的庫(kù) 步

    2024年02月10日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包