国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

谷歌云計(jì)算技術(shù)基礎(chǔ)架構(gòu),谷歌卷積神經(jīng)網(wǎng)絡(luò)

這篇具有很好參考價(jià)值的文章主要介紹了谷歌云計(jì)算技術(shù)基礎(chǔ)架構(gòu),谷歌卷積神經(jīng)網(wǎng)絡(luò)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

谷歌云計(jì)算技術(shù)基礎(chǔ)架構(gòu),谷歌卷積神經(jīng)網(wǎng)絡(luò)

谷歌開(kāi)源了TensorFlow,世界就要馬上被改變了嗎

Google開(kāi)源了其第二代深度學(xué)習(xí)技術(shù)TensorFlow——被使用在Google搜索、圖像識(shí)別以及郵箱的深度學(xué)習(xí)框架。這在相關(guān)媒體圈、工程師圈、人工智能公司、人工智能研究團(tuán)隊(duì)里有了一些討論。

比較有趣的是,微軟亞洲研究院立刻向媒體發(fā)郵件表示,我們發(fā)布了開(kāi)源分布式機(jī)器學(xué)習(xí)工具包(DMTK)。對(duì)于大眾來(lái)說(shuō),這件事讓人“困惑”。

從“深度學(xué)習(xí)”到“分布式系統(tǒng)”,太多概念大眾一知半解,現(xiàn)今給出的資料又讓人難以理解。而對(duì)于“Google開(kāi)源TensorFlow”這一事件,各個(gè)公司、團(tuán)隊(duì)、學(xué)術(shù)權(quán)威也是眾說(shuō)紛紜。

因此,出門問(wèn)問(wèn)為大家“破霧”,并講一講這次開(kāi)源意味著什么。什么是深度學(xué)習(xí)?深度學(xué)習(xí)系統(tǒng)是什么?深度學(xué)習(xí)理論于2006年被提出,它通過(guò)模擬“人腦的神經(jīng)網(wǎng)絡(luò)”來(lái)解釋圖像、聲音和文本等數(shù)據(jù)。

但是目前的計(jì)算機(jī)還達(dá)不到模擬人腦數(shù)量龐大的神經(jīng)元(千億級(jí)),因此便有了用到成千上萬(wàn)大型計(jì)算機(jī)(計(jì)算平臺(tái)集群)來(lái)吸收數(shù)據(jù)對(duì)其進(jìn)行自動(dòng)分類的“分布式深度學(xué)習(xí)系統(tǒng)”。

TensorFlow的起源和此次開(kāi)源事件Google將自家研發(fā)的深度學(xué)習(xí)系統(tǒng)命名為“DistBelief”,它使得Google能夠同時(shí)處理成千上萬(wàn)臺(tái)大型計(jì)算機(jī)的數(shù)據(jù),構(gòu)建更大型的神經(jīng)網(wǎng)絡(luò)和大規(guī)模訓(xùn)練。

Google的搜索、圖像識(shí)別及郵箱等均采用了該技術(shù)。一般情況下,深度學(xué)習(xí)系統(tǒng)都需要先設(shè)定好feature(特征),再學(xué)習(xí)如何分辨。

但GoogleDistBelief神奇的地方在于,“GoogleBrain”開(kāi)發(fā)團(tuán)隊(duì)“XLab”曾用它在未事先獲取“貓的特征描述”信息的情況下,從大量YouTube視頻中區(qū)分出了哪些是貓的視頻。

這意味著深度學(xué)習(xí)系統(tǒng)“DistBelief”自行總結(jié)出了貓的feature(特征)!雖然這個(gè)案例的識(shí)別范圍、識(shí)別率有待提高(81.7%),但作為人工智能最經(jīng)典案例之一,為人工智能翻開(kāi)了新的篇章。

而“貓”的事件,也讓曾經(jīng)的GoogleBrain開(kāi)發(fā)團(tuán)隊(duì)“XLab”的核心人員、現(xiàn)在被李彥宏挖到百度的吳恩達(dá)得到了“GoogleBrain”之父的美譽(yù)。

不過(guò),時(shí)代總是進(jìn)步,而“DistBelief”有缺陷。Google稱,雖然DistBelief非常成功,但它僅僅以神經(jīng)網(wǎng)絡(luò)為目的、十分局限,而且很難進(jìn)行配置。

另外,DistBelief牢牢綁定在Google的內(nèi)部基礎(chǔ)設(shè)施上,幾乎不可能將代碼與外界共享。因此,本文的主角,Google的第二代深度學(xué)習(xí)系統(tǒng)“TensorFlow”橫空出世了。

Google表示,TensorFlow在設(shè)計(jì)上尤其針對(duì)克服DistBelief的短板,靈活、更通用、易使用、更快,而且完全開(kāi)源。

TensorFlow可以被架設(shè)在智能手機(jī)這樣小的設(shè)備上,甚至僅一塊電路板上,更靈活;TensorFlow可以被使用在很多計(jì)算平臺(tái),無(wú)論是智能手機(jī)還是大型計(jì)算機(jī)、單個(gè)CPU/GPU計(jì)算機(jī)還是成百上千GPU卡組成的分布式系統(tǒng),ARM的還是X86的構(gòu)架,更通用;TensorFlow支持多種編程語(yǔ)言,提供了很多深度學(xué)習(xí)模型庫(kù),易使用;在很多指標(biāo)上,TensorFlow要比DistBelief要快一倍,更快。

但是,學(xué)術(shù)界和工程界的一些朋友并不喜歡這個(gè)“剛剛闖入”開(kāi)源界的“小伙子”,判了它“意義不大”的死刑。

“TensorFlow”之所以“開(kāi)源”卻不討好,是因?yàn)門ensorFlow不是第一個(gè)被開(kāi)源的深度學(xué)習(xí)系統(tǒng),并且目前只開(kāi)源了“單機(jī)版”,而非能夠識(shí)別貓的“分布式版本”。

除了并非第一以及只開(kāi)源了單機(jī)版代碼這兩點(diǎn)外,Google開(kāi)源TensorFlow這件事最被人詬病的地方在于,在“用事實(shí)”、“用數(shù)據(jù)”說(shuō)話的學(xué)術(shù)界、工程界,Google并未用“數(shù)據(jù)對(duì)比”證明TensorFlow的“靈活、更通用、易使用”。

對(duì)于TensorFlow,出門問(wèn)問(wèn)的看法是,TensorFlow對(duì)學(xué)術(shù)界意義不大,但是對(duì)工程界意義挺大。

TensorFlow對(duì)工程界有意義:其它開(kāi)源工具雖然眾多但對(duì)工程界很難有效使用Google這次開(kāi)源的TensorFlow是一種人工智能(更具體的說(shuō)是深度學(xué)習(xí))編程語(yǔ)言或計(jì)算框架,學(xué)術(shù)界從來(lái)都不缺少類似的開(kāi)源工具,尤其是“單機(jī)版工具包”有很多。

但是學(xué)術(shù)界的工具往往更多專注在核心算法上,在系統(tǒng)和工程方面比較欠缺,工業(yè)界很難直接有效的使用,而Google的TensorFlow在架構(gòu)設(shè)計(jì),跨平臺(tái)可移植性,算法可擴(kuò)展性等等偏工程方面會(huì)做的比較好。

所以,TensorFlow對(duì)學(xué)術(shù)界的幫助比較小,但對(duì)工業(yè)界的幫助有很大潛在可能性。

比如語(yǔ)音識(shí)別、自然語(yǔ)言理解、計(jì)算機(jī)視覺(jué)、廣告等等都可以應(yīng)用這種深度學(xué)習(xí)算法,Google也因?yàn)樯疃葘W(xué)習(xí)系統(tǒng)的應(yīng)用使得Google語(yǔ)音識(shí)別水平提高25%。

有意義歸有意義,意義的大小是另一回事了。在這個(gè)信息交流頻繁的時(shí)代,沒(méi)有公司能隨便制造一個(gè)具有超大意義的事件或者跨時(shí)代的黑科技產(chǎn)品。

對(duì)于工程界,TensorFlow有意義但又不是神乎其神的東西,尤其是Google目前開(kāi)源的“單機(jī)版”的TensorFlow意義要小一些。

因?yàn)樵诠こ探缋?,若要完成一整件事,如識(shí)別語(yǔ)音,TensorFlow這種通用深度學(xué)習(xí)框架的存在更多是錦上添花,而非決定根本。

比如說(shuō)在一個(gè)可以應(yīng)用的語(yǔ)音識(shí)別系統(tǒng)里,除了深度學(xué)習(xí)算法外,還有很多工作是專業(yè)領(lǐng)域相關(guān)的算法以及海量數(shù)據(jù)收集和工程系統(tǒng)架構(gòu)的搭建。其實(shí),對(duì)于中國(guó)來(lái)說(shuō),TensorFlow還有一個(gè)意義。

在人工智能大潮下許多人和公司想入局,但大都沒(méi)有能力理解并開(kāi)發(fā)一個(gè)與國(guó)際同步的深度學(xué)習(xí)系統(tǒng),而TensorFlow的存在會(huì)大大降低深度學(xué)習(xí)在各個(gè)行業(yè)中的應(yīng)用難度。

至于弄懂TensorFlow要花費(fèi)大量時(shí)間的問(wèn)題,就像很多公司用Linux或者h(yuǎn)adoop(一種分布式系統(tǒng)基礎(chǔ)架構(gòu))但很少有公司弄懂了所有源代碼一樣,可以把TensorFlow當(dāng)成一個(gè)黑盒,先快速用起來(lái),之后再根據(jù)數(shù)據(jù)和專業(yè)領(lǐng)域知識(shí)來(lái)調(diào)整。

總的來(lái)說(shuō),如果Google按照其所說(shuō)的那樣,在未來(lái)完全開(kāi)源TensorFlow——包括其“分布式版本”,那么TensorFlow對(duì)工程界的影響會(huì)更明顯些——尤其對(duì)中國(guó)創(chuàng)業(yè)公司來(lái)說(shuō)。

谷歌人工智能寫作項(xiàng)目:小發(fā)貓

谷歌云計(jì)算技術(shù)基礎(chǔ)架構(gòu),谷歌卷積神經(jīng)網(wǎng)絡(luò)

如何選擇深度學(xué)習(xí)框架 TensorFlow/Torch/Mxnet/Theano

深度學(xué)習(xí)目前的應(yīng)用領(lǐng)域很多,主要是計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理,以及各種預(yù)測(cè)等常見(jiàn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

對(duì)于計(jì)算機(jī)視覺(jué),可以做圖像分類、目標(biāo)檢測(cè)、視頻中的目標(biāo)檢測(cè)等,對(duì)于自然語(yǔ)言處理,可以做語(yǔ)音識(shí)別、語(yǔ)音合成、對(duì)話系統(tǒng)、機(jī)器翻譯、文章摘要、情感分析等。

對(duì)于剛?cè)胄猩疃葘W(xué)習(xí),想從事人工智能工業(yè)應(yīng)用和研發(fā)的小白來(lái)說(shuō),選擇文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-485239.html

到了這里,關(guān)于谷歌云計(jì)算技術(shù)基礎(chǔ)架構(gòu),谷歌卷積神經(jīng)網(wǎng)絡(luò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 人工智能領(lǐng)域:面試常見(jiàn)問(wèn)題超全(深度學(xué)習(xí)基礎(chǔ)、卷積模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)、預(yù)訓(xùn)練模型、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、推薦系統(tǒng)、模型壓縮、強(qiáng)化學(xué)習(xí)、元學(xué)習(xí))

    人工智能領(lǐng)域:面試常見(jiàn)問(wèn)題超全(深度學(xué)習(xí)基礎(chǔ)、卷積模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)、預(yù)訓(xùn)練模型、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、推薦系統(tǒng)、模型壓縮、強(qiáng)化學(xué)習(xí)、元學(xué)習(xí))

    【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、序列模型、預(yù)訓(xùn)練模型、對(duì)抗神經(jīng)網(wǎng)絡(luò)等 專欄詳細(xì)介紹:【深度學(xué)習(xí)入門到進(jìn)階】必看系列,含激活函數(shù)、優(yōu)化策略、損失函數(shù)、模型調(diào)優(yōu)、歸一化算法、卷積模型、

    2024年02月15日
    瀏覽(48)
  • Inception 深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)

    Inception 深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)

    Inception是一種深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),由Google在2014年提出。它是一種基于多尺度卷積的網(wǎng)絡(luò)結(jié)構(gòu),旨在解決傳統(tǒng)CNN在處理不同大小的輸入圖像時(shí)存在的問(wèn)題。 Inception的主要特點(diǎn)是使用了多個(gè)不同尺度的卷積核來(lái)提取不同尺度的特征。這些卷積核可以并行地應(yīng)用于輸入

    2024年02月12日
    瀏覽(35)
  • 計(jì)算機(jī)視覺(jué)-卷積神經(jīng)網(wǎng)絡(luò)

    計(jì)算機(jī)視覺(jué)-卷積神經(jīng)網(wǎng)絡(luò)

    目錄 計(jì)算機(jī)視覺(jué)的發(fā)展歷程 卷積神經(jīng)網(wǎng)絡(luò) 卷積(Convolution) 卷積計(jì)算 感受野(Receptive Field) 步幅(stride) 感受野(Receptive Field) 多輸入通道、多輸出通道和批量操作 卷積算子應(yīng)用舉例 計(jì)算機(jī)視覺(jué)作為一門讓機(jī)器學(xué)會(huì)如何去“看”的學(xué)科,具體的說(shuō),就是讓機(jī)器去識(shí)別攝

    2024年02月10日
    瀏覽(26)
  • 7.卷積神經(jīng)網(wǎng)絡(luò)與計(jì)算機(jī)視覺(jué)

    7.卷積神經(jīng)網(wǎng)絡(luò)與計(jì)算機(jī)視覺(jué)

    計(jì)算機(jī)視覺(jué)是一門研究如何使計(jì)算機(jī)識(shí)別圖片的學(xué)科,也是深度學(xué)習(xí)的主要應(yīng)用領(lǐng)域之一。 在眾多深度模型中,卷積神經(jīng)網(wǎng)絡(luò)“獨(dú)領(lǐng)風(fēng)騷”,已經(jīng)被稱為計(jì)算機(jī)視覺(jué)的主要研究根據(jù)之一。 卷積神經(jīng)網(wǎng)絡(luò)最初由 Yann LeCun(楊立昆)等人在1989年提出,是最初取得成功的深度神經(jīng)

    2024年04月10日
    瀏覽(23)
  • 神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計(jì)算公式、特征圖通道數(shù)(維度)變化實(shí)例

    神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計(jì)算公式、特征圖通道數(shù)(維度)變化實(shí)例

    卷積神經(jīng)網(wǎng)絡(luò),要特別注意輸入圖像的尺寸,如果想套用某個(gè)網(wǎng)絡(luò)結(jié)構(gòu),需要先通過(guò)網(wǎng)絡(luò)結(jié)構(gòu)計(jì)算出輸入圖像尺寸,將自己的圖像調(diào)整為所需要的尺寸;也可以根據(jù)自己的圖像尺寸適當(dāng)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。以下是具體操作方法。 目錄 一,要想計(jì)算圖像尺寸,先要了解基礎(chǔ)卷積等

    2024年02月03日
    瀏覽(29)
  • 計(jì)算機(jī)視覺(jué):深層卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建

    計(jì)算機(jī)視覺(jué):深層卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建

    上一節(jié)課程中我們學(xué)習(xí)了單卷積層的前向傳播,本次課程我們構(gòu)建一個(gè)具有三個(gè)卷積層的卷積神經(jīng)網(wǎng)絡(luò),然后從輸入(39*39*3)開(kāi)始進(jìn)行三次卷積操作,我們來(lái)看一下每次卷積的輸入和輸出維度的變化。 第一層使用3*3*3的過(guò)濾器來(lái)提取特征,那么f[1]=3,然后步長(zhǎng)s[1]=1,填充p[1]

    2024年02月10日
    瀏覽(30)
  • 深度學(xué)習(xí)基礎(chǔ)——卷積神經(jīng)網(wǎng)絡(luò)(一)

    深度學(xué)習(xí)基礎(chǔ)——卷積神經(jīng)網(wǎng)絡(luò)(一)

    卷積是卷積神經(jīng)網(wǎng)絡(luò)中的基本操作,對(duì)于圖像的特征提取有著關(guān)鍵的作用,本文首先介紹卷積的基本原理與作用,然后通過(guò)編寫程序?qū)崿F(xiàn)卷積操作,并展示了均值、高斯與sobel等幾種經(jīng)典卷積核的卷積效果,接著調(diào)用MindSpore中的卷積算子Conv2d來(lái)實(shí)現(xiàn)卷積操作,最后介紹了Mind

    2024年02月20日
    瀏覽(30)
  • 經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)之后的圖片的尺寸如何計(jì)算

    經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)處理后,圖片的尺寸會(huì)發(fā)生變化,這是由于卷積層、池化層等操作引起的。計(jì)算圖片經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)后的尺寸變化通常需要考慮卷積核大小、步幅(stride)、填充(padding)以及池化操作等因素。以下是計(jì)算過(guò)程的一般步驟:

    2024年02月10日
    瀏覽(24)
  • 【計(jì)算機(jī)視覺(jué)】萬(wàn)字長(zhǎng)文詳解:卷積神經(jīng)網(wǎng)絡(luò)

    【計(jì)算機(jī)視覺(jué)】萬(wàn)字長(zhǎng)文詳解:卷積神經(jīng)網(wǎng)絡(luò)

    以下部分文字資料整合于網(wǎng)絡(luò),本文僅供自己學(xué)習(xí)用! 如果輸入層和隱藏層和之前一樣都是采用全連接網(wǎng)絡(luò),參數(shù)過(guò)多會(huì)導(dǎo)致 過(guò)擬合 問(wèn)題,其次這么多的參數(shù)存儲(chǔ)下來(lái)對(duì)計(jì)算機(jī)的內(nèi)存要求也是很高的 解決這一問(wèn)題,就需要用到——卷積神經(jīng)網(wǎng)絡(luò) 這是一種理解卷積的角度(

    2024年02月19日
    瀏覽(40)
  • 【深度學(xué)習(xí)】計(jì)算機(jī)視覺(jué)(五)——卷積神經(jīng)網(wǎng)絡(luò)詳解

    【深度學(xué)習(xí)】計(jì)算機(jī)視覺(jué)(五)——卷積神經(jīng)網(wǎng)絡(luò)詳解

    卷積神經(jīng)網(wǎng)絡(luò)(CNN) 卷積神經(jīng)網(wǎng)絡(luò)基本上應(yīng)用于圖像數(shù)據(jù)。假設(shè)我們有一個(gè)輸入的大?。?8 * 28 * 3),如果我們使用正常的神經(jīng)網(wǎng)絡(luò),將有2352(28 * 28 * 3)參數(shù)。并且隨著圖像的大小增加參數(shù)的數(shù)量變得非常大。我們“卷積”圖像以減少參數(shù)數(shù)量。 CNN的輸入和輸出沒(méi)什么特別

    2024年02月06日
    瀏覽(34)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包