簡述對(duì)深度學(xué)習(xí)的理解 百度文庫
。
現(xiàn)在深度學(xué)習(xí)在機(jī)器學(xué)習(xí)領(lǐng)域是一個(gè)很熱的概念,不過經(jīng)過各種媒體的轉(zhuǎn)載播報(bào),這個(gè)概念也逐漸變得有些神話的感覺:例如,人們可能認(rèn)為,深度學(xué)習(xí)是一種能夠模擬出人腦的神經(jīng)結(jié)構(gòu)的機(jī)器學(xué)習(xí)方式,從而能夠讓計(jì)算機(jī)具有人一樣的智慧;而這樣一種技術(shù)在將來無疑是前景無限的。
那么深度學(xué)習(xí)本質(zhì)上又是一種什么樣的技術(shù)呢?深度學(xué)習(xí)是什么深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中對(duì)模式(聲音、圖像等等)進(jìn)行建模的一種方法,它也是一種基于統(tǒng)計(jì)的概率模型。
在對(duì)各種模式進(jìn)行建模之后,便可以對(duì)各種模式進(jìn)行識(shí)別了,例如待建模的模式是聲音的話,那么這種識(shí)別便可以理解為語音識(shí)別。
而類比來理解,如果說將機(jī)器學(xué)習(xí)算法類比為排序算法,那么深度學(xué)習(xí)算法便是眾多排序算法當(dāng)中的一種(例如冒泡排序),這種算法在某些應(yīng)用場景中,會(huì)具有一定的優(yōu)勢。
深度學(xué)習(xí)的“深度”體現(xiàn)在哪里論及深度學(xué)習(xí)中的“深度”一詞,人們從感性上可能會(huì)認(rèn)為,深度學(xué)習(xí)相對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)算法,能夠做更多的事情,是一種更為“高深”的算法。
而事實(shí)可能并非我們想象的那樣,因?yàn)閺乃惴ㄝ斎胼敵龅慕嵌瓤紤],深度學(xué)習(xí)算法與傳統(tǒng)的有監(jiān)督機(jī)器學(xué)習(xí)算法的輸入輸出都是類似的,無論是最簡單的LogisticRegression,還是到后來的SVM、boosting等算法,它們能夠做的事情都是類似的。
正如無論使用什么樣的排序算法,它們的輸入和預(yù)期的輸出都是類似的,區(qū)別在于各種算法在不同環(huán)境下的性能不同。那么深度學(xué)習(xí)的“深度”本質(zhì)上又指的是什么呢?
深度學(xué)習(xí)的學(xué)名又叫深層神經(jīng)網(wǎng)絡(luò)(DeepNeuralNetworks),是從很久以前的人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks)模型發(fā)展而來。
這種模型一般采用計(jì)算機(jī)科學(xué)中的圖模型來直觀的表達(dá),而深度學(xué)習(xí)的“深度”便指的是圖模型的層數(shù)以及每一層的節(jié)點(diǎn)數(shù)量,相對(duì)于之前的神經(jīng)網(wǎng)絡(luò)而言,有了很大程度的提升。
深度學(xué)習(xí)也有許多種不同的實(shí)現(xiàn)形式,根據(jù)解決問題、應(yīng)用領(lǐng)域甚至論文作者取名創(chuàng)意的不同,它也有不同的名字:例如卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks)、深度置信網(wǎng)絡(luò)(DeepBeliefNetworks)、受限玻爾茲曼機(jī)(RestrictedBoltzmannMachines)、深度玻爾茲曼機(jī)(DeepBoltzmannMachines)、遞歸自動(dòng)編碼器(RecursiveAutoencoders)、深度表達(dá)(DeepRepresentation)等等。
不過究其本質(zhì)來講,都是類似的深度神經(jīng)網(wǎng)絡(luò)模型。既然深度學(xué)習(xí)這樣一種神經(jīng)網(wǎng)絡(luò)模型在以前就出現(xiàn)過了,為什么在經(jīng)歷過一次沒落之后,到現(xiàn)在又重新進(jìn)入人們的視線當(dāng)中了呢?
這是因?yàn)樵谑畮啄昵暗挠布l件下,對(duì)高層次多節(jié)點(diǎn)神經(jīng)網(wǎng)絡(luò)的建模,時(shí)間復(fù)雜度(可能以年為單位)幾乎是無法接受的。
在很多應(yīng)用當(dāng)中,實(shí)際用到的是一些深度較淺的網(wǎng)絡(luò),雖然這種模型在這些應(yīng)用當(dāng)中,取得了非常好的效果(甚至是thestateofart),但由于這種時(shí)間上的不可接受性,限制了其在實(shí)際應(yīng)用的推廣。
而到了現(xiàn)在,計(jì)算機(jī)硬件的水平與之前已經(jīng)不能同日而語,因此神經(jīng)網(wǎng)絡(luò)這樣一種模型便又進(jìn)入了人們的視線當(dāng)中?!?012年6月,《紐約時(shí)報(bào)》披露了GoogleBrain項(xiàng)目,吸引了公眾的廣泛關(guān)注。
這個(gè)項(xiàng)目是由著名的斯坦福大學(xué)機(jī)器學(xué)習(xí)教授AndrewNg和在大規(guī)模計(jì)算機(jī)系統(tǒng)方面的世界頂尖專家JeffDean共同主導(dǎo),用16000個(gè)CPUCore的并行計(jì)算平臺(tái)訓(xùn)練一種稱為“深層神經(jīng)網(wǎng)絡(luò)”(DNN,DeepNeuralNetworks)”從GoogleBrain這個(gè)項(xiàng)目中我們可以看到,神經(jīng)網(wǎng)絡(luò)這種模型對(duì)于計(jì)算量的要求是極其巨大的,為了保證算法實(shí)時(shí)性,需要使用大量的CPU來進(jìn)行并行計(jì)算。
當(dāng)然,深度學(xué)習(xí)現(xiàn)在備受關(guān)注的另外一個(gè)原因,當(dāng)然是因?yàn)樵谀承﹫鼍跋拢@種算法模式識(shí)別的精度,超過了絕大多數(shù)目前已有的算法。
而在最近,深度學(xué)習(xí)的提出者修改了其實(shí)現(xiàn)代碼的Bug之后,這種模型識(shí)別精度又有了很大的提升。這些因素共同引起了深層神經(jīng)網(wǎng)絡(luò)模型,或者說深度學(xué)習(xí)這樣一個(gè)概念的新的熱潮。
深度學(xué)習(xí)的優(yōu)點(diǎn)為了進(jìn)行某種模式的識(shí)別,通常的做法首先是以某種方式,提取這個(gè)模式中的特征。這個(gè)特征的提取方式有時(shí)候是人工設(shè)計(jì)或指定的,有時(shí)候是在給定相對(duì)較多數(shù)據(jù)的前提下,由計(jì)算機(jī)自己總結(jié)出來的。
深度學(xué)習(xí)提出了一種讓計(jì)算機(jī)自動(dòng)學(xué)習(xí)出模式特征的方法,并將特征學(xué)習(xí)融入到了建立模型的過程中,從而減少了人為設(shè)計(jì)特征造成的不完備性。文章來源:http://www.zghlxwxcb.cn/news/detail-447422.html
而目前以深度學(xué)習(xí)為核心的某些機(jī)器學(xué)習(xí)應(yīng)用,在滿足特定條件的應(yīng)用場景文章來源地址http://www.zghlxwxcb.cn/news/detail-447422.html
到了這里,關(guān)于神經(jīng)網(wǎng)絡(luò)的心得體會(huì),神經(jīng)網(wǎng)絡(luò)心得體會(huì)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!