国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

人工智能|各名稱與概念之介紹

這篇具有很好參考價值的文章主要介紹了人工智能|各名稱與概念之介紹。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

版權(quán)聲明:轉(zhuǎn)載必須注明本文轉(zhuǎn)自嚴(yán)振杰的博客:http://blog.yanzhenjie.com文章來源地址http://www.zghlxwxcb.cn/news/detail-840939.html

適莽蒼者,三餐而反,腹猶果然;適百里者,宿舂糧;適千里者,三月聚糧。
——莊周《逍遙游》

上文引用了戰(zhàn)國中期先秦道家學(xué)派的代表人物莊子的逍遙游選段,翻譯為白話文大致含義是:到近郊去的人,只帶當(dāng)天吃的三餐糧食,回來肚子還是飽飽的;到百里外的人,要用一整夜時間舂米準(zhǔn)備干糧;到千里外的人,要用三個月來聚集糧草。

我相信,看到這篇文章的人,一定是致千里者。

我最早接觸人工智能相關(guān)概念的時候大概是2019年,那時Google更新了TensorFlow,當(dāng)時判斷人工智能在未來肯定會越來越火,就建了個人工智能交流群,沒幾天500人的群就滿員了。

于是,我們開始入門了。剛?cè)腴T的時候遇到了很多與人工智能相關(guān)的概念,都不太了解什么意思,學(xué)習(xí)時腦袋就比較混亂,幸好我在CS領(lǐng)域有多年深耕經(jīng)驗,知道入門一個新領(lǐng)域時最好是對其有宏觀的認(rèn)識,然后再有計劃的學(xué)習(xí)細(xì)分領(lǐng)域。這也是我發(fā)這篇文章的原因,希望這篇文章可以幫助到后來的入門者。

1、人工智能相關(guān)概念

關(guān)于人工智能的發(fā)展歷史就不再介紹了,從人工智能的定義和歷史發(fā)展來看,它是一門內(nèi)容廣泛的學(xué)科。因此,在日常交流中,大家常常存在將人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、主動學(xué)習(xí)等混用的情況。

實際上,機(jī)器學(xué)習(xí)是人工智能的一個分支,它能夠從數(shù)據(jù)中自動分析獲得規(guī)律,對未知數(shù)據(jù)進(jìn)行預(yù)測。而人工神經(jīng)網(wǎng)絡(luò)則是人類模仿生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和功能提供的一種計算模型,屬于機(jī)器學(xué)習(xí)算法的一種。2012年,AlexNet獲得ImageNet挑戰(zhàn)賽冠軍后,深度學(xué)習(xí)就成為了熱門的機(jī)器學(xué)習(xí)算法。

1.1、人工智能的幾個重要概念

1.1.1、監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)的任務(wù)是學(xué)習(xí)一個模型,這個模型可以處理任意的一個輸入,并且針對每個輸入都可以映射輸出一個預(yù)測結(jié)果,這里模型就相當(dāng)于數(shù)學(xué)中一個函數(shù),輸入就相當(dāng)于數(shù)學(xué)中的X,而預(yù)測的結(jié)果就相當(dāng)于數(shù)學(xué)中的Y,對于每一個X,都可以通過一個映射函數(shù)映射出一個結(jié)果。

1.1.2、非監(jiān)督學(xué)習(xí)

非監(jiān)督學(xué)習(xí)是指直接對沒有標(biāo)記的訓(xùn)練數(shù)據(jù)進(jìn)行建模學(xué)習(xí)。注意,在這里的數(shù)據(jù)是沒有標(biāo)記的數(shù)據(jù),與監(jiān)督學(xué)習(xí)最基本的區(qū)別之一就是建模的數(shù)據(jù)是否有標(biāo)簽。例如聚類(將物理或抽象對象的集合分成由類似的對象組成的多個類的過程)就是一種典型的非監(jiān)督學(xué)習(xí),分類就是一種典型的監(jiān)督學(xué)習(xí)。

1.1.3、半監(jiān)督學(xué)習(xí)

當(dāng)有標(biāo)記的數(shù)據(jù)很少、未被標(biāo)記的數(shù)據(jù)很多,人工標(biāo)記又比較昂貴時,可以根據(jù)一些條件(查詢算法)查詢一些數(shù)據(jù),讓專家進(jìn)行標(biāo)記,這是半監(jiān)督學(xué)習(xí)與其他算法的本質(zhì)區(qū)別。所以說對主動學(xué)習(xí)的研究主要是設(shè)計一種框架模型,運用新的查詢算法查詢需要專家來人工標(biāo)注的數(shù)據(jù),最后用查詢到的樣本訓(xùn)練分類模型來提高模型的精確度。

1.1.4、主動學(xué)習(xí)

當(dāng)使用一些傳統(tǒng)的監(jiān)督學(xué)習(xí)方法做分類處理時,通常是訓(xùn)練樣本的規(guī)模越大,分類的效果就越好。但是在現(xiàn)實中的很多場景中,標(biāo)記樣本的獲取是比較困難的,因為這需要領(lǐng)域內(nèi)的專家來進(jìn)行人工標(biāo)注,所花費的時間成本和經(jīng)濟(jì)成本都很大。而且,如果訓(xùn)練樣本的規(guī)模過于龐大,則訓(xùn)練花費的時間也會比較多。那么問題來了:有沒有一種有效辦法,能夠使用較少的訓(xùn)練樣本來獲得性能較好的分類器呢?答案是肯定的,主動學(xué)習(xí)(ActiveLearning)提供了這種可能,主動學(xué)習(xí)通過一定的算法查詢出最有用的未標(biāo)記樣本,并交由專家進(jìn)行標(biāo)記,然后用查詢到的樣本訓(xùn)練分類模型來提高模型的精確度。

在人類的學(xué)習(xí)過程中,通常利用已有的經(jīng)驗來學(xué)習(xí)新的知識,又依靠獲得的知識來總結(jié)和積累經(jīng)驗,經(jīng)驗與知識不斷交互。同樣,機(jī)器學(xué)習(xí)就是模擬人類學(xué)習(xí)的過程,利用已有的知識訓(xùn)練出模型去獲取新的知識。并通過不斷積累的信息去修正模型,以得到更加準(zhǔn)確有用的新模型。不同于被動地接受知識,主動學(xué)習(xí)能夠有選擇性地獲取知識。

1.2、機(jī)器學(xué)習(xí)的分類

根據(jù)不同的劃分角度,可以將機(jī)器學(xué)習(xí)劃分為不同的類型。

1.2.1、按任務(wù)類型劃分

機(jī)器學(xué)習(xí)模型按任務(wù)類型可以分為回歸模型、分類模型和結(jié)構(gòu)化學(xué)習(xí)模型。具體說明如下:

  1. 回歸模型:又叫預(yù)測模型,輸出的是一個不能枚舉的數(shù)值。
  2. 分類模型:又分為二分類模型和多分類模型,常見的二分類問題有垃圾郵件過濾,常見的多分類問題有文檔自動歸類。
  3. 結(jié)構(gòu)化學(xué)習(xí)模型:此類型的輸出不再是一個固定長度的值,如圖片語義分析輸出是圖片的文字描述。
1.2.2、按方法劃分

機(jī)器學(xué)習(xí)按方法可以分為線性模型和非線性模型,具體說明如下:

  1. 線性模型:雖然比較簡單,但是其作用不可忽視,線性模型是非線性模型的基礎(chǔ),很多非線性模型都是在線性模型的基礎(chǔ)上變換而來的。
  2. 非線性模型:又可以分為傳統(tǒng)機(jī)器學(xué)習(xí)模型(如SVM、KNN、決策樹等)和深度學(xué)習(xí)模型。
1.2.3、按學(xué)習(xí)理論劃分

機(jī)器學(xué)習(xí)模型可以分為有監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)強(qiáng)化學(xué)習(xí),具體說明如下:

  1. 訓(xùn)練樣本帶有標(biāo)簽時是有監(jiān)督學(xué)習(xí)。
  2. 訓(xùn)練樣本部分有標(biāo)簽、部分無標(biāo)簽時是半監(jiān)督學(xué)習(xí)。
  3. 訓(xùn)練樣本全部無標(biāo)簽時是無監(jiān)督學(xué)習(xí)。
  4. 遷移學(xué)習(xí)就是把已經(jīng)訓(xùn)練好的模型參數(shù)遷移到新的模型上,以幫助新模型訓(xùn)練。
  5. 強(qiáng)化學(xué)習(xí)是一個學(xué)習(xí)最優(yōu)策略(Policy,可以讓本體(Agent)在特定環(huán)境(Environment)中,根據(jù)當(dāng)前狀態(tài)(State)做出行動(Action),從而獲得最大回報(Reward),強(qiáng)化學(xué)習(xí)和有監(jiān)督學(xué)習(xí)最大的不同是:每次的決定沒有對與錯,只是希望獲得最多的累積獎勵。

1.3、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)

機(jī)器學(xué)習(xí)是一種實現(xiàn)人工智能的方法,而深度學(xué)習(xí)是一種實現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)。深度學(xué)習(xí)本來并不是一種獨立的學(xué)習(xí)方法,其本身也會用到有監(jiān)督和無監(jiān)督的學(xué)習(xí)方法來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。但由于近幾年該領(lǐng)域發(fā)展迅猛,一些特有的學(xué)習(xí)手段相繼被提出(如殘差網(wǎng)絡(luò)等),因此越來越多的人將其單獨看作一種學(xué)習(xí)的方法。

假設(shè)需要識別某個照片是狗還是貓,如果是用傳統(tǒng)機(jī)器學(xué)習(xí)的方法,首先會定義一些特征,如有沒有胡須、耳朵、鼻子和嘴巴的特征等??傊?,首先要確定相應(yīng)的“面部特征”作為機(jī)器學(xué)習(xí)的特征,以此將對象進(jìn)行分類識別。而深度學(xué)習(xí)的方法則更進(jìn)一步,它會自動找出這個分類問題所需要的重要特征,而傳統(tǒng)機(jī)器學(xué)習(xí)則需要人工地給出特征。

我的理解是,其實深度學(xué)習(xí)并不是一個獨立的算法,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時候也通常會用到監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。但是由于一些獨特的學(xué)習(xí)方法被提出,也可以把它看成是單獨的一種學(xué)習(xí)算法。深度學(xué)習(xí)可以大致理解成包含多個隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),深度學(xué)習(xí)的深指的就是隱藏層的深度。

2、神經(jīng)網(wǎng)絡(luò)

2.1、CNN

CNN是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)的縮寫,是一種專門為處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù)(如圖像)而設(shè)計的深度學(xué)習(xí)架構(gòu)。CNN在圖像處理和計算機(jī)視覺領(lǐng)域特別成功,廣泛應(yīng)用于圖像識別、物體檢測、圖像分類、圖像分割、視頻分析和自然語言處理等任務(wù)。

CNN的核心思想是利用卷積運算來自動和有效地提取圖像中的局部特征,無需手動特征工程。卷積層通過濾波器(也叫卷積核或權(quán)重)在輸入圖像上滑動,計算局部區(qū)域的點積,并生成特征圖(feature map)來表示特定的視覺特征,如邊緣、角點或更復(fù)雜的紋理和形狀。

CNN通常由以下幾種類型的層組成:

  1. 卷積層(Convolutional Layer):使用卷積核提取輸入數(shù)據(jù)的特征。
  2. 激活層(Activation Layer):通常是非線性激活函數(shù),如ReLU,它增加了模型的非線性能力,使得網(wǎng)絡(luò)能夠捕捉更復(fù)雜的特征。
  3. 池化層(Pooling Layer):采用下采樣操作(如最大池化或平均池化)來減少特征圖的空間尺寸,減少參數(shù)數(shù)量,以及增加模型的不變性特性。
  4. 全連接層(Fully Connected Layer):通常放在網(wǎng)絡(luò)的最后幾層,這些層可將學(xué)習(xí)到的高層特征映射到最終的輸出,例如分類的類別。
  5. 歸一化層(Normalization Layer):例如批歸一化(Batch Normalization),用于調(diào)整神經(jīng)網(wǎng)絡(luò)中間層的激活值分布,以提高訓(xùn)練速度和穩(wěn)定性。
  6. 丟棄層(Dropout Layer):隨機(jī)丟棄網(wǎng)絡(luò)中的部分激活值,以避免過擬合。

2.2、RNN

RNN是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)的縮寫,是一種專門設(shè)計來處理序列數(shù)據(jù)的人工神經(jīng)網(wǎng)絡(luò)。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,RNN能夠處理任意長度的序列,因為它們具有內(nèi)部狀態(tài)(memory)來存儲前面的信息。

RNN設(shè)計用于處理序列數(shù)據(jù)和時間序列數(shù)據(jù),能夠?qū)π蛄兄械脑剡M(jìn)行建模,考慮到時間上的依賴關(guān)系。RNN的關(guān)鍵在于它們的循環(huán)連接,這使得網(wǎng)絡(luò)能夠?qū)⑿畔那靶虿襟E傳遞到當(dāng)前步驟,從而保持對先前元素的“記憶”。RNN在自然語言處理(NLP)、語音識別、時間序列預(yù)測等任務(wù)中非常有效。

RNN的主要問題是長期依賴問題,即難以捕捉長序列中的依賴關(guān)系,這通常表現(xiàn)為梯度消失或梯度爆炸。為了解決這些問題,研究者開發(fā)了LSTM(長短期記憶)和GRU(門控循環(huán)單元)等更高級的循環(huán)神經(jīng)網(wǎng)絡(luò)變體。

2.3、CNN與RNN的區(qū)別

  1. 數(shù)據(jù)類型:CNN主要用于圖像數(shù)據(jù),而RNN主要用于序列數(shù)據(jù)。
  2. 架構(gòu):CNN使用卷積層來提取空間特征,而RNN包含循環(huán)來處理時間序列。
  3. 應(yīng)用場景:CNN通常用于圖像和視頻處理任務(wù),如圖像分類、對象檢測和圖像分割。RNN經(jīng)常用于處理時間相關(guān)的任務(wù),如語言模型、機(jī)器翻譯、語音到文本轉(zhuǎn)換。
  4. 記憶能力:CNN沒有內(nèi)部狀態(tài),不保存先前的輸入信息,而RNN通過隱藏狀態(tài)保持對過去信息的記憶。
  5. 參數(shù)共享:CNN通過滑動卷積核實現(xiàn)參數(shù)共享,而RNN在時間步之間共享參數(shù)。
  6. 變體和改進(jìn):CNN可以通過添加特殊層(如批歸一化層)進(jìn)一步優(yōu)化,而RNN的改良通常涉及改變循環(huán)單元的結(jié)構(gòu)(如使用LSTM或GRU)。

2.4、其他

  1. 多層感知器(MLP):
    • 也稱為密集或全連接網(wǎng)絡(luò),是神經(jīng)網(wǎng)絡(luò)的最基本形式。
    • 每個神經(jīng)元與前一層的所有神經(jīng)元連接,沒有循環(huán)或卷積結(jié)構(gòu)。
    • 主要用于表格數(shù)據(jù)或不需要捕獲空間或時間依賴性的問題。
  2. 自編碼器(Autoencoders,AE):
    • 用于無監(jiān)督學(xué)習(xí),主要用于降維和特征學(xué)習(xí)。
    • 由編碼器和解碼器兩部分組成,編碼器將輸入壓縮成一個低維表示,解碼器將該表示重構(gòu)回原始輸入。
  3. 變分自編碼器(Variational Autoencoders,VAE):
    • 類似于傳統(tǒng)自編碼器,但它們產(chǎn)生的是輸入數(shù)據(jù)的概率分布。
    • 通常用于生成模型,可以生成新的、與訓(xùn)練數(shù)據(jù)類似的實例。
  4. 生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks, GAN):
    • 包含兩個部分:一個生成器和一個鑒別器。
    • 生成器嘗試生成逼真的數(shù)據(jù),鑒別器嘗試區(qū)分真實數(shù)據(jù)和生成器生成的數(shù)據(jù)。
    • 通常用于圖像生成、風(fēng)格轉(zhuǎn)換等。
  5. 長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM):
    • 一種特殊的RNN,通過引入門控制制解決了傳統(tǒng)RNN的梯度消失問題。
    • 在序列預(yù)測和自然語言處理領(lǐng)域得到了廣泛應(yīng)用。
  6. 門控循環(huán)單元(Gated Recurrent Unit,GRU):
    • 類似于LSTM,但結(jié)構(gòu)上更簡單,參數(shù)更少。
    • 用門控機(jī)制來控制信息流,同樣適用于處理序列數(shù)據(jù)。
  7. Transformers:
    • 側(cè)重于自注意力機(jī)制(self-attention),能夠處理整個輸入序列并捕獲遠(yuǎn)程依賴性。
    • 在NLP領(lǐng)域取得了顯著的成功,如BERT、GPT等模型都是基于Transformer架構(gòu)。
  8. 圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN):
    • 用于處理圖形數(shù)據(jù),如社交網(wǎng)絡(luò)、分子結(jié)構(gòu)或任何其他非歐幾里得數(shù)據(jù)。
    • 能夠捕獲節(jié)點之間的連接關(guān)系和網(wǎng)絡(luò)結(jié)構(gòu)信息。
  9. 卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(Convolutional Recurrent Neural Networks, CRNN):
    • 結(jié)合了CNN和RNN的特點,用于處理具有空間和時間維度的數(shù)據(jù),如視頻分析或圖像序列。
  10. Capsule Networks (CapsNets):
    • 試圖解決CNN在圖像處理中的一些限制,如空間層次關(guān)系和視角不變性問題。
    • 包含“膠囊”,其中包含了關(guān)于對象狀態(tài)的信息,以及動態(tài)路由協(xié)議。

3、模型格式轉(zhuǎn)換

3.1、ONNX

全稱Open Neural Network Exchange,是微軟主導(dǎo)的一個開放式深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型格式。該格式旨在通過一個統(tǒng)一的模型標(biāo)準(zhǔn),促進(jìn)不同人工智能框架之間的互操作性,從而建立一個強(qiáng)大的人工智能生態(tài)。是一個用于表示深度學(xué)習(xí)模型的開放標(biāo)準(zhǔn),它被設(shè)計成允許模型在不同的深度學(xué)習(xí)框架之間進(jìn)行轉(zhuǎn)換和互操作。支持TensorFlow、Keras、PyTorch、Caffe、CNTK、MXNet、Apache SINGA的轉(zhuǎn)換,并且在與這些框架的集成中扮演“中間人”的角色。

官網(wǎng):https://onnx.ai/
開源地址:https://github.com/onnx/onnx/

3.2、其他

除了ONNX,目前沒有廣泛接受的、類似范圍的通用標(biāo)準(zhǔn),但有一些其他工具和庫可以用于模型轉(zhuǎn)換和優(yōu)化:

  1. MMDNN(Model Management on Deep Neural Network):
    • 由微軟開發(fā),它是一個跨框架的深度學(xué)習(xí)模型轉(zhuǎn)換工具。
    • 支持多種格式之間的轉(zhuǎn)換,包括但不限于TensorFlow、Keras、PyTorch、Caffe和CNTK。
  2. TVM:
    • 一個開源機(jī)器學(xué)習(xí)編譯器棧,用于從多種框架(包括PyTorch、TensorFlow、MXNet和Keras)編譯和優(yōu)化模型,以便在各種硬件上運行。
    • 它提供了一個中間表示(IR)來優(yōu)化模型,并可以將模型編譯成高效的可執(zhí)行代碼。
  3. CoreMLTools:
    • Apple提供的一套工具,用于將多種深度學(xué)習(xí)模型轉(zhuǎn)換為蘋果設(shè)備的Core ML格式。
    • 支持TensorFlow、Keras、Caffe和其他框架的模型轉(zhuǎn)換。
  4. TF-TRT (TensorFlow-TensorRT Integration):
    • TensorFlow和NVIDIA TensorRT的集成,用于加速TensorFlow模型在NVIDIA GPU上的推理。
    • 它自動優(yōu)化和轉(zhuǎn)換TensorFlow圖以利用TensorRT的優(yōu)化。
  5. XLA (Accelerated Linear Algebra):
    • TensorFlow提供的一個編譯器,可以優(yōu)化TensorFlow模型的計算圖,以提高執(zhí)行效率和推理速度。
  6. OpenVINO Toolkit:
    • 由Intel推出,用于優(yōu)化和部署深度學(xué)習(xí)模型。
    • 支持多種格式的模型,包括ONNX、TensorFlow和Caffe,并且專門優(yōu)化了在Intel硬件(如CPU、GPU和VPU)上運行。

盡管上述工具和庫可能不如ONNX那樣專注于模型格式的標(biāo)準(zhǔn)化,但它們提供了在不同框架和平臺之間轉(zhuǎn)換、優(yōu)化和部署模型的功能。這些工具各有側(cè)重點,選擇時應(yīng)考慮模型的原始框架、目標(biāo)部署平臺和性能要求。

4、模型可視化工具

4.1、Netron

在人工智能領(lǐng)域,Netron是一個圖形化的工具,用于可視化和探索深度學(xué)習(xí)和機(jī)器學(xué)習(xí)模型的結(jié)構(gòu)。它支持多種不同的模型文件格式,包括常見的框架如TensorFlow、Keras、PyTorch、Caffe、ONNX、CoreML等。

  • 模型可視化:通過Netron,用戶可以直觀地查看模型的層次結(jié)構(gòu)、每層的參數(shù)和形狀、連接模式等信息。
  • 跨平臺兼容性:Netron可以作為Web應(yīng)用程序在瀏覽器中運行,也可以作為桌面應(yīng)用程序在Windows、macOS和Linux上運行。
  • 簡單易用:用戶只需將模型文件拖放到Netron中,就可以查看模型的結(jié)構(gòu)。沒有復(fù)雜的安裝或配置過程。
  • 模型探索:Netron允許用戶交互式地探索模型的細(xì)節(jié),例如點擊不同的層來查看其屬性和參數(shù)。
  • 模型共享:由于Netron提供了圖形化的模型表示,它可以幫助團(tuán)隊成員或合作伙伴之間更容易地討論和共享模型設(shè)計。
  • 無需運行模型:Netron用于靜態(tài)分析,因此不需要運行模型或安裝深度學(xué)習(xí)框架。

開源地址:https://github.com/lutzroeder/netron/
軟件下載:https://github.com/lutzroeder/netron/releases
網(wǎng)頁版:https://netron.app/

4.2、其他

  1. TensorBoard:
    • TensorFlow提供的一個可視化工具,可以展示模型的計算圖,監(jiān)控訓(xùn)練過程中的各種指標(biāo),如損失和準(zhǔn)確率,并分析模型的參數(shù)和性能。
    • 支持標(biāo)量、圖像、音頻、直方圖和嵌入向量等數(shù)據(jù)的可視化。
  2. TensorWatch:
    • 微軟推出的一個靈活的可視化工具,主要用于PyTorch。
    • 支持實時的數(shù)據(jù)流可視化,可以在Jupyter Notebook中使用,也可以創(chuàng)建獨立的實時圖表。
  3. Visdom:
    • 由Facebook研究團(tuán)隊開發(fā)的一個靈活的可視化工具,可以用于創(chuàng)建、組織和分享實時數(shù)據(jù)的可視化。
    • 支持多種數(shù)據(jù)類型的可視化,包括數(shù)值、圖像、文本、音頻和視頻數(shù)據(jù)。
  4. Weights & Biases:
    • 一個機(jī)器學(xué)習(xí)實驗跟蹤工具,可以幫助記錄和可視化模型的訓(xùn)練過程。
    • 提供了一個在線平臺,適用于多種深度學(xué)習(xí)框架,支持超參數(shù)優(yōu)化、模型版本控制和協(xié)作。
  5. What-If Tool:
    • 一個交互式可視化工具,用于分析機(jī)器學(xué)習(xí)模型的行為,尤其是在解釋模型預(yù)測和公平性方面。
    • 可以與TensorBoard配合使用,并支持多種數(shù)據(jù)格式和模型類型。
  6. PlotNeuralNet:
    • 一個LaTeX代碼庫,用于從代碼中生成卷積神經(jīng)網(wǎng)絡(luò)的高質(zhì)量架構(gòu)圖。
    • 需要LaTeX環(huán)境來編譯成圖形,并允許用戶自定義模型的外觀和布局。
  7. NN-SVG:
    • 一個在線工具,用于快速生成神經(jīng)網(wǎng)絡(luò)架構(gòu)的SVG圖像。
    • 用戶可以調(diào)整層數(shù)、神經(jīng)元數(shù)量和其他屬性,然后下載生成的圖像。

5、深度學(xué)習(xí)框架

本文介紹了目前比較主流的、我個人比較感興趣一些深度學(xué)習(xí)框架。

5.1、TensorFlow

  • 發(fā)展者與社區(qū): 由Google的Google Brain團(tuán)隊開發(fā),有著非?;钴S的社區(qū)和廣泛的工業(yè)支持。
  • 接口與使用: 提供了Python、C++等多種語言的API,以及高層API如tf.keras,適合各種用戶需求。
  • 設(shè)計和特點: 初版基于靜態(tài)計算圖,但從TensorFlow 2.0開始,默認(rèn)支持動態(tài)計算圖(Eager Execution)。
  • 擴(kuò)展性和部署: 支持多種硬件平臺,包括GPU和TPU,提供了TensorFlow Lite供移動和嵌入式設(shè)備使用。
  • 應(yīng)用范圍: 適用于廣泛的機(jī)器學(xué)習(xí)任務(wù),從研究到企業(yè)級生產(chǎn)均有廣泛應(yīng)用。

TensorFlow官網(wǎng):https://www.tensorflow.org/
TensorFlow Lite官網(wǎng):https://www.tensorflow.org/lite
開源地址:https://github.com/tensorflow/tensorflow

5.2、Keras

  • 發(fā)展者與社區(qū): 最初由Fran?ois Chollet單獨開發(fā),現(xiàn)在是TensorFlow的官方高級API。
  • 接口與使用: 提供了高度抽象化的API,使得構(gòu)建和訓(xùn)練模型變得簡單快捷,適合初學(xué)者和快速原型設(shè)計。
  • 設(shè)計和特點: 作為TensorFlow的一部分,與TensorFlow緊密集成,同時保持了獨立性和模塊化。
  • 擴(kuò)展性和部署: 作為TensorFlow的一部分,享受TensorFlow的擴(kuò)展性和部署能力。
  • 應(yīng)用范圍: Keras非常適合教學(xué)和快速開發(fā),但對于一些需要高度定制化的復(fù)雜模型,可能會使用TensorFlow的低級API。

Keras在2017年被集成進(jìn)TensorFlow,在TensorFlow 2.0版本中,Keras被正式確立為TensorFlow的高級API,即tf.keras。

官網(wǎng):https://keras.io/
開源地址:https://github.com/keras-team/keras

5.3、PyTorch

  • 發(fā)展者與社區(qū): 由Facebook的AI研究團(tuán)隊開發(fā),并且在學(xué)術(shù)界有很大影響力和強(qiáng)大的社區(qū)。
  • 接口與使用: 提供了以Python為中心的API,充分利用了Python的動態(tài)特性,使原型設(shè)計和實驗更加自然。
  • 設(shè)計和特點: 采用動態(tài)計算圖,即定義即運行(define-by-run)方式,非常適合研究和動態(tài)變化的模型。
  • 擴(kuò)展性和部署: 可以導(dǎo)出為ONNX格式,與其他工具配合實現(xiàn)跨平臺部署。有一定的移動端支持。
  • 應(yīng)用范圍: 在學(xué)術(shù)研究中非常受歡迎,也適用于工業(yè)應(yīng)用,尤其是在快速原型設(shè)計和迭代中。

官網(wǎng):https://pytorch.org/
開源地址:https://github.com/pytorch/pytorch

5.4、Caffe

  • 發(fā)展者與社區(qū): 由加州大學(xué)伯克利分校的BVLC團(tuán)隊開發(fā),社區(qū)相對于TensorFlow和PyTorch較小。
  • 接口與使用: 主要使用配置文件定義模型結(jié)構(gòu),同時提供了Python和C++的API,但沒有TensorFlow和PyTorch那么靈活。
  • 設(shè)計和特點: 高性能的前向傳播和速度優(yōu)化,適合于圖像分類和其他視覺任務(wù)。
  • 擴(kuò)展性和部署: 主要優(yōu)化了在GPU上的部署,但在移動端和嵌入式設(shè)備支持方面不如TensorFlow和PyTorch。
  • 應(yīng)用范圍: 因其高效的性能,Caffe經(jīng)常用于工業(yè)產(chǎn)品和科研中的模型訓(xùn)練和部署,尤其是計算機(jī)視覺任務(wù)。

官網(wǎng):https://caffe.berkeleyvision.org/
開源地址:https://github.com/BVLC/caffe

5.5、Core ML

Core ML 并不是一個開源項目,它是蘋果公司開發(fā)的專有框架,用于在 iOS、macOS、tvOS 和 watchOS 上運行機(jī)器學(xué)習(xí)模型。由于它是專有的,沒有公開的源代碼可供下載或修改。

蘋果公司的 Core ML 官方主頁提供了關(guān)于 Core ML 的詳細(xì)信息和文檔,包括如何開始使用 Core ML、如何轉(zhuǎn)換和訓(xùn)練模型、以及 Core ML 支持的模型格式等。

官網(wǎng):https://developer.apple.com/machine-learning/

5.6、總結(jié)深度學(xué)習(xí)框架

總的來說,我個人比較推薦TensorFlow和PyTorch,它們都是完整的深度學(xué)習(xí)框架,支持廣泛的應(yīng)用,并且它們的社區(qū)和工具都在不斷發(fā)展。Caffe在某些特定的領(lǐng)域如計算機(jī)視覺中仍然是一個高效可靠的選擇,盡管它的流行度可能不如前兩者。而Keras提供了一個用戶友好的接口,使得深度學(xué)習(xí)更加容易上手,是學(xué)習(xí)和快速開發(fā)的首選。

6、國內(nèi)深度學(xué)習(xí)推理引擎

主要介紹幾個國內(nèi)開源的深度學(xué)習(xí)推理引擎。

6.1、MNN

MNN(Mobile Neural Network)由阿里巴巴出品,是一個輕量級、高性能的深度學(xué)習(xí)框架,專門針對移動端和邊緣設(shè)備設(shè)計。MNN的目標(biāo)是幫助開發(fā)者和企業(yè)能夠在移動設(shè)備上高效地部署和運行深度學(xué)習(xí)模型,特別是在資源有限的環(huán)境下。

  • 輕量化:MNN專為移動設(shè)備優(yōu)化,擁有較小的運行時庫,能夠減少應(yīng)用的資源消耗。
  • 跨平臺支持:MNN支持包括Android、iOS以及Linux等多個平臺,同時支持ARM、x86、MIPS等不同架構(gòu)的處理器。
  • 高性能:MNN針對移動端處理器進(jìn)行了深度優(yōu)化,包括對ARM CPU的NEON指令集優(yōu)化、對GPU的OpenCL和Metal優(yōu)化,以及對NPU(神經(jīng)網(wǎng)絡(luò)處理單元)的適配,可充分利用設(shè)備的計算資源。
  • 易用性:MNN提供了簡潔的API,便于開發(fā)者快速集成和使用。它支持ONNX、Caffe、TensorFlow等多種模型格式,方便開發(fā)者導(dǎo)入和轉(zhuǎn)換已有模型。
  • 多后端支持:MNN可以根據(jù)不同的硬件條件自動選擇最佳的計算后端執(zhí)行計算任務(wù),包括CPU、GPU、NPU等。
  • 自動調(diào)度和內(nèi)存復(fù)用:MNN內(nèi)部實現(xiàn)了智能的算子調(diào)度和內(nèi)存管理,減少內(nèi)存占用和計算延遲。
  • 自定義算子:如果遇到MNN不支持的算子,開發(fā)者還可以自定義算子以滿足特殊需求。

官網(wǎng):https://www.mnn.zone/
開源地址:https://github.com/alibaba/MNN

6.2、NCNN

NCNN(Neural Network Inference Framework)由騰訊出品,是騰訊優(yōu)圖實驗室開發(fā)的高性能神經(jīng)網(wǎng)絡(luò)前向推理框架,專為移動端和邊緣設(shè)備設(shè)計,具有輕量級和高效率的特點。

  • 輕量級:NCNN 設(shè)計目標(biāo)是保持足夠的輕量級,以便于在移動設(shè)備上快速部署和執(zhí)行。
  • 高性能:它通過優(yōu)化執(zhí)行速度來盡可能利用移動設(shè)備的計算資源,包括對 ARM CPU 的 NEON 指令集、Vulkan 計算著色器、OpenCL 和多線程的支持。
  • 不依賴第三方庫:NCNN 盡量減少依賴,不需要依賴 BLAS 或 CNN 等第三方庫,這使得在移動端部署時更加簡潔和方便。
  • 支持多種模型格式:提供了工具來轉(zhuǎn)換包括 Caffe、ONNX、PyTorch 和 TensorFlow 在內(nèi)的多種模型到 NCNN 的格式。
  • 易于集成:NCNN 提供了簡單而直觀的 API,使得將預(yù)訓(xùn)練模型集成到移動應(yīng)用變得非常簡單。
  • 跨平臺支持:支持在 Android、iOS、Windows 和 Linux 等多種平臺上運行。

開源地址:https://github.com/Tencent/ncnn

6.3、MindSpore

MindSpore是華為推出的一個全場景深度學(xué)習(xí)框架,移動端部署需要使用MindSpore Lite

  • 輕量級:相較于完整版的MindSpore,Lite版本更小巧,適用于計算能力和存儲空間受限的移動設(shè)備。
  • 跨平臺支持:支持Android和iOS等移動操作系統(tǒng),方便開發(fā)者將AI模型部署到各種智能手機(jī)和平板電腦上。
  • 優(yōu)化的性能:針對移動和端側(cè)設(shè)備進(jìn)行了性能優(yōu)化,以提高運算速度和效率,減少功耗。
  • 易用的工具鏈:提供工具鏈支持,包括模型轉(zhuǎn)換工具,可以將MindSpore或其他框架(如ONNX)的模型轉(zhuǎn)換為MindSpore Lite模型。
  • 豐富的算子庫:包含了豐富的算子(操作),以支持多種AI場景下的計算需求。

MindSpore官網(wǎng):https://www.mindspore.cn/
MindSpore Lite官網(wǎng):https://www.mindspore.cn/lite
開源地址:https://github.com/mindspore-ai/mindspore

6.4、mace

MACE(Mobile AI Compute Engine)是小米開源的一個深度學(xué)習(xí)推理框架,專門設(shè)計用于在移動端和嵌入式設(shè)備上優(yōu)化和運行機(jī)器學(xué)習(xí)模型。MACE支持多種平臺,包括Android和iOS設(shè)備,以及支持ARM架構(gòu)的Linux設(shè)備。

  • 跨平臺:提供對Android和iOS操作系統(tǒng)的支持,使得開發(fā)者能夠輕松地將訓(xùn)練好的模型部署到多種移動設(shè)備上。
  • 多后端支持:支持在CPU、GPU和DSP等多種計算單元上運行模型,利用OpenCL和OpenGL等技術(shù)實現(xiàn)跨設(shè)備的通用性和高性能。
  • 模型轉(zhuǎn)換工具:包含模型轉(zhuǎn)換器,可以將Caffe、TensorFlow、ONNX等格式的模型轉(zhuǎn)換為MACE支持的格式。
  • 優(yōu)化的性能:針對移動設(shè)備的計算資源進(jìn)行優(yōu)化,提高模型運行效率,減少延遲和功耗。
  • 易用性:提供了易于使用的接口和詳細(xì)的文檔,幫助開發(fā)者快速上手并部署他們的模型。
  • 算子庫:包含了豐富的預(yù)定義算子(operations),滿足常見深度學(xué)習(xí)模型的需求。

官網(wǎng):https://mace.readthedocs.io/
開源地址:https://github.com/XiaoMi/mace

6.5、PaddlePaddle

PaddlePaddle是由百度推出的開源深度學(xué)習(xí)平臺,支持多種深度學(xué)習(xí)模型,并且特別優(yōu)化了在百度大規(guī)模應(yīng)用中的一些實用功能。

  • 跨平臺兼容性:支持多種操作系統(tǒng),包括Android、iOS、Linux等,并支持ARM、X86、OpenCL、Metal、CUDA等多種后端。
  • 輕量化設(shè)計:為了適應(yīng)移動端和嵌入式設(shè)備的性能和存儲限制,PaddlePaddle Lite優(yōu)化了內(nèi)存占用和運行速度,使之成為一個輕量級推理引擎。
  • 優(yōu)化的性能:通過內(nèi)核級優(yōu)化、算子融合、內(nèi)存復(fù)用等技術(shù)實現(xiàn)了高性能的深度學(xué)習(xí)模型推理。
  • 易于集成:提供了簡潔的API接口,便于將PaddlePaddle Lite集成到移動端應(yīng)用中。
  • 模型轉(zhuǎn)換工具:配備了模型優(yōu)化工具,可以將PaddlePaddle格式的模型轉(zhuǎn)換為PaddlePaddle Lite支持的格式,并對模型進(jìn)行優(yōu)化以提高在端側(cè)設(shè)備上的性能。

官網(wǎng):https://www.paddlepaddle.org.cn/
PaddlePaddle開源地址:https://github.com/PaddlePaddle
Paddle-Lite開源地址:https://github.com/PaddlePaddle/Paddle-Lite

6.6、MegEngine

MegEngine是曠視公司自主研發(fā)的深度學(xué)習(xí)框架,于2020年3月25日全面開源。MegEngine 致力于提供高性能和易用性,支持廣泛的AI應(yīng)用,從圖像和視頻分析到語音識別和自然語言處理。

  • 易用性:提供了 Python API,使得構(gòu)建和訓(xùn)練模型的過程變得簡單直觀。
  • 高性能:通過高效的張量操作和自動微分系統(tǒng),以及優(yōu)化后的內(nèi)存使用和計算圖執(zhí)行,MegEngine 旨在提供高效的模型訓(xùn)練和推理。
  • 分布式訓(xùn)練:支持多GPU和跨節(jié)點的分布式訓(xùn)練,使得處理大規(guī)模數(shù)據(jù)集和復(fù)雜模型成為可能。
  • 模型轉(zhuǎn)換和優(yōu)化:MegEngine 提供了一系列用于模型優(yōu)化和量化的工具,以減小模型大小并加快推理速度,適應(yīng)各種計算環(huán)境。

官網(wǎng):https://www.megengine.org.cn/
開源地址:https://github.com/MegEngine/MegEngine

6.7、OneFlow

OneFlow 是OneFlow Inc.(一流科技有限公司)開發(fā)病開源的,OneFlow 旨在為用戶提供易用、高效和可擴(kuò)展的深度學(xué)習(xí)工具,特別強(qiáng)調(diào)在大規(guī)模分布式環(huán)境中的性能和靈活性。

  • 性能優(yōu)化:OneFlow 設(shè)計了新穎的底層框架,用于提高計算和內(nèi)存利用率,尤其關(guān)注大規(guī)模分布式訓(xùn)練的性能優(yōu)化。
  • 易用性:提供了類似于 PyTorch 的接口,使用戶可以輕松遷移現(xiàn)有的 PyTorch 代碼,同時保持性能優(yōu)勢。
  • 動靜態(tài)圖兼容:支持動態(tài)圖和靜態(tài)圖兩種編程范式,用戶可以根據(jù)需求靈活選擇。
  • 分布式訓(xùn)練:內(nèi)置了先進(jìn)的分布式訓(xùn)練策略,支持各種分布式訓(xùn)練場景,包括數(shù)據(jù)并行、模型并行和流水線并行。
  • 自動混合精度:支持自動混合精度訓(xùn)練,能夠在保持模型精度的同時減少內(nèi)存消耗和提高訓(xùn)練速度。

官網(wǎng):https://oneflow.org
開源地址:https://github.com/Oneflow-Inc/oneflow

本文完。

特別說明:本文部分內(nèi)容來自AI大模型,如有錯誤請評論指出,不勝感激!


本文參考了以下文獻(xiàn):

  • 《TensorFlow Lite移動端深度學(xué)習(xí)》——朱元濤
  • 《PyTorch神經(jīng)網(wǎng)絡(luò)實戰(zhàn)》——叢曉峰、彭程威、章軍

版權(quán)聲明:轉(zhuǎn)載必須注明本文轉(zhuǎn)自嚴(yán)振杰的博客:http://blog.yanzhenjie.com

到了這里,關(guān)于人工智能|各名稱與概念之介紹的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【Python/人工智能】TensorFlow 框架原理及使用教程

    【Python/人工智能】TensorFlow 框架原理及使用教程

    TensorFlow 是一款由 Google 開源的人工智能框架,是目前應(yīng)用最廣泛的深度學(xué)習(xí)框架之一。它可以在各種硬件平臺上運行,包括單個 CPU、CPU 集群、GPU,甚至是分布式環(huán)境下的 CPU 和 GPU 組合。 除了深度學(xué)習(xí)領(lǐng)域,TensorFlow 還支持其他機(jī)器學(xué)習(xí)算法和模型,如 決策樹 、 SVM 、 k-m

    2024年04月28日
    瀏覽(24)
  • 人工智能:Pytorch,TensorFlow,MXNET,PaddlePaddle 啥區(qū)別?

    學(xué)習(xí)人工智能的時候碰到各種深度神經(jīng)網(wǎng)絡(luò)框架:pytorch,TensorFlow,MXNET,PaddlePaddle,他們有什么區(qū)別? PyTorch、TensorFlow、MXNet和PaddlePaddle都是深度學(xué)習(xí)領(lǐng)域的開源框架,它們各自具有不同的特點和優(yōu)勢。以下是它們之間的主要區(qū)別: PyTorch是一個開源的Python機(jī)器學(xué)習(xí)庫,它基

    2024年04月16日
    瀏覽(31)
  • 人工智能TensorFlow PyTorch物體分類和目標(biāo)檢測合集【持續(xù)更新】

    人工智能TensorFlow PyTorch物體分類和目標(biāo)檢測合集【持續(xù)更新】

    1. 基于TensorFlow2.3.0的花卉識別 基于TensorFlow2.3.0的花卉識別Android APP設(shè)計_基于安卓的花卉識別_lilihewo的博客-CSDN博客 2. 基于TensorFlow2.3.0的垃圾分類 基于TensorFlow2.3.0的垃圾分類Android APP設(shè)計_def model_load(img_shape=(224, 224, 3)_lilihewo的博客-CSDN博客 ? 3. 基于TensorFlow2.3.0的果蔬識別系統(tǒng)的

    2024年02月09日
    瀏覽(95)
  • 魚類識別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚類識別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚類識別系統(tǒng)。使用Python作為主要編程語言開發(fā),通過收集常見的30種魚類(‘墨魚’, ‘多寶魚’, ‘帶魚’, ‘石斑魚’, ‘秋刀魚’, ‘章魚’, ‘紅魚’, ‘羅非魚’, ‘胖頭魚’, ‘草魚’, ‘銀魚’, ‘青魚’, ‘馬頭魚’, ‘魷魚’, ‘鲇魚’, ‘鱸魚’, ‘鮑魚’, ‘鮭

    2024年02月02日
    瀏覽(113)
  • 人工智能的技術(shù)概念解釋

    人工智能的技術(shù)概念解釋

    1、SFT是監(jiān)督微調(diào)(Supervised Fine-Tun-ing)的縮寫。這是一種常見的深度學(xué)習(xí)策略,通常在預(yù)訓(xùn)練的大語言模型上使用。 參考該文 2、強(qiáng)化學(xué)習(xí)(Reinforcement Learning) 1)強(qiáng)化學(xué)習(xí)是 智能體(Agent)以“試錯”的方式進(jìn)行學(xué)習(xí),通過與環(huán)境(Environment)進(jìn)行交互獲得的獎賞(Reward)驅(qū)動行為

    2024年01月17日
    瀏覽(108)
  • 【人工智能】AGI 通用人工智能基礎(chǔ)概念、實現(xiàn)原理、挑戰(zhàn)和發(fā)展前景

    【人工智能】AGI 通用人工智能基礎(chǔ)概念、實現(xiàn)原理、挑戰(zhàn)和發(fā)展前景

    Artificial intelligence prompt completion by dalle mini, https://github.com/borisdayma/dalle-mini 隨著計算機(jī)技術(shù)、機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)等技術(shù)的發(fā)展,人工智能(Artificial Intelligence, AI)已經(jīng)成為當(dāng)今計算機(jī)科學(xué)和工程領(lǐng)域的熱門話題之一。 強(qiáng)人工智能(Strong AI)或通用人工智能(英語:Artificia

    2024年02月09日
    瀏覽(111)
  • 詳解人工智能(概念、發(fā)展、機(jī)遇與挑戰(zhàn))

    詳解人工智能(概念、發(fā)展、機(jī)遇與挑戰(zhàn))

    人工智能(Artificial Intelligence,簡稱AI)是一門新興的技術(shù)科學(xué),是指通過模擬、延伸和擴(kuò)展人類智能的理論、方法、技術(shù)和應(yīng)用系統(tǒng),以實現(xiàn)對人類認(rèn)知、決策、規(guī)劃、學(xué)習(xí)、交流、創(chuàng)造等智能行為的模擬、延伸和擴(kuò)展。 它是智能學(xué)科的重要組成部分,涉及多個學(xué)科領(lǐng)域的

    2024年04月10日
    瀏覽(27)
  • 【人工智能】MAAS 模型即服務(wù):概念、應(yīng)用場景、優(yōu)勢、挑戰(zhàn)等 —— 我們?nèi)祟愐呀?jīng)進(jìn)入人工智能大模型時代

    目錄 導(dǎo)言 一、MAAS概述 二、MAAS的應(yīng)用場景 1. 自然語言處理(NLP)

    2024年02月06日
    瀏覽(101)
  • <AIGC>揭秘人工智能生成內(nèi)容的核心概念

    <AIGC>揭秘人工智能生成內(nèi)容的核心概念

    什么是AIGC? AIGC基于什么技術(shù)實現(xiàn)? 什么是向量庫? 什么是數(shù)據(jù)集? 各領(lǐng)域成熟的AIGC產(chǎn)品? 本篇文章內(nèi)容80%來自一個名為AIGC領(lǐng)域?qū)<业腉PT,由我進(jìn)行整理和優(yōu)化其輸出的內(nèi)容。 他的Prompt設(shè)置為 你擁有多年的AIGC領(lǐng)域經(jīng)驗,請以AIGC領(lǐng)域?qū)<业慕嵌缺M可能全面的回答我的相關(guān)問題。

    2024年02月10日
    瀏覽(107)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包