国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

文獻(xiàn)閱讀:Deep Learning based Semantic Communications: An Initial Investigation

這篇具有很好參考價值的文章主要介紹了文獻(xiàn)閱讀:Deep Learning based Semantic Communications: An Initial Investigation。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


論文簡介

  • 作者
    Huiqiang Xie
    Zhijin Qin
    Geoffrey Ye Liy
    Biing-Hwang Juangy

  • 發(fā)表期刊or會議
    《GLOBECOM》

  • 發(fā)表時間
    2020.12


動機(jī):為什么作者想要解決這個問題?

隨著新應(yīng)用的發(fā)展,需要開發(fā)新的通信系統(tǒng)以提高通信的準(zhǔn)確性和效率,作者通過考慮bit背后的語義來開發(fā)智能通信系統(tǒng)

文中對語義通信系統(tǒng)的解釋:
??所考慮的語義通信系統(tǒng)主要關(guān)注語義層面的信源編碼和信道編碼,其目的是提取數(shù)字比特背后的語義信息,而不是簡單地壓縮比特序列的長度,然后對語義信息進(jìn)行編碼,以確保接收者可以在失真后恢復(fù)原始語義信息
(即使提取出來bit背后的語義信息,還是要對語義信息編碼,這不還是在傳輸bit嗎,一定意義上確實不是簡單的壓縮了,是復(fù)雜的壓縮,hhhh……)


貢獻(xiàn):作者在這篇論文中完成了什么工作(創(chuàng)新點(diǎn))?

  • 基于 Transformer提出了一種新穎的 DeepSC 框架,可以有效地從文本中提取語義信息。在該框架中,設(shè)計了聯(lián)合語義-信道編碼來應(yīng)對信道噪聲和語義失真
  • DeepSC的收發(fā)器由語義編碼器、信道編碼器、信道解碼器和語義解碼器組成。為了理解語義并同時最大化系統(tǒng)容量,接收器使用兩個損失函數(shù)進(jìn)行優(yōu)化:交叉熵和互信息


說白了,就是設(shè)計一個網(wǎng)絡(luò),再設(shè)計損失函數(shù)的套路;換個網(wǎng)絡(luò)豈不是又是創(chuàng)新了


規(guī)劃:他們?nèi)绾瓮瓿晒ぷ鳎?/h3>
  • 整體框架

    文獻(xiàn)閱讀:Deep Learning based Semantic Communications: An Initial Investigation,智簡網(wǎng)絡(luò)&語義通信 文獻(xiàn)閱讀,深度學(xué)習(xí),人工智能,語義通信,6G
    所考慮的系統(tǒng)模型由兩個層次組成:語義層和傳輸層。語義層解決語義信息處理的編碼和解碼以提取語義信息;傳輸層保證語義信息能夠在傳輸介質(zhì)上正確交換。
    (語義層,虛線框里;傳輸層,虛線框外;這個semantic channel是抽象出來的概念吧)

    重要知識點(diǎn):
    ??對于編碼器和解碼器的端到端訓(xùn)練,信道必須允許反向傳播。物理信道可以通過神經(jīng)網(wǎng)絡(luò)來建模。例如,簡單的神經(jīng)網(wǎng)絡(luò)可用于對加性高斯白噪聲 (AWGN) 信道、乘性高斯噪聲信道和擦除信道進(jìn)行建模。而對于衰落通道,則需要更復(fù)雜的神經(jīng)網(wǎng)絡(luò)。在本文中,為了簡單起見,我們主要考慮 AWGN 信道。

  • 神經(jīng)網(wǎng)絡(luò)框架

    本文的框架有兩個技術(shù)需要關(guān)注:

    • 使用 DNN 聯(lián)合設(shè)計發(fā)射器和接收器
      通過在DL中采用自動編碼器結(jié)構(gòu),將E2E系統(tǒng)中的發(fā)送器和接收器作為E2E重建任務(wù)進(jìn)行聯(lián)合優(yōu)化
    • 語義-信道聯(lián)合編碼
      為了實現(xiàn)語義級別的成功恢復(fù),我們聯(lián)合設(shè)計了語義和信道編碼,以保持 s ^ \hat s s^ s s s之間的含義不變,這是通過新的 DNN 框架實現(xiàn)的
      (語義-信道聯(lián)合編碼的意義就是為了保持 s ^ \hat s s^ s s s之間的含義不變)
      [個人理解,這兩項技術(shù)是通過設(shè)計不同的loss函數(shù)實現(xiàn)的]

    看一下神經(jīng)網(wǎng)絡(luò)的整體框架:

    文獻(xiàn)閱讀:Deep Learning based Semantic Communications: An Initial Investigation,智簡網(wǎng)絡(luò)&語義通信 文獻(xiàn)閱讀,深度學(xué)習(xí),人工智能,語義通信,6G
    ??發(fā)射機(jī)由語義編碼器信道編碼器組成,語義編碼器用于從要傳輸?shù)奈谋局刑崛≌Z義特征,信道編碼器用于生成符號以方便后續(xù)傳輸。語義編碼器包括多個Transformer編碼器層,信道編碼器使用不同的全連接層;
    ??AWGN 信道被解釋為模型中的一層;
    ??DeepSC 接收器將用于符號檢測的信道解碼器和用于文本估計的語義解碼器組合在一起。信道解碼器具有不同全連接層,語義解碼器包括多個 Transformer 解碼器層。
    ??損失函數(shù)定義為: L total? = L C E ( s , s ^ ; α , β , χ , δ ) + λ L M I ( X , Y ; T , α , β ) \mathcal{L}_{\text {total }}=\mathcal{L}_{\mathrm{CE}}(\mathbf{s}, \hat{\mathbf{s}} ; \boldsymbol{\alpha}, \boldsymbol{\beta}, \boldsymbol{\chi}, \boldsymbol{\delta})+\lambda \mathcal{L}_{\mathrm{MI}}(\mathbf{X}, \mathbf{Y} ; T, \boldsymbol{\alpha}, \boldsymbol{\beta}) Ltotal??=LCE?(s,s^;α,β,χ,δ)+λLMI?(X,Y;T,α,β)
    ??其中第一項是考慮句子相似性的損失函數(shù),其目的是通過訓(xùn)練整個系統(tǒng)來最小化 s ^ \hat s s^ s s s之間的語義差異(也就是語義-信道聯(lián)合編碼的loss,語義-信道聯(lián)合編碼面向的好像是整個通信過程)。第二個是互信息的損失函數(shù),它最大化發(fā)射機(jī)訓(xùn)練期間實現(xiàn)的數(shù)據(jù)速率(也就是聯(lián)合設(shè)計發(fā)射器和接收器的loss,聯(lián)合設(shè)計發(fā)射器和接收器是X→channel→Y這一段)。
    ??關(guān)于 L C E \mathcal{L}_{\mathrm{CE}} LCE? L total? \mathcal{L}_{\text {total }} Ltotal??具體介紹見論文II.A和II.B

    接下來我們要進(jìn)行網(wǎng)絡(luò)的訓(xùn)練:

    ??由于損失函數(shù)不同,DeepSC 的訓(xùn)練過程分為兩個階段。
    ??第一階段是通過無監(jiān)督學(xué)習(xí)訓(xùn)練互信息模型,損失函數(shù)為 L M I \mathcal{L}_{\mathrm{MI}} LMI?,即聯(lián)合優(yōu)化發(fā)射器和接收器
    ??第二階段是以 L total? \mathcal{L}_{\text {total }} Ltotal??為損失函數(shù)來訓(xùn)練整個系統(tǒng)( L C E \mathcal{L}_{\mathrm{CE}} LCE?包含在 L total? \mathcal{L}_{\text {total }} Ltotal??中,所以此過程也優(yōu)化了語義-信道聯(lián)合編碼,猜測:之所以不把 L C E \mathcal{L}_{\mathrm{CE}} LCE?單獨(dú)拎出來作為loss訓(xùn)練,是因為 L total? \mathcal{L}_{\text {total }} Ltotal??作為損失函數(shù)效果更好)
    ??關(guān)于訓(xùn)練的具體流程,見論文III.A和III.B


理由:通過什么實驗驗證它們的工作結(jié)果

關(guān)于如何進(jìn)行對比試驗,具體見 論文 IV


自己的看法

語義通信較為早期的文章,并未對語義做具體的解釋,通讀文章后,給人的感覺語通信就是用神經(jīng)網(wǎng)絡(luò)咔咔組合,什么語義-信道聯(lián)合編碼,什么聯(lián)合設(shè)計收發(fā)器,就是神經(jīng)網(wǎng)絡(luò)。文章來源地址http://www.zghlxwxcb.cn/news/detail-679009.html

到了這里,關(guān)于文獻(xiàn)閱讀:Deep Learning based Semantic Communications: An Initial Investigation的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 論文閱讀06-Task Offloading Optimization in Mobile Edge Computing based on Deep Reinforcement Learning

    論文閱讀06-Task Offloading Optimization in Mobile Edge Computing based on Deep Reinforcement Learning

    標(biāo)題:Task Offloading Optimization in Mobile Edge Computing based on Deep Reinforcement Learning 會議:MSWiM ’23 (CCF-C) 注:本文僅用戶學(xué)習(xí)。 問題:邊緣計算可以很好地緩解云計算網(wǎng)絡(luò)擁塞和高通信開銷等問題。然而,考慮到邊緣計算資源是有限的,需要采用合理的優(yōu)化策略提高首先資源的

    2024年02月21日
    瀏覽(40)
  • 【論文閱讀】Resource Allocation for Text Semantic Communications

    【論文閱讀】Resource Allocation for Text Semantic Communications

    這是一篇關(guān)于語義通信中資源分配的論文。全文共5頁,篇幅較短。 語義通信在傳輸可靠性方面有著天然優(yōu)勢,而其中的資源分配更是保證語義傳輸可靠性和通信效率的關(guān)鍵所在,但目前還沒有研究者探索該領(lǐng)域。為了填補(bǔ)這一空白,我們研究了語義領(lǐng)域的頻譜效率,并重新

    2024年02月03日
    瀏覽(27)
  • An End-to-End Learning-Based Metadata Management Approach for Distributed File Systems——論文閱讀

    An End-to-End Learning-Based Metadata Management Approach for Distributed File Systems——論文閱讀

    TC 2022 Paper,元數(shù)據(jù)論文閱讀匯總 “multiple metadata server (MDS)” 多個元數(shù)據(jù)服務(wù)器 “l(fā)ocality preserving hashing (LPH)” 局部保持哈希 “Multiple Subset Sum Problem (MSSP).” 多子集和問題 “polynomial-time approximation scheme (PTAS)” 多項式時間近似方法 目前的分布式文件系統(tǒng)被設(shè)計用于支持 PB 規(guī)

    2024年02月02日
    瀏覽(24)
  • 【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    論文地址:https://doi.org/10.48550/arXiv.2109.14335 單幅圖像超分辨率(SISR)是圖像處理中的一項重要任務(wù),旨在提高成像系統(tǒng)的分辨率。近年來,在深度學(xué)習(xí)(DL)的幫助下,SISR取得了巨大的飛躍,并取得了可喜的成果。在本綜述中,我們對基于dl的SISR方法進(jìn)行了概述,并根據(jù)重建效率

    2024年02月08日
    瀏覽(34)
  • 語義通信經(jīng)典文章DeepSC:Deep Learning Enabled Semantic Communication Systems

    語義通信經(jīng)典文章DeepSC:Deep Learning Enabled Semantic Communication Systems

    作者 Huiqiang Xie Zhijin Qin Geoffrey Ye Li Biing-Hwang Juang 發(fā)表期刊or會議 《IEEE TRANSACTIONS ON SIGNAL PROCESSING》 發(fā)表時間 2021.4 這篇論文由《Deep Learning based Semantic Communications: An Initial Investigation》擴(kuò)展而來 框架或結(jié)構(gòu) 作用 DeepSC 最大化系統(tǒng)容量、最小化語義誤差 設(shè)計兩個Loss函數(shù) 理解語義

    2024年02月09日
    瀏覽(22)
  • Deep Learning for Natural Language Processing An Intro

    作者:禪與計算機(jī)程序設(shè)計藝術(shù) 深度學(xué)習(xí)的理論基礎(chǔ)、技術(shù)框架及最新進(jìn)展,以及自然語言處理領(lǐng)域的應(yīng)用前景,對于廣大從事自然語言處理研究和開發(fā)的同行來說都是一個重要的話題。近幾年,隨著深度學(xué)習(xí)技術(shù)的不斷推陳出新的熱潮,自然語言處理(NLP)也備受關(guān)注。

    2024年02月08日
    瀏覽(32)
  • 基于深度學(xué)習(xí)的語音識別(Deep Learning-based Speech Recognition)

    基于深度學(xué)習(xí)的語音識別(Deep Learning-based Speech Recognition)

    隨著科技的快速發(fā)展,人工智能領(lǐng)域取得了巨大的進(jìn)步。其中,深度學(xué)習(xí)算法以其強(qiáng)大的自學(xué)能力,逐漸應(yīng)用于各個領(lǐng)域,并取得了顯著的成果。在語音識別領(lǐng)域,基于深度學(xué)習(xí)的技術(shù)也已經(jīng)成為了一種主流方法,極大地推動了語音識別技術(shù)的發(fā)展。本文將從深度學(xué)習(xí)算法的

    2024年02月04日
    瀏覽(88)
  • 【論文閱讀】Deep Graph Contrastive Representation Learning

    【論文閱讀】Deep Graph Contrastive Representation Learning

    作者:Yanqiao Zhu Yichen Xu 文章鏈接:Deep Graph Contrastive Representation Learning 代碼鏈接:Deep Graph Contrastive Representation Learning 現(xiàn)實世界中,圖的標(biāo)簽數(shù)量較少,盡管GNNs蓬勃發(fā)展,但是訓(xùn)練模型時標(biāo)簽的可用性問題也越來越受到關(guān)心。 傳統(tǒng)的無監(jiān)督圖表征學(xué)習(xí)方法,例如DeepWalk和nod

    2024年01月18日
    瀏覽(21)
  • 論文閱讀:SuMa++: Efficient LiDAR-based Semantic SLAM

    論文閱讀:SuMa++: Efficient LiDAR-based Semantic SLAM

    來源:IROS 2019 鏈接:https://ieeexplore.ieee.org/document/8967704 可靠、準(zhǔn)確的定位和映射是大多數(shù)自動駕駛系統(tǒng)的關(guān)鍵組成部分。除了映射環(huán)境的幾何信息外,語義在實現(xiàn)智能導(dǎo)航行為方面也起著重要作用。在大多數(shù)現(xiàn)實環(huán)境中,由于移動對象引起的動態(tài)變換,這個任務(wù)特別復(fù)雜,這

    2024年03月12日
    瀏覽(29)
  • 【論文閱讀】The Deep Learning Compiler: A Comprehensive Survey

    【論文閱讀】The Deep Learning Compiler: A Comprehensive Survey

    論文來源:Li M , Liu Y , Liu X ,et al.The Deep Learning Compiler: A Comprehensive Survey[J]. 2020.DOI:10.1109/TPDS.2020.3030548. 這是一篇關(guān)于深度學(xué)習(xí)編譯器的綜述類文章。 什么是深度學(xué)習(xí)編譯器 深度學(xué)習(xí)(Deep Learning)編譯器將深度學(xué)習(xí)框架描述的模型在各種硬件平臺上生成有效的代碼實現(xiàn),其完

    2024年02月15日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包