国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】Resource Allocation for Text Semantic Communications

這篇具有很好參考價值的文章主要介紹了【論文閱讀】Resource Allocation for Text Semantic Communications。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

這是一篇關于語義通信中資源分配的論文。全文共5頁,篇幅較短。

摘要

語義通信在傳輸可靠性方面有著天然優(yōu)勢,而其中的資源分配更是保證語義傳輸可靠性和通信效率的關鍵所在,但目前還沒有研究者探索該領域。為了填補這一空白,我們研究了語義領域的頻譜效率,并重新思考語義感知資源分配問題。具體來說,以文本語義通信為例,首次定義了語義譜效率(S-SE),并用于根據通道分配和傳輸的語義符號的數量來優(yōu)化資源分配。此外,為了公平地比較語義通信系統(tǒng)和傳統(tǒng)通信系統(tǒng),開發(fā)了一種變換方法,將傳統(tǒng)的基于比特的頻譜效率轉換為S-SE。仿真結果表明了所提出的資源分配方法的有效性和可行性,以及語義通信在S-SE方面的優(yōu)越性。

關鍵字

語義通信 語義譜效率 資源分配

引言

語義通信

大家都知道,自從信息革命爆發(fā)以來,我們的信息量(數據量)也在不斷膨脹。以往當我們進行通信時,是將信息放在信源上,系統(tǒng)就會像快遞小哥,發(fā)給信宿。
【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀
但在這個萬物互聯的時代,我們的信道已經接近極限,但仍然不足以傳輸所有數據。這時,語義通信應運而生。
語義通信采用“先理解后發(fā)送”的機制,我們不必發(fā)送所有信息,僅僅發(fā)送最有價值,能夠表達意思的信息就可以。

那語義通信怎么工作的呢,或是它的總體架構是怎么樣子的?,F在,語義通信研究還處于起步階段,不同的研究團隊有著不同的架構設計。而且,針對不同的通信類型(文本通信,音視頻通信,圖像通信等),語義通信的架構也隨之不同。

資源分配

在無線通信中,如何測量信息內容以及頻譜效率(SE)是資源分配的基礎。我們需要從語義角度重新考慮資源分配。

盡管仍然缺乏完整的數據模型,但借助深度學習(DL)的語義系統(tǒng)設計,可以使得在語義域內定義可計算的SE。在本文中,我們以 DeepSC 為例來探索這種語義感知網絡中的 SE 問題和資源分配問題。

貢獻

  • 針對語義感知網絡提出了一種新的資源分配模型。具體來說,首先定義語義譜效率(S-SE)從語義的角度來衡量通信效率。然后提出了一種新的公式,并在信道分配和傳輸的語義符號的數量方面最大化整體S-SE。
  • 為了公平地比較語義通信系統(tǒng)和傳統(tǒng)通信系統(tǒng),開發(fā)了一種變換方法將基于比特的SE轉換為S-SE。
  • 仿真結果驗證了所提出的資源分配模型的有效性,以及語義通信系統(tǒng)在S-SE方面的優(yōu)越性。

公式符號

符號 含義
R n × m \mathbb{R}^{n\times m} Rn×m 大小為 n x m 的真實集合
x \mathbf{x} x 向量
X \mathbf{X} X 矩陣
x ~ C N ( μ , σ 2 ) x \sim \mathcal{CN}(\mu, \sigma^2) xCN(μ,σ2) x服從循環(huán)對稱復高斯分布

系統(tǒng)模型

現在考慮如下圖所示的蜂窩網絡架構1。該架構有一個基站,N個移動站。
【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀

DeepSC 被用作語義通信模型,并配備每個用戶進行文本傳輸,其中底層文本的語義可以通過 Transformer 有效地提取。假設DeepSC收發(fā)器在BS或云平臺上進行訓練。然后將訓練好的語義發(fā)射機模型廣播給用戶。下面我們來將詳細介紹 BS 處的 DeepSC 發(fā)射器、傳輸模型DeepSC 接收器。

DeepSC Transmitter

第n個用戶生成文本向量為 s n = [ w n , 1 , w n , 2 , . . . , w n , l , . . . . , w n , L n ] s_n = [w_{n, 1}, w_{n, 2}, ..., w_{n, l}, ...., w_{n, L_n}] sn?=[wn,1?,wn,2?,...,wn,l?,....,wn,Ln??],向量總長度為 L n L_n Ln?。這個向量會被DeepSC Transmitter 映射為Semantic Symbol 向量 X n = [ x n , 1 , x n , 2 , . . . . , x n , k n L n ] X_n = [\mathbf{x_{n, 1}, x_{n, 2}, ...., x_{n, k_nL_n}}] Xn?=[xn,1?,xn,2?,....,xn,kn?Ln??]。

其中, X n ∈ R k n L n × 2 X_n \in \mathbb{R}^{k_nL_n\times 2} Xn?Rkn?Ln?×2, X n X_n Xn?長度會隨著 s n s_n sn?的增加而增加,在第 n 個用戶處,每個單詞平均使用 k n k_n kn? 個語義符號進行編碼,而且每個語義符號可以直接通過傳輸物質傳輸。

Transmission Model

符號 含義
M = { 1 , 2 , . . , m , . . . , M } \mathcal{M}=\{1, 2, .., m, ..., M\} M={1,2,..,m,...,M} 可用信道集合(帶寬為W),M是總數量
α m = [ α n , 1 , . . . , α n , M ] \bm{\alpha_m} = [\alpha_{n, 1}, ..., \alpha_{n, M}] αm?=[αn,1?,...,αn,M?] 和 第 n 個用戶的相關性,只有0 1兩個選項
p n p_n pn? 第n個用戶的發(fā)射功率
g n g_n gn? 大尺度信道增益(包括路徑損失和陰影)
h n , m h_{n,m} hn,m? 用戶 n 在第 m 個信道上的雷利衰落系數
N 0 N_0 N0? 噪聲功率譜密度

假設每個信道最多只能分配給一個用戶,一個用戶至多占據一個信道:
∑ n = 1 N α n , m ≤ 1 \sum^N_{n=1}\alpha_{n, m} \leq 1 n=1N?αn,m?1
∑ m = 1 M α n , m ≤ 1 \sum^M_{m=1}\alpha_{n, m} \leq 1 m=1M?αn,m?1
考慮到信道包含大尺度衰減和小尺度Rayleigh衰減,信噪比(度量用戶 n 在第 m 個信道上的信號質量):

γ n , m = p n g n ∣ h n , m 2 ∣ W N 0 \gamma_{n,m}= \frac {p_ {n}g_ {n}|h_ {n,m}^ {2}|}{WN_ {0}} γn,m?=WN0?pn?gn?hn,m2??

DeepSC Receiver

符號 含義
Y n = g n h n , m X n + z \bm{Y}_n = \sqrt{g_n}h_{n, m}\bm{X}_n+\mathbf{z} Yn?=gn? ?hn,m?Xn?+z 來自第 n 個用戶的信號
s ^ n \widehat {s}_n s n? 估計第 n 個用戶的原始向量
B(·) 來自 Transformers (BERT) 模型的句子雙向編碼器表示,采用預訓練的 Sentence-BERT 模型

在 BS 處,來自第 n 個用戶的信號可以表示為 Y n Y_n Yn?。接收到的信號首先由通道解碼器解碼,從而語義解碼器估計句子 s ^ n \hat{s}_n s^n?。為了評估語義通信在文本傳輸方面的性能,我們采用語義相似度作為性能指標.
ξ = B ( s ) B ( s ^ ) T ∣ B ( s ) ∣ ∣ B ( s ) ∣ \xi = \frac {B(s)B(\widehat {s})^T}{|B(s)||B(s)|} ξ=B(s)∣∣B(s)B(s)B(s )T?

語義感知資源分配策略

S-SE 首先被定義為語義感知網絡的新指標。然后語義感知資源分配在通道分配和傳輸的語義符號的數量方面被表述為 S-SE 最大化問題。最后,得到優(yōu)化問題的最優(yōu)解。

Semantic Spectral Efficiency (S-SE)

符號 含義
D = { ( s j = [ w n , 1 , w n , 2 , . . . , w n , l , . . . . , w n , L n ] ) } j = 1 D \mathcal{D}=\{(s_j=[w_{n, 1}, w_{n, 2}, ..., w_{n, l}, ...., w_{n, L_n}])\}^D_{j=1} D={(sj?=[wn,1?,wn,2?,...,wn,l?,....,wn,Ln??])}j=1D? 文本數據集,其中 s j s_j sj? 是第 j 個句子,長度為 L j L_j Lj? w j , l w_{j,l} wj,l?是第 l l l 個單詞。
I j I_j Ij? s j s_j sj?的語義信息量
p ( s j ) p(\mathbf{s_j}) p(sj?) s j s_j sj? 出現概率

假設語義信息可以通過表示語義信息基本單元的語義單元 (sut) 來衡量。基于此,可以定義兩個關鍵的基于語義的性能指標:

  • 語義傳輸速率 (S-R) ??每秒有效傳輸的語義信息, 單位suts/s
  • 語義譜效率(S-SE) ??語義信息可以在帶寬單位上成功傳輸的速率,單位suts/s/Hz

我們關注的是長文本的傳輸,因此L和I應取期望值,而不是隨機值。在第n個用戶處,平均有 k n L k_nL kn?L 個語義符號承載著 I I I 的語義信息量,每個語義符號的平均語義信息量為 I / ( k n L ) I/(k_nL) I/(kn?L)。

由于符號速率等于通道帶寬對于帶通傳輸,在帶寬為W的通道上傳輸的總語義信息量為 W I / ( k n L ) WI/(k_nL) WI/(kn?L)。(語義信息量和bit數相對應嗎),因此,第n個用戶在第m個通道上的S-R可以表示為
Γ n , m = W I k n L ξ n , m \Gamma_ {n,m} = \frac {WI}{k_ {n}L} \xi _ {n,m} Γn,m?=kn?LWI?ξn,m?
第n個用戶在第m個通道上的SS-E可以表示為
Φ n , m = Γ n , m W = I k n L ξ n , m \Phi _ {n,m} = \frac {\Gamma_ {n,m}}{W} = \frac {I}{k_ {n}L} \xi_{n,m} Φn,m?=WΓn,m??=kn?LI?ξn,m?

問題建模

符號 含義
Φ \Phi Φ 所有用戶整體 S-SE

信道分配向量是我們優(yōu)化變量之一。此外,我們還會優(yōu)化每個單詞的傳輸語義符號的平均數量 k n k_n kn?,以使每個符號攜帶更多的語義信息,從而在確保相同的傳輸可靠性的同時獲得更高的 S-SE。

優(yōu)化目標

max ? α n , k n Φ = ∑ n = 1 N ∑ m = 1 M α n , m I k n L ξ n , m \max_{\bm{\alpha_n}, k_n} \Phi=\sum_{n=1}^{N}\sum_{m=1}^M\alpha_{n, m} \frac {I}{k_ {n}L} \xi_{n,m} αn?,kn?max?Φ=n=1N?m=1M?αn,m?kn?LI?ξn,m?

通道分配約束條件

  • 第 n 個用戶是否占用第 m 條信道:
    α n , m ∈ { 0 , 1 } \alpha_{n, m} \in \{0, 1\} αn,m?{0,1}

  • 每個信道最多只能分配給一個用戶:
    ∑ n = 1 N α n , m ≤ 1 \sum^N_{n=1}\alpha_{n, m} \leq 1 n=1N?αn,m?1

  • 一個用戶至多占據一個信道:
    ∑ m = 1 M α n , m ≤ 1 \sum^M_{m=1}\alpha_{n, m} \leq 1 m=1M?αn,m?1

平均語義符號數約束條件

每個單詞的平均語義符號數允許范圍,K 表示最大值
k n ∈ { 1 , 2 , 3 , . . . , K } k_n\in\{1, 2, 3, ..., K\} kn?{1,2,3,...,K}

語義相似度約束條件

該約束條件反映所需的最小語義相似度 ξ t h \xi_{th} ξth?:
ξ n , m ≥ ξ t h \xi_{n, m} \geq \xi_{th} ξn,m?ξth?

SS-E限制條件

Φ n , m ≥ Φ t h \Phi_{n, m} \geq \Phi_{th} Φn,m?Φth?

解決方法

I / L I/L I/L 對于特定類型的源是一個常數,因此不會影響資源分配優(yōu)化,目標函數可以改寫為:
max ? α n , k n Φ = ∑ n = 1 N ∑ m = 1 M α n , m ξ n , m k n \max_{\bm{\alpha_n}, k_n} \Phi=\sum_{n=1}^{N}\sum_{m=1}^M\alpha_{n, m} \frac {\xi_{n,m}}{k_ {n}} αn?,kn?max?Φ=n=1N?m=1M?αn,m?kn?ξn,m??

ξ n , m \xi_{n, m} ξn,m? 受 特定語義通信系統(tǒng)和物理信道條件的影響,我們在 AWGN 信道上運行 DeepSC 模型,得到了 ξ n , m \xi_{n, m} ξn,m? ( k n , γ n , m ) (k_n, \gamma_{n, m}) (kn?,γn,m?) 之間的映射關系。如下圖所示:
【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀
由于不同蜂窩鏈路的正交性,目標函數可以解耦成下面兩個等效的獨立優(yōu)化問題。

  • P2 在所有候選通道上為所有用戶獲取SSE,由于 ξ n , m \xi_{n, m} ξn,m?只能通過查表方法獲得,因此采用窮盡法求解。
    max ? k n Φ ~ n , m = ξ n , m / k n s . t . ? C 4 ? C 5 ? C 6 \max_{k_n} \tilde{\Phi}_{n, m} = \xi_{n, m}/k_n\\ s.t. \space C_4 \space C_5 \space C_6 kn?max?Φ~n,m?=ξn,m?/kn?s.t.?C4??C5??C6?
  • P3 可以看作二向圖的最大匹配問題。使用匈牙利算法解決。其中兩個頂點分布是 N 和 M, Φ ~ n , m m a x \tilde{\Phi}_{n, m}^{max} Φ~n,mmax?是第n個用戶與第m個通道之間的權重。
    max ? α n ∑ n = 1 N ∑ m = 1 M α n , m Φ ~ n , m m a x s . t . ? C 1 ? C 2 ? C 3 \max_{\bm{\alpha_n}}\sum_{n=1}^{N}\sum_{m=1}^M\alpha_{n, m} \tilde{\Phi}_{n, m}^{max} \\ s.t. \space C_1 \space C_2 \space C_3 αn?max?n=1N?m=1M?αn,m?Φ~n,mmax?s.t.?C1??C2??C3?

仿真結果

在本節(jié),我們進行了兩個實驗以全面評估所提出的語義感知資源分配方案的性能。

  • 將所提出的資源分配模型與傳統(tǒng)的資源分配模型進行比較,以驗證語義感知網絡中的所提出的模型
  • 比較語義通信系統(tǒng)和傳統(tǒng)通信系統(tǒng)的S-SE,以顯示語義通信的優(yōu)越性

由于傳統(tǒng)系統(tǒng)通常在 bit 域中進行評估,我們開發(fā)了一種變換方法,將SE 轉換成 S-SE ,從而實現公平比較。

變換方法

符號 含義
C n , m C_{n, m} Cn,m? 第n用戶第m信道的傳輸速率 bits/s
μ \mu μ 轉換因子,每個單詞的平均比特數 bits/word

在傳統(tǒng)通信系統(tǒng)中, 單詞中的每個字母都可以通過源編碼器映射到bit。從語義通信角度來看,每個位都可以簡單地認為是一個語義符號。因此,等效S-R可以表示為:
Γ n , m ′ = C n , m I μ L ξ n , m \Gamma_{n, m}^{'}=C_{n, m}\frac{I}{\mu L}\xi_{n, m} Γn,m?=Cn,m?μLI?ξn,m?
我們假設傳統(tǒng)通信中沒有位誤差時, ξ n , m \xi_{n,m} ξn,m?等于1。等效S-SE可以表示為:

Φ n , m ′ = R n , m I μ L \Phi_{n, m}^{'} = R_{n, m}\frac{I}{\mu L} Φn,m?=Rn,m?μLI?

基準

本文所提出的資源分配方案是針對特定的語義系統(tǒng),即DeepSC。我們將和下面三個基準進行比較:

  1. 理想系統(tǒng):信道可以達到香農極限,且無比特誤差。
  2. 4G 系統(tǒng)
  3. 5G 系統(tǒng)

實驗結果

在我們的模擬中,考慮了半徑為 r = 500 m 的圓形網絡,其中 N 個用戶均勻分布。除非另有說明,相關參數列于表 I。
【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀
我們首先檢查了語義感知網絡中的傳統(tǒng)資源分配模型。在該仿真中,將理想系統(tǒng)中傳統(tǒng)模型的最優(yōu)信道分配結果以及不同的 k n k_n kn?值。然后將得到的 S-SE 與所提出的模型進行比較。如圖 3 所示,無論 kn 的值如何,傳統(tǒng)模型的 SSE 都小于所提出模型的 SSE,這意味著傳統(tǒng)模型不適合語義感知網絡。此外, k n k_n kn? = 3 的傳統(tǒng)模型的 S-SE 等于 0,因為在這種情況下語義相似性小于閾值。
【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀

圖3. 具有不同模型的語義感知網絡的 S-SE

下面,我們將不同的通信系統(tǒng)與相應的資源分配模型進行比較。

  • 不同系統(tǒng)的 S-SE 與通道數的關系
    當 M 從 1 增加到 5 時,所有系統(tǒng)的 S-SE 都會迅速增加,因為服務更多用戶。然后當 M 繼續(xù)從 5 增加到 10 時,S-SE 增長緩慢而不是保持穩(wěn)定,因為有更多的通道可用,用戶可以選擇具有更高 SNR 的通道。
    【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀

  • S-SE與發(fā)射功率的關系
    隨著pn的增加,理想系統(tǒng)的S-SE迅速增加,而語義通信系統(tǒng)、4G系統(tǒng)和5G系統(tǒng)的S-SE先增大后趨于常數,這意味著所有實際系統(tǒng)都具有信噪比增加的上界。此外,語義通信系統(tǒng)由于其壓縮數據的能力更強,比 4G 和 5G 具有更大的上限。
    【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀

  • S-SE 與轉換因子的關系
    語義通信系統(tǒng)的性能保持穩(wěn)定,因為轉換因子與其無關。對于傳統(tǒng)系統(tǒng),S-SE 隨著 μ 的增加而減小,因為 S-SE 是 SE 與 μ 的比率,最大 SE 是不同 μ 的固定值。此外,當 μ 大于 19 位/字時,語義通信系統(tǒng)的性能優(yōu)于 4G 和 5G。然而,當μ小于大約27位/字時,即一個詞可以編碼為小于27位,語義通信系統(tǒng)的性能比理想系統(tǒng)差。該圖表明,語義通信系統(tǒng)是否大大優(yōu)于傳統(tǒng)系統(tǒng)中采用的源編碼方案。
    【論文閱讀】Resource Allocation for Text Semantic Communications,論文閱讀

結論

在本文中,我們研究了語義域中的 SE 問題,并探索了語義通信的資源分配。具體來說,首先定義了 S-R 和 S-SE,以便基于 DeepSC 模型測量語義通信系統(tǒng)的通信效率。為了最大化所有用戶的整體SSE,語義感知資源分配被表述為一個優(yōu)化問題,得到了最優(yōu)解。

我們也進行了廣泛的模擬以評估所提出方案的性能。對于文本傳輸,當單詞通過傳統(tǒng)的源編碼技術平均映射到超過 19 位時,語義通信系統(tǒng)實現了比 4G 和 5G 系統(tǒng)更高的 S-SE。此外,如果編碼單詞所需的位增加到超過 27 位,發(fā)射功率為 10 dBm,語義通信系統(tǒng)甚至優(yōu)于理想系統(tǒng)。

未來,如何設計資源分配方法來滿足包括單模態(tài)和多模態(tài)任務在內的多個智能任務的要求,應該進一步研究。

【1】https://www.eet-china.com/mp/a245114.html


  1. https://zh.wikipedia.org/wiki/%E8%9C%82%E7%AA%9D%E7%BD%91%E7%BB%9C# ??文章來源地址http://www.zghlxwxcb.cn/news/detail-772499.html

到了這里,關于【論文閱讀】Resource Allocation for Text Semantic Communications的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 文獻閱讀:Deep Learning based Semantic Communications: An Initial Investigation

    文獻閱讀:Deep Learning based Semantic Communications: An Initial Investigation

    作者 Huiqiang Xie Zhijin Qin Geoffrey Ye Liy Biing-Hwang Juangy 發(fā)表期刊or會議 《GLOBECOM》 發(fā)表時間 2020.12 隨著新應用的發(fā)展,需要開發(fā)新的通信系統(tǒng)以提高通信的準確性和效率,作者通過考慮bit背后的語義來開發(fā)智能通信系統(tǒng) 文中對語義通信系統(tǒng)的解釋: ??所考慮的語義通信系統(tǒng)主

    2024年02月11日
    瀏覽(19)
  • 論文閱讀:MSeg3D: Multi-modal 3D Semantic Segmentation for Autonomous Driving

    論文閱讀:MSeg3D: Multi-modal 3D Semantic Segmentation for Autonomous Driving

    來源:2023 CVPR 題目:自動駕駛的多模態(tài)三維語義分割 原文鏈接:https://arxiv.org/abs/2303.08600v1 代碼鏈接:https://github.com/jialeli1/lidarseg3d 激光雷達和攝像機是自動駕駛三維語義分割的兩種方法。由于缺乏足夠的激光點,目前流行的僅使用lidar的方法在小的和遙遠的物體上嚴重存在

    2024年02月03日
    瀏覽(68)
  • DUET: Cross-Modal Semantic Grounding for Contrastive Zero-Shot Learning論文閱讀

    DUET: Cross-Modal Semantic Grounding for Contrastive Zero-Shot Learning論文閱讀

    原文鏈接: https://ojs.aaai.org/index.php/AAAI/article/view/25114/24886 該論文設計了一種 新的零樣本學習范式,通過遷移語言模型中的先驗語義知識,與視覺模型的特征感知能力進行對齊,以增強后者對于未見過圖像的識別能力。 零樣本學習(ZSL)旨在預測在訓練期間從未出現樣本的未

    2024年01月17日
    瀏覽(33)
  • 論文閱讀:LIF-Seg: LiDAR and Camera Image Fusion for 3DLiDAR Semantic Segmentation

    論文閱讀:LIF-Seg: LiDAR and Camera Image Fusion for 3DLiDAR Semantic Segmentation

    LIF-Seg:用于 3D LiDAR 語義分割的 LiDAR 和相機圖像融合 來源:華科 + 商湯 未發(fā)表2021 鏈接:https://arxiv.org/abs/2108.07511 個人覺得有用的和自己理解加粗和()內表示,盡量翻譯的比較全,有一些官方話就沒有翻譯了,一些疑惑的地方歡迎大家探討。如果對整個領域比較熟悉看一、

    2023年04月25日
    瀏覽(17)
  • 論文閱讀【14】HDLTex: Hierarchical Deep Learning for Text Classification

    論文閱讀【14】HDLTex: Hierarchical Deep Learning for Text Classification

    論文十問十答: Q1論文試圖解決什么問題? 多標簽文本分類問題 Q2這是否是一個新的問題? 不是 Q3這篇文章要驗證一個什么科學假設? 因為文本標簽越多,分類就越難,所以就將文本類型進行分層分類,這樣就可以加大文本分類的準確度。 Q4有哪些相關研究?如何歸類?誰

    2023年04月09日
    瀏覽(19)
  • 【論文閱讀22】Label prompt for multi-label text classification

    【論文閱讀22】Label prompt for multi-label text classification

    論文標題:Label prompt for multi-label text classification(基于提示學習的多標簽文本分類) 發(fā)表時間:2023 領域:多標簽文本分類 發(fā)表期刊:Applied Intelligence(SCI二區(qū)) 相關代碼:無 數據集:無 多標簽文本分類由于其實際應用而受到學者的廣泛關注。多標簽文本分類的關鍵挑戰(zhàn)之

    2024年02月15日
    瀏覽(27)
  • 【NLP】Label prompt for multi-label text classification論文閱讀筆記

    【NLP】Label prompt for multi-label text classification論文閱讀筆記

    ? ? ? ? 寫于來XXXX公司實習的最后一個月,預祝自己實習順利結束~ Paper address: Label prompt for multi-label text classification | Applied Intelligence ( Applied Intelligence 2023) ???????? 在多標簽分類任務中,在復雜且未知的標簽空間中直接對標簽之間的相關性進行建模是相當具有挑戰(zhàn)性的。

    2024年02月02日
    瀏覽(25)
  • 【論文閱讀】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

    【論文閱讀】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

    標題:RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction 會議:ACL2023 網址:https://aclanthology.org/2023.acl-long.369 github:https://github.com/zweny/RE-Matching 關系抽取:relation extraction是NLP的一個基本任務,目的是從非結構化文本中提取實體之間的關系。關系抽取有助于構

    2024年02月04日
    瀏覽(16)
  • RIS 系列 See-Through-Text Grouping for Referring Image Segmentation 論文閱讀筆記

    RIS 系列 See-Through-Text Grouping for Referring Image Segmentation 論文閱讀筆記

    寫在前面 ??最近 Arxiv 沒啥新東西了,找篇老的文章讀讀,看看它們之間的區(qū)別在哪里。 論文地址:See-Through-Text Grouping for Referring Image Segmentation 代碼地址:源文未提供 收錄于:ICCV 2019 Ps:2023 年的最后一篇博文閱讀筆記,我今年的 flag 也實現啦。主頁 更多干貨,歡迎關注

    2024年02月03日
    瀏覽(24)
  • 【論文閱讀】Relation-Aware Graph Transformer for SQL-to-Text Generation

    【論文閱讀】Relation-Aware Graph Transformer for SQL-to-Text Generation

    SQL2Text 是一項將 SQL 查詢映射到相應的自然語言問題的任務。之前的工作將 SQL 表示為稀疏圖,并利用 graph-to-sequence 模型來生成問題,其中每個節(jié)點只能與 k 跳節(jié)點通信。由于無法捕獲長期且缺乏特定于 SQL 的關系,這樣的模型在適應更復雜的 SQL 查詢時將會退化。為了解決這

    2024年02月20日
    瀏覽(14)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包