国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記

這篇具有很好參考價值的文章主要介紹了《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Question

MEC使能的IoT能夠解決物聯(lián)網(wǎng)中時延敏感/計算敏感服務的需要

Contribution

  1. 提出cache-aided MEC卸載框架,允許用戶將計算任務卸載到邊緣服務器上。
  2. 該框架的目標是最小化計算卸載和資源分類配的系統(tǒng)時延,將系統(tǒng)建模為部分可觀測馬爾可夫過程的多智能體決策問題。
  3. 提出基于深度圖卷積強化學習(deep graph convolution reinforcement learning, DGRL)的方法解決問題。算法使用GNN抓取節(jié)點之間的相關性并輸入到深度Q網(wǎng)絡中進行資源分配決策優(yōu)化。
  4. 對比仿真,基于DGRL的CA-MEC卸載算法性能良好。

Related works

  • Resource Allocation for Communication, Computing, and Caching
references method
[16] 基于深度Q網(wǎng)絡的卸載算法
[27] 雙邊匹配和凸優(yōu)化方法
[28] 基于深度學習長短期記憶模型的計算卸載優(yōu)化算法
[29] 基于基因模擬退火的粒子群算法
  • Reinforcement Learning in Resource Management
references category method
[18] 單智能體 基于深度確定策略梯度(DDPG)的計算卸載、資源分配和服務緩存優(yōu)化方法
[17] 基于asynchronous advantage actor–critic (A3C)的3C資源優(yōu)化方法
[9] 基于帶有回放記憶的DQN的資源優(yōu)化算法
[31] 基于DRL的聯(lián)合計算卸載與資源分配優(yōu)化算法
[32] 多智能體 基于MADDPG的任務調度與資源分配優(yōu)化算法
[33] GAT輔助的MARL資源管理算法
[34] 基于帶有注意力機制的多智能體actor-critic方法
  • Graph Neural Network in Resource Management
references method
[24] GCN + counterfactual multiagent policy gradient (COMA)-based的通信架構
[39] 使用GCN構建基于DRL信道分配算法
[40] 使用GNN實現(xiàn)可擴展信道分配算法
[41] 無人機中用于增加資源利用率的基于GCN的MARL方法

System model

network architecture

《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

communication model

用有限馬爾可夫信道(FSMC)建模信道資源情況
信道數(shù)據(jù)傳輸率:
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
信道容量:
用Z來表示, Z=[Z1e, …, ZMe]

computing model

定義計算狀態(tài)al,i:表示i號任務是否在第l個MEC服務器上執(zhí)行。
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
本地計算時間Tl,0
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
邊緣計算總時間Tl,1: 上行卸載傳輸時間+計算時間+下行返回結果傳輸時間
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

caching model

定義緩存狀態(tài)xi,j:表示編號為j的任務數(shù)據(jù)是否緩存到第i個服務器上,若為1表示緩存,否則不緩存。
定義用戶請求某個任務的概率ql,k:表示第l個用戶請求第k個任務的概率。用戶請求某個任務的概率服從Zipf分布:
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
一個任務可以被劃分成多任務,若一部分的任務數(shù)據(jù)被緩存到某個邊緣服務器上,那么該任務在卸載時只需要卸載部分數(shù)據(jù)即可, β \beta β是比例系數(shù),代表需要卸載的數(shù)據(jù)比例,下式為計算卸載的時延:
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
此時系統(tǒng)的總時延T可以被表示為:
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
其中,先由計算決策變量a確定在本地還是MEC上執(zhí)行,若在MEC上執(zhí)行,再由緩存決策變量x決定是否緩存某個任務數(shù)據(jù),若不緩存則全部卸載,若緩存則部分卸載。

Problem formulation

Optimization Objective

《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

J是對用戶請求任務的時延求期望
C1是對信道容量的限制
C2是對信道干擾的限制
C3是對計算能力的限制
C4是對緩存能力的限制

problem formulation

每個agent只能觀測到系統(tǒng)的部分信息,所以建模為POMDP。

  • State: t 時刻的狀態(tài)向量為st = {hl,i, ql,k} 一個是信道增益,一個是用戶請求任務概率。
  • Observation: oi,t代表網(wǎng)絡中節(jié)點i在t時刻觀測的信息。
  • Action: t 時刻的動作向量為at={pl,i(t), al,i(t)},前者為傳輸功率決策,后者為計算卸載決策。
  • State transition probability: t 時刻從狀態(tài)st轉移到st+1的概率為p(st+1|st,at)。
  • Reward
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    文章使用deep Q-learning學習最大化未來累積獎勵G的最優(yōu)策略:
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

DGRL-Based Resource Allocation Algorithm

《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
上圖為多智能體網(wǎng)絡架構,分為三部分:

  1. Environment Observation Layer
    M個智能體的環(huán)境被建模成一個圖,在t 時刻,第i個節(jié)點觀測到動態(tài)環(huán)境的信息,生成觀測空間O(t)為
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    其中,Z為每個agent的空閑信道容量,F(xiàn)為每個agent的空閑計算資源,C為每個agent的空閑緩存空間,Q為當前時刻接收到的用戶請求,X為上一時刻緩存情況。
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    該觀測值O通過多層感知機MLP被編碼成特征向量hi,t:
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  2. Topological Relationship Learning Layer
    上一步編碼的特征向量hi,t作為輸入進入圖卷積網(wǎng)絡中,生成隱藏特征,再經(jīng)過一層卷積層擴大感受野,學習到其他智能體的信息。在該層中,經(jīng)過了多頭注意力機制抓取網(wǎng)絡拓撲信息,獲得節(jié)點相似度特征向量,再通過MLP將其編碼為狀態(tài),輸入到Q網(wǎng)絡中進行策略學習。
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  3. Deep Q-Network Layer:
    Q值更新函數(shù)如下:
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    優(yōu)化損失函數(shù)如下:其中y代表目標網(wǎng)絡
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    算法流程如下圖:
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

Simulation results

  • 參數(shù)表
    RL網(wǎng)絡參數(shù):
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
    仿真參數(shù):
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

  • 對比方法:
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

  • 結果對比

  1. 不同折扣因子對收斂性能的影響
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  2. 不同算法的收斂性能
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  3. 不同算法下任務大小對總時延的影響
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  4. 不同算法下計算能力大小對總時延的影響
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  5. 不同算法下存儲能力大小對總時延的影響
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記
  6. (可擴展分析)固定MEC服務器數(shù)量,查看不同數(shù)量的用戶對總時延的影響
    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

7.(可擴展分析)固定用戶數(shù)量,查看不同數(shù)量的MEC server對總時延的影響
《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記,筆記,物聯(lián)網(wǎng),筆記

Conclusion

研究了聯(lián)合緩存、通信、計算資源分配的優(yōu)化問題,提出CA-MEC卸載框架,建模問題為POMDP并使用DGRL方法求解。

——————————————————————————————————————
參考文獻:
[1] D. Wang, Y. Bai, G. Huang, B. Song and F. R. Yu, “Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning,” in IEEE Internet of Things Journal, vol. 10, no. 13, pp. 11486-11496, 1 July1, 2023, doi: 10.1109/JIOT.2023.3244909.文章來源地址http://www.zghlxwxcb.cn/news/detail-788233.html

到了這里,關于《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【已解決】微信小程序編譯后白屏(The resource was preloaded using link preload but not used within a few seconds ...)

    【已解決】微信小程序編譯后白屏(The resource was preloaded using link preload but not used within a few seconds ...)

    事情發(fā)生在重裝微信小程序開發(fā)者工具后。。。微信小程序編譯后白屏,控制臺報錯: 對比之前開發(fā)工具的設置,發(fā)現(xiàn)不知何時手殘多打了一個勾: 使用獨立域進行調試 去掉后,正常了。。。 白屏挺常見的,原因也是千奇百怪,此解決方法僅限此原因。。。

    2024年02月08日
    瀏覽(143)
  • Gtk Unable to load resource for composite template

    在使用 GNOME Builder 構建應用時,設 gnome_semilab_window 為應用主窗口,實現(xiàn)在 gnome-semilab-window.c 中;設 gsp_create_project_widget 為主窗口上的一個子組件,實現(xiàn)在 gsp-create-project-widget.c 中,插入到主窗口的 GUI 中。兩個模塊各自使用了 GtkBuilder XML UI 文件。在子組件文件中,定義子組件

    2024年02月12日
    瀏覽(27)
  • 解決oracle死鎖,生產(chǎn)問題,ORA-00060: deadlock detected while waiting for resource,

    目錄 項目場景: 問題描述 原因分析: 解決方案: 其他解決方案: oracle 數(shù)據(jù)庫在做大量的批量更新同一張表數(shù)據(jù)。 早上來公司去生產(chǎn)環(huán)境查grelog日志,發(fā)現(xiàn)ERROR日志,點進去看后報如下錯誤: 從錯誤的中一看就知道oracle 數(shù)據(jù)庫發(fā)生了死鎖。去生產(chǎn)的log日志查看,發(fā)現(xiàn)同一

    2024年02月17日
    瀏覽(26)
  • Reinventing Energy Management for IoT Devices: Techniqu

    作者:禪與計算機程序設計藝術 物聯(lián)網(wǎng)(IoT)已經(jīng)成為當今社會發(fā)展的一股新力量。從個人生活到商業(yè)領域,無處不在的物聯(lián)網(wǎng)設備已然成為各行各業(yè)中的基礎設施,但它們也帶來了新的復雜性——這就要求它們對能源管理進行重新設計。而對于嵌入式系統(tǒng)來說,能源管理是

    2024年02月07日
    瀏覽(29)
  • Using Natural Language Processing for Sentiment Analysi

    作者:禪與計算機程序設計藝術 Sentiment analysis is a widely studied and practical technique to extract subjective information from text data such as reviews, social media posts, online comments etc. It has many applications including customer feedback analysis, brand reputation management, product recommendation systems, marketing efforts, and

    2024年02月08日
    瀏覽(22)
  • Ethereum Using Zero Knowledge Proofs for Anonymousity

    作者:禪與計算機程序設計藝術 Ethereum是一個基于區(qū)塊鏈的分布式計算平臺,它支持開發(fā)者創(chuàng)建自己的去中心化應用程序(dApps)。同時,Ethereum還有一個功能叫做零知識證明(ZKP),這使得Ethereum可以用來實現(xiàn)匿名加密貨幣。所以,本文將通過具體操作一步步帶領讀者構建一個

    2024年02月07日
    瀏覽(19)
  • axios無法加載響應數(shù)據(jù):no data found for resource with given identifier

    axios無法加載響應數(shù)據(jù):no data found for resource with given identifier

    美好的、令人遐想的日落黃昏里,出現(xiàn)了詭異的bug! 老師上課的時候,不好好聽聽,不仔細看!那么花了那么多時間找bug問題~翻了好多方案,還未解決,然后遇到了我,這個大冤種就是你(也包括我*~*)?。?! ?猜想了好多種方案,其中一度被pass的解決方案既然是原因!!

    2024年02月03日
    瀏覽(21)
  • 【深度學習】WaveMix: A Resource-efficient Neural Network for Image Analysis 論文

    【深度學習】WaveMix: A Resource-efficient Neural Network for Image Analysis 論文

    論文:https://arxiv.org/abs/2205.14375 代碼:https://github.com/pranavphoenix/WaveMix 我們提出了WaveMix——一種新穎的計算機視覺神經(jīng)架構,既資源高效,又具有泛化性和可擴展性。WaveMix網(wǎng)絡在多個任務上實現(xiàn)了與最先進的卷積神經(jīng)網(wǎng)絡、視覺Transformer和token mixer相當或更好的準確性,為C

    2024年02月15日
    瀏覽(27)
  • 無法加載響應數(shù)據(jù)no data found for resource with given identifier報錯解決

    無法加載響應數(shù)據(jù)no data found for resource with given identifier報錯解決

    第一種:跨域問題 跨域的解決辦法很多,這里不作闡述; 第二種:數(shù)據(jù)庫被鎖定,導致長時間未返回結果; 問題描述: 無法加載響應數(shù)據(jù)no data found for resource with given identifier 生產(chǎn)環(huán)境項目實施人員反饋到開發(fā)組,有一個用戶登錄不進去,但是其它用戶可以正常登錄; 排查

    2024年02月01日
    瀏覽(19)
  • ingress-http部署error: resource mapping not found for name...no matches for kind “Ingress“ in version

    ingress-http部署error: resource mapping not found for name...no matches for kind “Ingress“ in version

    根據(jù)一些參考文檔,學習部署 ingress-http 服務,出現(xiàn)了一些error信息,網(wǎng)上難找直接的處理方式,最后才發(fā)現(xiàn)是資源清單使用問題,還是得看官方文檔說明。 創(chuàng)建ingress-http.yaml 使用的基本yaml配置如下—— 部署ingress服務 出現(xiàn)error信息 錯誤一: 處理方式—— 根據(jù) 官方文檔:

    2024年02月06日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包