国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

16.5 參考文獻——深度學(xué)習(xí)定位

這篇具有很好參考價值的文章主要介紹了16.5 參考文獻——深度學(xué)習(xí)定位。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

16.5? 一種高效魯棒的多樓層室內(nèi)環(huán)境指紋定位方法

同濟大學(xué)

Zhao Y, Gong W, Li L, et al. An Efficient and Robust Fingerprint Based Localization Method for Multi Floor Indoor Environment[J]. IEEEa Internet of Things Journal, 2023.

2.相關(guān)工作

B.基于深度學(xué)習(xí)的方法

利用深度神經(jīng)網(wǎng)絡(luò)(DNN)模型來解決地板識別和位置估計問題。為了解決多樓層識別問題,Jang等人[18]設(shè)計了一種基于CNN的識別模型,該模型可以學(xué)習(xí)指紋的拓撲結(jié)構(gòu)并識別給定移動用戶的樓層索引。雖然他們提出的室內(nèi)定位算法具有較高的精度,但對采樣和訓(xùn)練要求嚴格。首先,需要平衡每層RSSI記錄的數(shù)量。其次,CNN的超參數(shù)和復(fù)雜結(jié)構(gòu)的調(diào)優(yōu)非常耗時。

Jang等人[18]

[18] J. W. Jang and S. N. Hong, “Indoor localization with WiFifingerprinting using convolutional neural network,” in Proc. 10th Int.Conf. Ubiquitous Future Netw. (ICUFN) , July 2018, pp. 753–758.( 16.9 室內(nèi)定位與WiFi指紋使用卷積神經(jīng)網(wǎng)絡(luò))

摘要:室內(nèi)定位由于其廣泛的應(yīng)用范圍,幾十年來一直是一個活躍的研究領(lǐng)域。WiFi指紋識別技術(shù)是利用預(yù)收集的WiFi信號作為參考來估計用戶的位置,由于如今每個用戶都可以很容易地接入WiFi網(wǎng)絡(luò),因此它特別受歡迎。在眾多方法中,基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的方法表現(xiàn)出了誘人的性能,但其主要缺點是對接收信號波動的敏感性(由多徑引起)。因此,為了獲得令人滿意的性能,需要訓(xùn)練足夠多的可能案例,這需要花費很多。在本文中,我們提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的定位方法來解決上述問題。由于在圖像分類中取得了成功,所提出的方法可以對接收信號的微小變化具有魯棒性,因為它利用了無線電地圖的拓撲結(jié)構(gòu)和信號強度。通過實驗結(jié)果,我們證明了所提出的CNN方法可以優(yōu)于其他基于dnn的方法,使用IPIN 2015提供的公開可用數(shù)據(jù)集。索引術(shù)語:室內(nèi)定位,卷積神經(jīng)網(wǎng)絡(luò),WiFi指紋。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

Kim等人[19]

Kim等人[19]提出了一種基于單輸入多輸出DNN的混合建筑和樓層分類模型。Shao等[11]開發(fā)了一種基于Wi-Fi自治塊模型的大型建筑場景識別算法。然而,這方面的大多數(shù)研究沒有考慮室內(nèi)定位場景的時間變化,這在時變數(shù)據(jù)集上表現(xiàn)出性能下降。

K. S. Kim, “Hybrid building/floor classification and location coordinates regression using a single-input and multi-output deep neural network for large-scale indoor localization based on Wi-Fi fingerprinting,” in Proc. IEEE 6th Int. Symp. Comput. Netw. Workshops, 2018, pp. 196–201. (16.9基于Wi-Fi指紋的大規(guī)模室內(nèi)定位的單輸入多輸出深度神經(jīng)網(wǎng)絡(luò)混合建筑/樓層分類和位置坐標回歸)

摘要:本文采用單輸入多輸出(SIMO)深度神經(jīng)網(wǎng)絡(luò)(DNN)提出混合建筑/樓層分類和樓層二維位置坐標回歸方法,用于基于Wi-Fi指紋的大規(guī)模室內(nèi)定位。所提出的方案利用了建筑物/樓層和樓層位置坐標估計的不同性質(zhì),并為每個任務(wù)使用不同的估計框架,并通過SIMO DNN架構(gòu)啟用專用輸出和隱藏層。我們使用芬蘭坦佩雷理工大學(xué)(TUT)提供的新的Wi-Fi眾包指紋數(shù)據(jù)集,對混合樓層分類和樓層二維位置坐標回歸的性能進行了初步評估,該數(shù)據(jù)集覆蓋了一棟五層樓的建筑。實驗結(jié)果表明,基于simo - dnn的混合分類/回歸方案在地板檢測率和平均定位誤差方面都優(yōu)于現(xiàn)有方案。索引術(shù)語:室內(nèi)定位,Wi-Fi指紋,深度學(xué)習(xí),神經(jīng)網(wǎng)絡(luò),分類,回歸。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

圖1。一種可擴展的多建筑、多樓層室內(nèi)定位DNN架構(gòu),該架構(gòu)基于用于特征空間降維的堆疊自編碼器(SAE)和用于多標簽分類的前饋分類器[8]。

[8] K. S. Kim, S. Lee, and K. Huang, “A scalable deep neural networkarchitecture for multi-building and multi-floor indoor localization basedon Wi-Fi fingerprinting,” Big Data Analytics, vol. 3, no. 4, Apr. 2018.[Online]. Available: https://doi.org/10.1186/s41044-018-0031-2 (14.1_基于Wi-Fi指紋的多樓多層室內(nèi)定位可擴展深度神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu) )

Shao等[11]

Shao等[11]開發(fā)了一種基于Wi-Fi自治塊模型的大型建筑場景識別算法。然而,這方面的大多數(shù)研究沒有考慮室內(nèi)定位場景的時間變化,這在時變數(shù)據(jù)集上表現(xiàn)出性能下降。

[11] W. Shao, H. Luo, F. Zhao, H. Tian, J. Huang, and A. Crivello, “FloorIdentification in Large-Scale Environments With Wi-Fi AutonomousBlock Models,” IEEE Trans Ind. Inform, vol. 18, no. 2, pp. 847-858, Feb.2022. (16.11 基于Wi-Fi自主塊模型的大規(guī)模環(huán)境地板識別)

傳統(tǒng)的基于wi - fi的樓層識別方法主要在小型實驗場景中進行測試,在大型、多層的真實環(huán)境中,其準確率普遍下降。當(dāng)同一樓層的WiFi信號的復(fù)雜性超過垂直方向樓層之間的復(fù)雜性時,主要的挑戰(zhàn)就出現(xiàn)了,導(dǎo)致樓層的可區(qū)分性降低。第二個挑戰(zhàn)是在中庭、中空區(qū)域、夾層、中間樓層和擁擠的信號通道環(huán)境中Wi-Fi功能的復(fù)雜性。

在本文中,我們提出了一種基于wi - fi的自適應(yīng)樓層識別算法,以在這些環(huán)境中實現(xiàn)準確的地板識別。我們的算法基于Wi-Fi接收信號強度指標和空間相似性,首先識別包裹整個環(huán)境的自治塊。然后,通過提出的Wi-Fi模型進行局部樓層識別,充分利用Wi-Fi特性。最后,通過自治塊和局部層模型的聯(lián)合優(yōu)化來估計層數(shù)。我們在超過14萬平方米的三座真正的大型多層建筑中使用19種不同的設(shè)備進行了廣泛的實驗。最后,我們展示了我們的建議和其他最先進的算法之間的比較。實驗結(jié)果表明,本文提出的方法優(yōu)于其他方法,平均準確率為97.24%。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

索引術(shù)語:自主街區(qū),指紋,樓層識別化,多層建筑,智能手機,Wi-Fi模式。

Song等[20]

Song等[20]為了優(yōu)化多層環(huán)境下的位置估計,提出了一種基于CNN網(wǎng)絡(luò)的定位模型CNNLoc。具體來說,他們利用堆疊自動編碼器來獲取收集的RSSI指紋的關(guān)鍵特征。此外,他們利用CNN模型來估計建筑物或樓層的指數(shù)和位置。

隨著無線系統(tǒng)的普遍部署和智能設(shè)備的普遍可用性,室內(nèi)定位正在為許多基于位置的服務(wù)提供支持。隨著無線地圖的建立,WiFi指紋識別已經(jīng)成為定位移動用戶最實用的方法之一。然而,大多數(shù)基于指紋的定位算法都是計算密集型的,對離線訓(xùn)練階段和在線定位階段都有很大的依賴。本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的WiFi指紋室內(nèi)定位系統(tǒng)CNNLoc,用于多樓多層定位。具體而言,我們通過將堆疊自編碼器(SAE)與一維CNN相結(jié)合,設(shè)計了一種新的分類模型和定位模型。利用SAE從稀疏的接收信號強度(RSS)數(shù)據(jù)中精確提取關(guān)鍵特征,同時訓(xùn)練CNN在定位階段有效地實現(xiàn)高精度。我們在UJIIndoorLoc數(shù)據(jù)集和Tampere數(shù)據(jù)集上評估了所提出的系統(tǒng),并與幾種最先進的方法進行了性能比較。此外,我們進一步提出了一個新采集的WiFi指紋數(shù)據(jù)集UTSIndoorLoc,并在其上測試了CNNLoc的定位模型。結(jié)果表明,CNNLoc在建筑物級定位和地板級定位上的成功率分別為100%和95%,優(yōu)于現(xiàn)有的解決方案。室內(nèi)定位,深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò),WiFi指紋。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

Wang等[21]

Wang等[21]采用殘差共享學(xué)習(xí)架構(gòu)設(shè)計了一種基于指紋的室內(nèi)定位方法。他們采用了一種增強的概率方法,以未知的測量值估計移動設(shè)備的位置。

摘要:基于wi - fi的室內(nèi)指紋識別由于在室內(nèi)環(huán)境中無處不在而引起了研究界越來越多的興趣。在本文中,我們出了一種基于深度殘差共享學(xué)習(xí)的室內(nèi)指紋識別系統(tǒng)ResLoc,該系統(tǒng)使用雙峰通道狀態(tài)信息(CSI)張量數(shù)據(jù)。本文提出的ResLoc系統(tǒng)利用一小部分已知坐標的訓(xùn)練點收集的CSI張量數(shù)據(jù)(包括到達角度和振幅)來訓(xùn)練所提出的雙通道深度殘差共享學(xué)習(xí)模型。該模型對傳統(tǒng)的深度殘差學(xué)習(xí)模型進行了擴展,將兩個或多個信道合并,并在每個殘差塊之后讓信道交換殘差信號。與之前基于深度學(xué)習(xí)的指紋識別方案不同,ResLoc只需要為所有訓(xùn)練位置訓(xùn)練一組權(quán)重。提出的ResLoc系統(tǒng)在商用Wi-Fi設(shè)備上實現(xiàn),并在三個代表性的室內(nèi)環(huán)境中進行了廣泛的實驗評估。實驗結(jié)果驗證了該系統(tǒng)在室內(nèi)環(huán)境下使用單個Wi-Fi接入點即可實現(xiàn)較高的定位精度。

索引術(shù)語-通道狀態(tài)信息(CSI),深度學(xué)習(xí),深度殘差學(xué)習(xí),深度殘差共享學(xué)習(xí),指紋識別。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

Hoang等人[22]提出了一種用于定位的遞歸神經(jīng)網(wǎng)絡(luò)(RNN)模型,該模型使用RSSI為移動用戶生成不同的軌跡。此外,他們還使用加權(quán)平均濾波器來減小軌跡誤差。目標是基于序列RSSI記錄預(yù)測軌跡定位。輸出是順序位置。

Hoang等人[22]

摘要:本文提出了用于WiFi指紋室內(nèi)定位的遞歸神經(jīng)網(wǎng)絡(luò)(rnn)。與傳統(tǒng)算法一次定位一個移動用戶的位置不同,我們的RNN解決方案旨在定位軌跡,并考慮到軌跡中接收信號強度指標(RSSI)測量之間的相關(guān)性。為了提高RSSI時間波動之間的準確性,對輸入RSSI數(shù)據(jù)和順序輸出位置都提出了加權(quán)平均濾波器。介紹了不同類型的RNN,包括vanilla RNN、長短期記憶(LSTM)、門控循環(huán)單元(GRU)、雙向RNN (BiRNN)、雙向LSTM (BiLSTM)和雙向GRU (BiGRU)的結(jié)果?,F(xiàn)場實驗表明,該結(jié)構(gòu)的平均定位誤差為0.75 m,其中80%的誤差在1米以內(nèi),在相同的測試環(huán)境下,該結(jié)構(gòu)的定位誤差比k近鄰算法和概率算法高約30%。索引術(shù)語:指紋定位、長短期記憶(LSTM)、接收信號強度指標(RSSI)、循環(huán)神經(jīng)元網(wǎng)絡(luò)(RNN)、WiFi室內(nèi)定位。

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

16.5 參考文獻——深度學(xué)習(xí)定位,深度學(xué)習(xí)

結(jié)論:綜上所述,我們提出了用于WiFi指紋室內(nèi)定位的rnn。我們的RNN解決方案考慮了一系列RSSI測量之間的關(guān)系,并將確定用戶的移動路徑作為一個問題。實驗結(jié)果一致表明,LSTM結(jié)構(gòu)的平均定位誤差為0.75 m,其中80%的誤差在1 m以下,優(yōu)于前饋神經(jīng)網(wǎng)絡(luò)、KNN、卡爾曼濾波和概率方法等傳統(tǒng)方法。有效地解決了傳統(tǒng)方法存在的空間模糊性、RSSI不穩(wěn)定性和RSSI采集時間短等主要問題。此外,還詳細討論了具有損失函數(shù)、記憶長度、輸入輸出特征等重要參數(shù)的vanilla RNN、LSTM、GRU、BiRNN、BiLSTM和BiGRU的分析。

Wang等[23]采用殘差網(wǎng)絡(luò)和LSTM網(wǎng)絡(luò)進行室內(nèi)定位,可以有效提取連續(xù)RSSI切片的時空特征。然而,在大規(guī)模的室內(nèi)場景中,由于人群的隨機和不可控的移動行為,所采集的樣本往往具有空間不平衡和間歇性。其他一些基于深度學(xué)習(xí)模型的代表性室內(nèi)定位方法包括DL-RNN[24]、RBF Network[25]和GCN[26]。

文獻[25]考慮了RSSI數(shù)據(jù)的校準和更新,但[25]中的方法沒有充分利用RSSI指紋的時間動態(tài)。為了獲得更好的定位精度和魯棒性,本文利用模型集成方法對單個弱模型的部分知識進行有效的正則化和利用。文章來源地址http://www.zghlxwxcb.cn/news/detail-816395.html

到了這里,關(guān)于16.5 參考文獻——深度學(xué)習(xí)定位的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • endnote調(diào)整參考文獻

    endnote調(diào)整參考文獻 1. 2. 3.自定義GBT7714!!!

    2024年02月06日
    瀏覽(97)
  • MDPI參考文獻引用

    MDPI參考文獻引用

    在引參考文獻的時候,MDPI論文有一個統(tǒng)一的格式要求,這里是幫助那些不會快速引文獻的同學(xué)快速引用MDPI格式的參考文獻。 【1】首先安裝endnote,并創(chuàng)建倉庫 【2】下載endnote識別的MDPI輸出參考文獻格式類型:https://endnote.com/style_download/mdpi/,并放到endnote安裝文件夾下(D:sof

    2024年02月04日
    瀏覽(160)
  • IEEE論文參考文獻格式

    IEEE論文參考文獻格式

    本文整理記錄IEEE論文的參考文獻正確的格式,包括引用書籍、期刊論文、會議論文。參考了IEEE官方頒布的參考文獻相關(guān)文件。 首先請注意以下幾點: 作者姓名的名僅保留首字母,姓全部保留。比如:蔡徐坤(Xukun Cai)寫為(X. Cai) 多個作者直接用,隔開,最后一個作者之

    2024年02月09日
    瀏覽(22)
  • latex數(shù)字引用參考文獻

    目錄 一、latex在正文中引用參考文獻 第一種引用: 第二種引用: 二、文末顯示參考文獻 第一種引用: 第二種數(shù)字引用: latex引用參考文獻,分為正文里,和文末顯示參考文獻兩部分。 latex在正文中引用參考文獻可以分為兩種樣式,一種是“姓名(年份)”,另一種是“[1]”。

    2023年04月26日
    瀏覽(90)
  • 游戲畢業(yè)設(shè)計參考文獻合集

    如今不管是手機游戲還是網(wǎng)絡(luò)游戲,都受到熱捧,游戲設(shè)計也由此走入大家的視線中,本文整理了260個中英文\\\"游戲畢業(yè)設(shè)計參考文獻范例\\\",涵蓋游戲角色設(shè)計、游戲網(wǎng)站設(shè)計、游戲動畫設(shè)計等等,以供參考。 游戲畢業(yè)設(shè)計參考文獻一: [1]曹煒卿。微信平臺益智類游戲的設(shè)計

    2024年01月17日
    瀏覽(188)
  • Latex參考文獻斜體變正體方法

    Latex參考文獻斜體變正體方法

    測試環(huán)境:texlive+texstudio 最近發(fā)表的論文被拒稿后改投Elsevier出版社的期刊,在引用參考文獻時,遇到了問題: 1.一開始樣式用的期刊所給名為(cas-model2-names.bst)的參考文獻格式文件,但是使用這個文件放入到bibliographystyle{cas-model2-names}后,發(fā)現(xiàn)與錄用期刊所發(fā)表的論文參考

    2024年02月17日
    瀏覽(82)
  • html5論文參考文獻合集

    html5被稱為下一代html,是一種網(wǎng)絡(luò)語言標準,HTML5的設(shè)計目的是為了在移動設(shè)備上支持多媒體。在移動設(shè)備開發(fā)HTML5要不就是全使用HTML5的語法,要不就是僅使用JavaScript引擎。下面我們一起看看近三年最新的\\\"html5論文參考文獻范例\\\" 。 html5論文參考文獻一: [1]解頤,方紅亮,曲

    2024年02月06日
    瀏覽(22)
  • Latex自定義參考文獻.bst文件

    Latex自定義參考文獻.bst文件

    latex自帶參考文獻.bst文件庫在安裝路徑的texmf-distbibtexbstbase文件夾里。例:E:latexlatex_softwaretexlive2022texmf-distbibtexbstbase base文件中給出了幾種基本的style,我們可以按照投稿的要求自行選擇 使用 BiBTeX 時,將設(shè)置參考書目樣式,并使用以下兩個命令導(dǎo)入?yún)⒖紩课募? 其

    2024年02月04日
    瀏覽(25)
  • 樸素,word,任何參考文獻導(dǎo)入endnote

    樸素,word,任何參考文獻導(dǎo)入endnote

    這里的參考文獻指的是類似于: 前面的序號有沒有無所謂,以及其他的Bibtex等格式均可以。 第一次使用endnote20,單純一個導(dǎo)入?yún)⒖嘉墨I忙活了一個下午的時間,因為我的參考文獻不是一個個PDF格式的,或者說之前從期刊網(wǎng)站上導(dǎo)出的,是 論文大約寫好了但是文獻太多借用

    2024年02月09日
    瀏覽(18)
  • 數(shù)據(jù)庫畢業(yè)設(shè)計參考文獻最新合集

    隨著國民經(jīng)濟的飛速發(fā)展,信息管理系統(tǒng)在各行各業(yè)的應(yīng)用不斷融合深化,但伴隨而來的安全風(fēng)險也在持續(xù)增加.數(shù)據(jù)庫系統(tǒng)作為信息管理系統(tǒng)的核心部分,它的安全直接關(guān)系到整個信息管理系統(tǒng)的安全.下面是搜素整理的數(shù)據(jù)庫畢業(yè)設(shè)計參考文獻,供大家閱讀指正。 數(shù)據(jù)庫畢業(yè)設(shè)

    2024年02月07日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包