預(yù)測知識 | 機(jī)器學(xué)習(xí)預(yù)測模型局限性
問題描述
-
數(shù)據(jù)基礎(chǔ)設(shè)施:要構(gòu)建模型,必須有數(shù)據(jù),且有多來源的大數(shù)據(jù)。這一切都離不開數(shù)據(jù)基礎(chǔ)設(shè)施的建設(shè)和發(fā)展。
-
錯誤數(shù)據(jù)輸入:數(shù)據(jù)質(zhì)量是任何分析的基石,如果數(shù)據(jù)的數(shù)據(jù)質(zhì)量很差甚至錯誤,那么得到的結(jié)果也將是不可靠或錯誤的,正所謂garbage in,garbage out!因此,高質(zhì)量數(shù)據(jù)來源是人工智能研究的基礎(chǔ)。
-
數(shù)據(jù)漂移:這指的是用來決策的數(shù)據(jù)和模型訓(xùn)練的數(shù)據(jù)存在很大差異??上攵@種情況下模型性能勢必不佳。數(shù)據(jù)飄移包括如下幾種,1)協(xié)變量漂移,指的是預(yù)測因素在兩個數(shù)據(jù)集上分布差異很大;2)先驗概率漂移,指的是兩個數(shù)據(jù)集上結(jié)局發(fā)生率不同;3)概念漂移,指的是協(xié)變量和結(jié)局之間的關(guān)系隨時間而變化。因此,要使構(gòu)建的模型好,一定要解決數(shù)據(jù)漂移問題,這也是為什么研究論文中,需要開展訓(xùn)練集和測試集比較的原因所在(備注:期望結(jié)果是,訓(xùn)練集和測試集不存在差異)。
-
缺乏外部驗證:目前研究文獻(xiàn)中所構(gòu)建的預(yù)測模型,絕大多數(shù)僅做了內(nèi)部驗證,而缺乏有效的外部驗證。原因很簡單,數(shù)據(jù)比較難獲取罷了。但是外部驗證這個東西,也是一個相對寬泛的概念,其包括了同一個隊列非同一時段的時間外部驗證,也包括不同隊列來源的驗證。所以,在數(shù)據(jù)有限時,不妨試試時間外部驗證。
-
有限的泛化能力:泛化能力指的是模型在應(yīng)用到新數(shù)據(jù)集時的表現(xiàn)。盡管現(xiàn)在很多文獻(xiàn),包括頂刊發(fā)表的模型,其報告的性能很高,但是泛化能力卻不得而知。尤其是模型構(gòu)建時,受限于研究數(shù)據(jù),其僅代表了當(dāng)時背景下的人群特征,一旦泛化到更一般人群時,其模型預(yù)測效果可能大打折扣。
-
模型黑盒問題:當(dāng)下算力越來越快,模型越來越復(fù)雜。在人工智能研究中,你可能很難找到類似線性回歸、決策樹這種易于理解的小而簡的模型了。事實上正是如此,越來越多研究追求大而復(fù)雜的模型,旨在提高預(yù)測效果。但是,一個不可避免的問題就是,模型可解釋性很差。關(guān)于如何解決該問題,也衍生出一門學(xué)問,即可解釋性機(jī)器學(xué)習(xí)。
未來發(fā)展
機(jī)器學(xué)習(xí)作為人工智能領(lǐng)域的重要分支,在未來發(fā)展方面有許多潛力和趨勢。
-
深度學(xué)習(xí)的進(jìn)一步發(fā)展:深度學(xué)習(xí)已經(jīng)在圖像識別、語音識別、自然語言處理等領(lǐng)域取得了巨大成功。未來,深度學(xué)習(xí)模型的架構(gòu)和算法可能會進(jìn)一步改進(jìn),以提高模型的性能和效率。
-
遷移學(xué)習(xí)和增強(qiáng)學(xué)習(xí)的應(yīng)用擴(kuò)展:遷移學(xué)習(xí)和增強(qiáng)學(xué)習(xí)是機(jī)器學(xué)習(xí)中的重要技術(shù),用于在不同任務(wù)和環(huán)境中進(jìn)行知識遷移和決策優(yōu)化。未來,這些技術(shù)可能會在更廣泛的應(yīng)用領(lǐng)域得到應(yīng)用,例如自動駕駛、智能機(jī)器人等。
-
解釋性機(jī)器學(xué)習(xí)和可解釋性人工智能:隨著機(jī)器學(xué)習(xí)模型的復(fù)雜性增加,解釋性機(jī)器學(xué)習(xí)和可解釋性人工智能變得越來越重要。未來,研究人員可能會更加關(guān)注如何解釋和理解機(jī)器學(xué)習(xí)模型的決策過程,以及如何提高模型的可解釋性和可信度。
-
自動化機(jī)器學(xué)習(xí):自動化機(jī)器學(xué)習(xí)旨在簡化機(jī)器學(xué)習(xí)的流程,使非專業(yè)人士也能夠輕松應(yīng)用機(jī)器學(xué)習(xí)技術(shù)。未來,自動化機(jī)器學(xué)習(xí)工具和平臺可能會進(jìn)一步發(fā)展,提供更智能、高效的模型選擇、特征工程和超參數(shù)調(diào)優(yōu)等功能。
-
聯(lián)邦學(xué)習(xí)和隱私保護(hù):聯(lián)邦學(xué)習(xí)是一種分布式學(xué)習(xí)方法,可以在保護(hù)數(shù)據(jù)隱私的同時進(jìn)行模型訓(xùn)練與更新。隨著對數(shù)據(jù)隱私的關(guān)注增加,聯(lián)邦學(xué)習(xí)和隱私保護(hù)技術(shù)可能會在未來得到更廣泛的應(yīng)用。
-
結(jié)合領(lǐng)域知識的機(jī)器學(xué)習(xí):結(jié)合領(lǐng)域知識和機(jī)器學(xué)習(xí)技術(shù)可以提高模型的性能和魯棒性。未來,研究人員可能會更加關(guān)注如何將領(lǐng)域知識融入到機(jī)器學(xué)習(xí)模型中,以提高模型的學(xué)習(xí)能力和泛化能力。
-
可持續(xù)性和公平性的機(jī)器學(xué)習(xí):可持續(xù)性和公平性是未來機(jī)器學(xué)習(xí)發(fā)展中的重要議題。研究人員和從業(yè)者可能會更加關(guān)注如何構(gòu)建可持續(xù)和公平的機(jī)器學(xué)習(xí)模型,避免模型的偏見和歧視。
需要注意的是,以上只是一些可能的未來發(fā)展方向,隨著科技的不斷進(jìn)步和應(yīng)用需求的變化,機(jī)器學(xué)習(xí)的發(fā)展將是一個不斷演化和創(chuàng)新的過程文章來源:http://www.zghlxwxcb.cn/news/detail-645032.html
參考資料
[1] Reference: Development and validation of predictive models for unplanned hospitalization in the Basque Country: analyzing the variability of non-deterministic algorithms文章來源地址http://www.zghlxwxcb.cn/news/detail-645032.html
到了這里,關(guān)于預(yù)測知識 | 機(jī)器學(xué)習(xí)預(yù)測模型局限性的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!