現(xiàn)實世界中,問題的特征的數(shù)量往往是很大的,而其中起決定性作用的往往是很小的一部分,稀疏規(guī)則化算子的引入會學(xué)習(xí)去掉這些沒有信息的特征,也就是把這些特征對應(yīng)的權(quán)重置為 0。
1.稀疏性正則化:L? 正則化
稀疏向量通常包含許多維度,而創(chuàng)建?特征交叉?則會產(chǎn)生更多維度。考慮到如此高維的特征向量,模型可能會變得巨大且需要大量的 RAM 資源。
在高維稀疏向量中,最好將權(quán)重精確地下降到?0
。權(quán)重恰好為 0 本質(zhì)上意味著從模型中刪除相應(yīng)的特征,即該特征不再作為模型的輸入。此外,將特征歸零可節(jié)省 RAM,并減少模型中的噪聲。文章來源:http://www.zghlxwxcb.cn/news/detail-519159.html
例如,考慮一個不僅涵蓋加利福尼亞州而且涵蓋整個全球的住房數(shù)據(jù)集。以分(角分)級別(每度 60 分)存儲全球緯度,在稀疏編碼中提供大約 10,000 個維度;分級別的全球經(jīng)度給出了大約 20,000 個維度。這兩個特征的特征交叉將產(chǎn)生大約 200,000,000 個維度。這 200,000,000 個維度中的許多維度代表的居住區(qū)域非常有限(例如海洋中的位置)&#文章來源地址http://www.zghlxwxcb.cn/news/detail-519159.html
到了這里,關(guān)于機器學(xué)習(xí)14:稀疏性-Sparsity的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!