国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于可解釋性特征矩陣與稀疏采樣全局特征組合的人體行為識別

這篇具有很好參考價值的文章主要介紹了基于可解釋性特征矩陣與稀疏采樣全局特征組合的人體行為識別。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

論文還未發(fā)表,不細說,歡迎討論。

Title: A New Solution to Skeleton-Based Human Action Recognition via the combination usage of explainable feature extraction and sparse sampling global features.

Abstract:?With the development of deep learning technology, the vision-based applications of human action recognition (HAR) have received great progress. Many methods followed the idea of data-driven and tried their best to include more and more motion features in consideration for higher accuracy purposes. However, the thought of “the more features adopted, the higher accuracy will be”will inevitably result in the ever-increasing requirement of computing power and decreasing efficiency. In this paper, in order to effectively recognize human actions with only a few of the most sensitive motion features, the explainable features, the combining usage of local and global features, and a multi-scale shallow network are proposed. First, the explainable features let a deep neural network be finetuned in the input stage, and an action represented by these features are easier to find priori theory of physics and kinematics for data augmentation purpose. Second, although criticism of the global features never stops, it is universally acknowledged that the context information included in the global feature is essential to HAR. The proposed SMHI—motion history image generated in a sparse sampling way, can not only reduce the time-cost, but also effectively reflect the motion tendency. It is suggested to be a useful complementary of local features. Third, full experiments were conducted to find out the best feature combination for HAR. The results have proved that feature selection is more important than computing all features. The proposed method is evaluated on three datasets. The experiment results proved the effectiveness and efficiency of our proposed method. Moreover, the only usage of human skeleton motion data provides privacy assurances to users.

現(xiàn)在大多數(shù)方法有兩個問題:1. 將盡可能多的特征納入到輸入端,雖然可以增強準確率,但增加了計算負擔,而且模型越來越臃腫;2. 全局特征一直處于被拋棄的境地,而其包含的上下文信息卻有非常重要。針對這兩點,我嘗試用物理學和運動學中的先驗知識提取人體行為動作特征,使其具備可解釋性,然后對其優(yōu)化和數(shù)據(jù)增強。并進一步找到其最有效的組合。同時,通過稀疏采樣的方式構建MHI,即:只提取其運動趨勢特征。使之作為local feature的有效補充。實驗結果良好,特別是在效率方面有質的提升。本文的主要創(chuàng)新點在于跳出了主流“數(shù)據(jù)驅動”特征越多越好的傳統(tǒng)思路,通過實驗證明:特征選擇遠比計算所有特征更為重要。

基于可解釋性特征矩陣與稀疏采樣全局特征組合的人體行為識別,深度學習,計算機視覺,人工智能,深度學習,神經網絡文章來源地址http://www.zghlxwxcb.cn/news/detail-715261.html

到了這里,關于基于可解釋性特征矩陣與稀疏采樣全局特征組合的人體行為識別的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 機器學習中模型解釋性問題筆記

    ????????模型解釋性是指能夠理解和解釋機器學習模型如何做出預測或決策的能力。以下是一些機器學習中模型解釋性問題的例子: 醫(yī)療診斷:在醫(yī)療診斷領域,模型解釋性非常重要。例如,當使用深度學習模型進行腫瘤診斷時,醫(yī)生需要知道模型是基于哪些特征或區(qū)域

    2024年02月13日
    瀏覽(27)
  • 機器學習可解釋性一(LIME)

    機器學習可解釋性一(LIME)

    隨著深度學習的發(fā)展,越來越多的模型誕生,并且在訓練集和測試集上的表現(xiàn)甚至于高于人類,但是深度學習一直被認為是一個黑盒模型,我們通俗的認為,經過訓練后,機器學習到了數(shù)據(jù)中的特征,進而可以正確的預測結果,但是,對于機器到底學到了什么,仍然是個黑盒

    2024年01月19日
    瀏覽(30)
  • XAI——可解釋性人工智能

    可解釋性AI(XAI)旨在提高人工智能系統(tǒng)的透明度和可理解性,使人們更好地理解AI的決策過程和原理。隨著AI技術的廣泛應用,XAI成為了一個備受關注的重要領域。它不僅有助于建立人們對AI的信任,還可以幫助解決AI倫理和偏見等問題。XAI的研究和應用涵蓋了從算法改進、可

    2024年03月15日
    瀏覽(33)
  • 【機器學習可解釋性】3.部分依賴圖

    【機器學習可解釋性】3.部分依賴圖

    1.模型洞察的價值 2.特征重要性排列 3.部分依賴圖 4.SHAP 值 5.SHAP值的高級使用 每個特征怎么樣影響預測結果? 部分依賴圖 Partial Dependence Plots 雖然特征重要性顯示了哪些變量對預測影響最大,但部分依賴圖顯示了特征如何影響預測。 這對于回答以下問題很有用: 控制所有其

    2024年02月07日
    瀏覽(18)
  • 【機器學習可解釋性】4.SHAP 值

    【機器學習可解釋性】4.SHAP 值

    1.模型洞察的價值 2.特征重要性排列 3.部分依賴圖 4.SHAP 值 5.SHAP值的高級使用 理解各自特征的預測結果? 介紹 您已經看到(并使用)了從機器學習模型中提取一般解釋技術。但是,如果你想要打破模型對單個預測的工作原理? SHAP 值 (SHapley Additive exPlanations的首字母縮寫)對預測進

    2024年02月08日
    瀏覽(16)
  • 神經網絡的可解釋性方法

    全局可解釋性方法 局部可解釋性方法: Shap Value Permutation 積分梯度法: 避免了直接以梯度作為特征重要性所帶來的梯度飽和問題 Algorithm Descriptions · Captum

    2024年02月09日
    瀏覽(22)
  • 【可解釋性機器學習】詳解Python的可解釋機器學習庫:SHAP

    【可解釋性機器學習】詳解Python的可解釋機器學習庫:SHAP

    可解釋機器學習 在這幾年慢慢成為了機器學習的重要研究方向。作為數(shù)據(jù)科學家需要防止模型存在偏見,且?guī)椭鷽Q策者理解如何正確地使用我們的模型。越是嚴苛的場景,越 需要模型提供證明它們是如何運作且避免錯誤的證據(jù) 。 關于模型解釋性,除了線性模型和決策樹這種

    2023年04月09日
    瀏覽(30)
  • 使用BERT分類的可解釋性探索

    使用BERT分類的可解釋性探索

    最近嘗試了使用BERT將告警信息當成一個文本去做分類,從分類的準召率上來看,還是取得了不錯的效果(非結構化數(shù)據(jù)+強標簽訓練,BERT確實是一把大殺器)。但準召率并不是唯一追求的目標,在安全場景下,不僅僅需要模型告訴我們分類結果,還必須把這么分類的原因給輸

    2024年02月15日
    瀏覽(28)
  • 可解釋性AI(XAI)之 初相識

    ?可解釋性AI(XAI)的概念產生 可解釋性AI(XAI)是一個相對較新的概念,旨在提高人工智能系統(tǒng)的透明度和可理解性,使人們更好地理解AI的決策過程和原理。隨著AI技術的廣泛應用,XAI成為了一個備受關注的重要領域。它不僅有助于建立人們對AI的信任,還可以幫助解決AI倫

    2024年02月22日
    瀏覽(19)
  • 【可解釋AI】圖神經網絡的可解釋性方法及GNNexplainer代碼示例

    【可解釋AI】圖神經網絡的可解釋性方法及GNNexplainer代碼示例

    深度學習模型的可解釋性有助于增加對模型預測的信任, 提高模型對與公平、隱私和其他安全挑戰(zhàn)相關的關鍵決策應用程序的透明度,并且可以讓我們了解網絡特征,以便在將模型部署到現(xiàn)實世界之前識別和糾正模型所犯錯誤的系統(tǒng)模式。 圖在現(xiàn)實世界中無處不在,代表社

    2024年02月07日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包