国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀 HighlightMe: Detecting Highlights from Human-Centric Videos

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀 HighlightMe: Detecting Highlights from Human-Centric Videos。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

摘要:

我們提出了一種與領(lǐng)域和用戶偏好無關(guān)的方法來檢測(cè)以人為中心的視頻中的精彩片段摘錄。我們的方法適用于視頻中多種可觀察到的以人為中心的模態(tài)的基于圖形的表示,例如姿勢(shì)和面部。我們使用配備時(shí)空?qǐng)D卷積的自動(dòng)編碼器網(wǎng)絡(luò)來檢測(cè)基于這些模式的人類活動(dòng)和交互。我們根據(jù)幀的代表性訓(xùn)練網(wǎng)絡(luò),將不同模態(tài)的基于活動(dòng)和交互的潛在結(jié)構(gòu)表示映射到每幀的突出得分。我們使用這些分?jǐn)?shù)來計(jì)算要突出顯示哪些幀并縫合連續(xù)幀以生成摘錄。我們?cè)诖笠?guī)模 AVA-Kinetics 動(dòng)作數(shù)據(jù)集上訓(xùn)練我們的網(wǎng)絡(luò),并在四個(gè)基準(zhǔn)視頻集錦數(shù)據(jù)集上對(duì)其進(jìn)行評(píng)估:DSH、TVSum、PHD2 和 SumMe。我們觀察到,與這些數(shù)據(jù)集中最先進(jìn)的方法相比,匹配人工注釋的精彩片段的平均精度提高了 4-12%,而無需任何用戶提供的首選項(xiàng)或特定于數(shù)據(jù)集的微調(diào)。

引言:

以人為中心的視頻關(guān)注人類活動(dòng)、任務(wù)和情感 。來自多個(gè)領(lǐng)域(例如業(yè)余體育和表演、講座、教程、視頻博客 (vlog) 以及個(gè)人或團(tuán)體活動(dòng),例如野餐和戶外活動(dòng)、假期旅行)的視頻構(gòu)成了快速增長(zhǎng)的在線媒體數(shù)量的主要部分

然而,未經(jīng)編輯的以人為中心的視頻也往往包含大量不相關(guān)和不感興趣的內(nèi)容,需要對(duì)其進(jìn)行編輯以實(shí)現(xiàn)高效瀏覽。

為了解決這個(gè)問題,研究人員開發(fā)了多種技術(shù)來檢測(cè)精彩鏡頭的摘錄和總結(jié)視頻 。給定未經(jīng)編輯的鏡頭,高光檢測(cè)會(huì)獲取感興趣的時(shí)刻,而摘要會(huì)計(jì)算最相關(guān)和最具代表性的摘錄集。檢測(cè)有效的高光不僅可以加快瀏覽速度,還可以提高這些精彩鏡頭被共享和推薦的機(jī)會(huì)。當(dāng)前的方法可以學(xué)習(xí)在給定帶注釋的高光或不同高光類別的示例集的情況下檢測(cè)這些摘錄,例如,從滑雪圖像中學(xué)習(xí)以檢測(cè)視頻中的滑雪摘錄 。其他方法通過學(xué)習(xí)每個(gè)幀或鏡頭相對(duì)于原始視頻的代表性并利用視頻元數(shù)據(jù)(例如持續(xù)時(shí)間和鏡頭的相關(guān)性)來消除監(jiān)督學(xué)習(xí)。所有這些方法都假設(shè)或受益于未編輯鏡頭的某些特定領(lǐng)域知識(shí),例如,跑步和跳躍可文章來源地址http://www.zghlxwxcb.cn/news/detail-565694.html

到了這里,關(guān)于論文閱讀 HighlightMe: Detecting Highlights from Human-Centric Videos的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 論文閱讀-AVoiD-DF: Audio-Visual Joint Learning for Detecting Deepfake(多模態(tài)數(shù)據(jù)集DefakeAVMiT+多模態(tài)鑒偽方法AVoiD-DF)

    論文閱讀-AVoiD-DF: Audio-Visual Joint Learning for Detecting Deepfake(多模態(tài)數(shù)據(jù)集DefakeAVMiT+多模態(tài)鑒偽方法AVoiD-DF)

    論文名稱:AVoiD-DF: Audio-Visual Joint Learning for Detecting Deepfake 作者團(tuán)隊(duì): ? 以前的方法僅側(cè)重單模態(tài)的偽造,即使有多模態(tài)的數(shù)據(jù)也只是將音頻信號(hào)當(dāng)做監(jiān)督信號(hào),忽略了音頻被偽造的可能。 提出一個(gè)新的多模態(tài)基準(zhǔn)數(shù)據(jù)集DefakeAVMiT,其包含足夠多的視頻和音頻偽造內(nèi)容,兩個(gè)

    2024年02月03日
    瀏覽(34)
  • 【論文閱讀】Generative Pretraining from Pixels

    【論文閱讀】Generative Pretraining from Pixels

    引用: Chen M, Radford A, Child R, et al. Generative pretraining from pixels[C]//International conference on machine learning. PMLR, 2020: 1691-1703. 論文鏈接: http://proceedings.mlr.press/v119/chen20s.html 受自然語(yǔ)言中無監(jiān)督表示學(xué)習(xí)進(jìn)展的啟發(fā),作者研究了類似的模型是否能夠?qū)W習(xí)圖像的有用表示, 訓(xùn)練了一個(gè)序

    2024年03月11日
    瀏覽(38)
  • 【論文閱讀】Learing to summarize from human feedback

    【論文閱讀】Learing to summarize from human feedback

    更多關(guān)于大模型的文章可見:ShiyuNee/Awesome-Large-Language-Models: Papers about large language models (github.com) 該倉(cāng)庫(kù)持續(xù)更新 通過訓(xùn)練模型來向著人類偏好優(yōu)化可以顯著提高摘要質(zhì)量。 High-level methodology 從一個(gè)在摘要數(shù)據(jù)集上使用SFT微調(diào)好的初始模型開始,然后經(jīng)過以下三個(gè)步驟: 從已

    2024年02月09日
    瀏覽(20)
  • 論文閱讀:Offboard 3D Object Detection from Point Cloud Sequences

    論文閱讀:Offboard 3D Object Detection from Point Cloud Sequences

    目錄 概要 Motivation 整體架構(gòu)流程 技術(shù)細(xì)節(jié) 3D Auto Labeling Pipeline The static object auto labeling model The dynamic object auto labeling model 小結(jié) 論文地址: [2103.05073] Offboard 3D Object Detection from Point Cloud Sequences (arxiv.org) ? ? 該論文提出了一種利用點(diǎn)云序列數(shù)據(jù)進(jìn)行離線三維物體檢測(cè)的方法,稱

    2024年02月06日
    瀏覽(30)
  • 論文閱讀-BotPercent: Estimating Twitter Bot Populations from Groups to Crowds

    論文閱讀-BotPercent: Estimating Twitter Bot Populations from Groups to Crowds

    目錄 摘要 引言 方法 數(shù)據(jù)集 BotPercent架構(gòu) 實(shí)驗(yàn)結(jié)果 活躍用戶中的Bot數(shù)量 Bot Population among Comment Sections ?Bot Participation in Content Moderation Votes ?Bot Population in Different Countries’ Politics 論文鏈接:https://arxiv.org/pdf/2302.00381.pdf ????????Twitter機(jī)器人檢測(cè)在打擊錯(cuò)誤信息、識(shí)別惡意在

    2024年02月14日
    瀏覽(21)
  • 論文閱讀《Learning Adaptive Dense Event Stereo from the Image Domain》

    論文閱讀《Learning Adaptive Dense Event Stereo from the Image Domain》

    論文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Cho_Learning_Adaptive_Dense_Event_Stereo_From_the_Image_Domain_CVPR_2023_paper.html ??事件相機(jī)在低光照條件下可以穩(wěn)定工作,然而,基于事件相機(jī)的立體方法在域遷移時(shí)性能會(huì)嚴(yán)重下降。無監(jiān)督領(lǐng)域自適應(yīng)作為該問題的一種解決方法,傳統(tǒng)的

    2024年02月04日
    瀏覽(19)
  • On Moving Object Segmentation from Monocular Video with Transformers 論文閱讀

    On Moving Object Segmentation from Monocular Video with Transformers 論文閱讀

    標(biāo)題 :On Moving Object Segmentation from Monocular Video with Transformers 作者 : 來源 :ICCV 時(shí)間 :2023 代碼地址 :暫無 通過單個(gè)移動(dòng)攝像機(jī)進(jìn)行移動(dòng)對(duì)象檢測(cè)和分割是一項(xiàng)具有挑戰(zhàn)性的任務(wù),需要了解識(shí)別、運(yùn)動(dòng)和 3D 幾何。將識(shí)別和重建結(jié)合起來可以歸結(jié)為融合問題,其中需要結(jié)合外

    2024年02月08日
    瀏覽(21)
  • A Survey of Embodied AI: From Simulators to Research Tasks 論文閱讀

    A Survey of Embodied AI: From Simulators to Research Tasks 論文閱讀

    題目 :A Survey of Embodied AI: From Simulators to Research Tasks 作者 :Jiafei Duan, Samson Yu 來源 :arXiv 時(shí)間 :2022 通過評(píng)估當(dāng)前的九個(gè)具體人工智能模擬器與我們提出的七個(gè)功能,本文旨在了解模擬器在具體人工智能研究中的使用及其局限性。 本文調(diào)查了實(shí)體人工智能的三個(gè)主要研究任

    2024年02月14日
    瀏覽(27)
  • 論文閱讀-Training a Helpful and Harmless Assistant withReinforcement Learning from Human Feedback

    論文閱讀-Training a Helpful and Harmless Assistant withReinforcement Learning from Human Feedback

    一、論文信息 論文名稱: Training a Helpful and Harmless Assistant withReinforcement Learning from Human Feedback? Github:? GitHub - anthropics/hh-rlhf: Human preference data for \\\"Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback\\\" 作者團(tuán)隊(duì): 發(fā)表時(shí)間: 2022年4月12日,比insturctgpt晚40天,比

    2024年02月10日
    瀏覽(22)
  • 論文閱讀:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

    論文閱讀:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

    CVPR2022 首先我們由一組室內(nèi)的RGB圖像 { I i } i = 0 N ? 1 , I i ∈ [ 0 , 1 ] H × W × 3 {I_i}^{N-1}_{i=0}, I_i in [0,1]^{H times W times 3} { I i ? } i = 0 N ? 1 ? , I i ? ∈ [ 0 , 1 ] H × W × 3 。 通過SFM的方法,我們可以獲得相機(jī)位姿 p i ∈ R 6 p_i in mathbb{R}^6 p i ? ∈ R 6 , 內(nèi)參矩陣 K i ∈ R 3 ×

    2024年02月09日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包