每周一期,縱覽音視頻技術(shù)領(lǐng)域的干貨。
新聞投稿:contribute@livevideostack.com。
Geenee AR為品牌商和零售商提供虛擬試穿應(yīng)用
這意味著Geenee AR的虛擬試穿解決方案能夠與品牌商現(xiàn)有的銷售渠道無縫集成。
誰說蘋果掉隊了?WWDC上只字未提AI,卻已低調(diào)入場大模型
盡管蘋果沒有在 WWDC 上談?wù)揂I 大模型,但他們介紹了一些基于 AI 的新功能,如改進(jìn)iPhone 的自動更正功能,當(dāng)你按下空格鍵時,它可以完成一個單詞或整個句子。該功能基于使用 Transformer 語言模型的 ML 程序,使自動更正比以往任何時候都更加準(zhǔn)確,而 Transformer 是支持 ChatGPT 的重要技術(shù)之一。
用于開源項(xiàng)目的 ChatGPT 驅(qū)動的代碼審查器機(jī)器人
ChatGPT可以審查代碼了:作者利用開源的ChatGPT制作的代碼審查機(jī)器人,可以進(jìn)行代碼審查,并提供有關(guān)代碼質(zhì)量、安全性和最佳實(shí)踐方面的反饋。
https://www.cncf.io/blog/2023/06/06/a-chatgpt-powered-code-reviewer-bot-for-open-source-projects/?
使用 SQuId 評估TTS模型
文章評估了TTS的系統(tǒng)表現(xiàn)。作者介紹了一種名為“ManyEars”的自動評估框架,該框架可以同時處理多個聲學(xué)和語言特征,并使用機(jī)器學(xué)習(xí)算法來生成客觀的質(zhì)量評估指標(biāo)。他們還提出了一種基于GAN(生成對抗網(wǎng)絡(luò))的數(shù)據(jù)增強(qiáng)方法,以幫助改善TTS模型的性能。?
https://ai.googleblog.com/2023/06/evaluating-speech-synthesis-in-many.html
視覺字幕:使用大語言模型通過動態(tài)視覺效果增強(qiáng)視頻會議
本文介紹了一個新的視覺字幕生成模型,該模型使用大語言模型訓(xùn)練,自動生成對圖像的描述。該模型在未來可能會被用于諸如輔助無障礙輸入、圖像搜索和自動圖像描述等領(lǐng)域。
https://ai.googleblog.com/2023/06/visual-captions-using-large-language.html、
?
高翔博士分享:單目SLAM在移動端應(yīng)用的實(shí)現(xiàn)難點(diǎn)有哪些??
華為手機(jī)的"超光譜攝像頭"
英偉達(dá)發(fā)布Neuralangelo,借助神經(jīng)網(wǎng)絡(luò)將2D視頻轉(zhuǎn)換為更精細(xì)的3D結(jié)構(gòu)
Neuralangelo可以生成雕塑的具有復(fù)雜細(xì)節(jié)和紋理的3D結(jié)構(gòu)。然后,創(chuàng)意專業(yè)人士可以將這些3D對象導(dǎo)入設(shè)計應(yīng)用程序,進(jìn)一步編輯它們以用于藝術(shù)、視頻游戲開發(fā)、機(jī)器人和工業(yè)數(shù)字孿生等應(yīng)用。
要能力、要穩(wěn)定也要降本——百度多媒體技術(shù)回顧
多媒體技術(shù)生態(tài)進(jìn)入到存量市場,客戶既要又要還要成為常態(tài)。如何將能力、質(zhì)量與穩(wěn)定性、成本不斷優(yōu)化,就是各個多媒體技術(shù)平臺的必修課。本文以百度智能視頻云為例,縱覽了其在RTC、邊緣計算、視頻編碼等關(guān)鍵能力與用戶體驗(yàn)和成本優(yōu)化的經(jīng)驗(yàn)。?
如何正確選擇恰當(dāng)?shù)膫髀暺鳎?/strong>?
音視頻問題匯總--如何兼容實(shí)時音視頻加密?
音頻格式--PCM介紹
基于語音識別的弱監(jiān)督聯(lián)合學(xué)習(xí)
具體來說,該方法使用一個中央服務(wù)器來協(xié)調(diào)各個客戶端的模型更新。服務(wù)器首先從未標(biāo)記的數(shù)據(jù)中提取出盡可能多的信息,并將其與客戶端提供的少量標(biāo)記數(shù)據(jù)結(jié)合起來訓(xùn)練一個初始模型。然后將該模型下發(fā)給各個客戶端,并根據(jù)客戶端反饋的準(zhǔn)確率和數(shù)據(jù)分布情況來調(diào)整模型參數(shù)。最終,所有客戶端的模型會被合并,形成一個全局模型。
https://www.amazon.science/blog/federated-learning-with-weak-supervision-for-speech-recognition
深度視頻預(yù)編碼
本文提出了一個深度視頻預(yù)編碼框架,其核心預(yù)編碼組件包括一個級聯(lián)結(jié)構(gòu)的降尺度神經(jīng)網(wǎng)絡(luò),在視頻編碼期間、傳輸之前操作。
百度視頻質(zhì)量評測的實(shí)踐之路
LiveVideoStackCon 2022北京站邀請來自百度的王偉老師為大家介紹百度視頻質(zhì)量評測的發(fā)展之路?。
?
蘋果封神頭顯Vision Pro竟暗藏「腦機(jī)接口」!蘋果前員工瘋狂揭秘讀心操控
其實(shí),這是蘋果通過算法來監(jiān)視你的眼睛行為,并實(shí)時重新設(shè)計UI,以創(chuàng)建更多這種預(yù)期的瞳孔反應(yīng),從而創(chuàng)建個人大腦的生物反饋。這就是通過眼睛實(shí)現(xiàn)的初級「腦機(jī)接口」。?
一文讀懂蘋果 Vision Pro:最好最貴的頭顯,重新定義下一代計算
與過去所有的 VR/AR 平臺相比,Vision Pro 的出現(xiàn)開創(chuàng)了一個新的紀(jì)元。從人機(jī)交互,到硬件規(guī)格,再到操作系統(tǒng)、生態(tài),以及數(shù)據(jù)隱私,蘋果重新定義了頭戴式設(shè)備的標(biāo)準(zhǔn)。
專訪瑞聲科技應(yīng)用軟件開發(fā)總監(jiān)陸其明:當(dāng)一名老兵決定重新上路
從互聯(lián)網(wǎng)公司到智能終端解決方案公司,陸其明的這次轉(zhuǎn)變可能難以被人理解。但經(jīng)濟(jì)大環(huán)境的影響和個人的技術(shù)困境還是讓他義無反顧地走向一個未知的世界。正如黃仁勛日前所言,“撤退”對聰明人來說并不容易。然而,戰(zhàn)略性的撤退、犧牲、決定放棄什么是成功非常關(guān)鍵的核心。?
2023LiveVideoStackCon上海站已進(jìn)入全價期
2023年SRT InterOp Plugfest亮點(diǎn)
在2023年的SRT InterOp Plugfest中,Haivision和YouTube合作展示了使用SRT技術(shù)進(jìn)行視頻傳輸?shù)母呋ゲ僮餍浴_@證明了SRT協(xié)議在實(shí)現(xiàn)不同設(shè)備和平臺之間高效視頻傳輸方面的能力。通過這些展示,人們看到了各種開發(fā)人員如何利用SRT協(xié)議來使視頻傳輸過程變得更加可靠和高效,并提供了與其他視頻流媒體解決方案無法匹敵的優(yōu)勢。
https://www.haivision.com/blog/all/highlights-2023-srt-interop-plugfest-with-youtube/
強(qiáng)化學(xué)習(xí)驅(qū)動的低延遲視頻傳輸
LiveVideoStackCon2022北京站邀請了來自北京郵電大學(xué)的周安福教授,為我們分享關(guān)于使用強(qiáng)化學(xué)習(xí)方法進(jìn)行低延遲視頻傳輸?shù)南嚓P(guān)研究成果?。
面向流媒體的確定時延傳輸:從QUIC出發(fā),走向未來
LiveVideoStackCon2022北京站邀請了清華大學(xué)的馬川為我們介紹QUIC協(xié)議的誕生、目前的拓展成果以及未來的發(fā)展方向?。
流媒體應(yīng)如何利用預(yù)測分析來提高留存率
預(yù)測分析的好處:了解用戶的偏好、行為和需求,提供更個性化的內(nèi)容和服務(wù);通過對數(shù)據(jù)進(jìn)行深入分析和建模(包括使用機(jī)器學(xué)習(xí)算法、數(shù)據(jù)挖掘工具和AI等技術(shù))提高留存率,增加收入。
https://www.streamingmedia.com/Articles/Post/Blog/How-Streaming-Platforms-Can-Harness-Predictive-Analytics-for-Better-Retention-158980.aspx
▲掃描圖中二維碼或點(diǎn)擊“閱讀原文”?▲文章來源:http://www.zghlxwxcb.cn/news/detail-481704.html
查看更多LiveVideoStackCon 2023上海站精彩話題文章來源地址http://www.zghlxwxcb.cn/news/detail-481704.html
到了這里,關(guān)于音視頻技術(shù)開發(fā)周刊 | 297的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!