歡迎來到【今日AI】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
新鮮AI產(chǎn)品點(diǎn)擊了解:AIbase - 智能匹配最適合您的AI產(chǎn)品和網(wǎng)站
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
? ? ???????AI應(yīng)用
阿里正在打造一款A(yù)I電商產(chǎn)品“繪蛙”
【AiBase提要:】
?該產(chǎn)品主要針對(duì)商家和達(dá)人,主要功能有AI文案生成和AI生圖
?AI文案主要實(shí)現(xiàn)單商品種草、爆文改寫、穿搭分享等
?AI生圖主要將為淘寶、天貓商家和達(dá)人訓(xùn)練專屬AI模特,打造網(wǎng)紅同款商品圖
北大團(tuán)隊(duì)發(fā)起復(fù)現(xiàn)Sora計(jì)劃“OpenSora”AnimateDiff大神響應(yīng)
【AiBase提要:】
??北大團(tuán)隊(duì)與兔展啟動(dòng)復(fù)現(xiàn)Sora計(jì)劃,名為OpenSora,目前框架已搭建。
??OpenSora計(jì)劃采用三部分組成的框架,包括VideoVQ-VAE、DenoisingDiffusionTransformer和ConditionEncoder。
??目前團(tuán)隊(duì)需要更多的數(shù)據(jù)和GPU進(jìn)行訓(xùn)練,北大校友、AnimateDiff大神等積極響應(yīng)。
項(xiàng)目地址:Open-Sora-Plan使用入口地址 Ai模型最新工具和軟件app下載
ComfyUI透明圖層生成插件LayerDiffusion正式上線
【AiBase提要:】
?不僅支持直接生成透明的圖片元素,還可以在已有圖片上生成與環(huán)境融合的透明圖片。
?該插件主要包含兩個(gè)節(jié)點(diǎn),其中一個(gè)遮罩節(jié)點(diǎn)需要安裝comfyui-tooling-nodes插件。
?目前只支持生成,圖像質(zhì)量可媲美真實(shí)的商業(yè)級(jí)透明素材
項(xiàng)目地址:ComfyUI-layerdiffusion使用入口地址 Ai模型最新工具和軟件app下載
ComfyUI-Mana-Nodes:一個(gè)好玩的ComfyUI插件可自定義字體動(dòng)畫
【AiBase提要:】
??支持生成自定義程度極高的字體動(dòng)畫
??用戶可自定義背景顏色、字體顏色等
??插件支持使用本地字體文件,提供更多創(chuàng)作可能性
項(xiàng)目地址:ComfyUI-Mana-Nodes使用入口地址 Ai插件最新工具和軟件app下載
D-IDAgents:1張照片+聲音克隆定制數(shù)字分身
【AiBase提要:】
?1張照片+克隆你的聲音+同步用戶知識(shí)庫就能定制專屬數(shù)字分身
?數(shù)字人可以代替你進(jìn)行視頻對(duì)話,僅有2秒延遲,可用在視頻開會(huì)等場景
?注冊(cè)賬號(hào)就可以體驗(yàn),每個(gè)用戶有200次免費(fèi)使用的機(jī)會(huì)
體驗(yàn)地址:D-ID Agents使用入口地址 Ai網(wǎng)站最新工具和軟件app下載
浙大&微軟推出視頻編輯框架UniEdit,無須訓(xùn)練、支持多種編輯場景
【AiBase提要:】
? UniEdit在多種視頻編輯場景中表現(xiàn)優(yōu)異
? UniEdit獨(dú)特之處在于支持動(dòng)作編輯和多種外觀編輯場景
? UniEdit利用時(shí)間自注意層和空間自注意層實(shí)現(xiàn)編輯視頻動(dòng)作和外觀
項(xiàng)目主頁:https://jianhongbai.github.io/UniEdit
AI漫畫生成應(yīng)用Dashtoon小說推文制作一大利器
【AiBase提要:】
??可一次性生成漫畫,提供充分的編輯和自定義空間
??人物一致性處理成熟,具有高借鑒價(jià)值
??提高制作效率和質(zhì)量,打開新的可能性
體驗(yàn)地址:Dashtoon使用入口地址 Ai網(wǎng)站最新工具和軟件app下載
GitHub又火了一款A(yù)I工具 DUSt3R :2張圖2秒鐘3D 重建
【AiBase提要:】
?? DUSt3R 在單目 / 多視圖深度估計(jì)以及相對(duì)位姿估計(jì)任務(wù)上表現(xiàn)出色。
?? 作者團(tuán)隊(duì)采用全新方法,無需相機(jī)校準(zhǔn)或視點(diǎn)姿勢先驗(yàn)信息,能在任意圖像中完成3D 重建。
?? DUSt3R 在多項(xiàng)任務(wù)上取得了 SOTA 的成績,展現(xiàn)出其強(qiáng)大功能和適用性。
論文https://arxiv.org/abs/2312.14132
項(xiàng)目入口:DUSt3R: Geometric 3D Vision Made Easy
什么值得買AI購物助手“小值”上線 提供全網(wǎng)購物推薦和建議
【AiBase提要:】
?? 自主研發(fā)的AI購物助手“小值”在“什么值得買”App上線
?? 提供實(shí)時(shí)優(yōu)惠價(jià)格和商品口碑評(píng)價(jià),幫助用戶做出明智購物決策
?? 通過意圖識(shí)別模型推薦符合用戶需求的優(yōu)質(zhì)商品,帶來全新購物體驗(yàn)
??????AI新鮮事
Meta AI提出MobileLLM:為在移動(dòng)設(shè)備上部署LLM提供新思路
【AiBase提要:】
?? LLM在移動(dòng)設(shè)備上遇到挑戰(zhàn)
?? MobileLLM通過深窄結(jié)構(gòu)設(shè)計(jì)和參數(shù)優(yōu)化提高性能表現(xiàn)
?? 打開了在資源受限環(huán)境下應(yīng)用LLM的新可能性
谷歌Chrome在搜索欄中增加更多搜索功能
【AiBase提要:】
?? Chrome應(yīng)用中與購物相關(guān)的搜索會(huì)展示更廣泛的產(chǎn)品和購物類別的圖片縮略圖。
?? 即使在網(wǎng)絡(luò)連接較差的情況下,Chrome會(huì)通過“改進(jìn)的設(shè)備端功能”提供搜索建議。
?? 搜索框中顯示基于之前搜索記錄的建議查詢內(nèi)容,為用戶提供更智能、個(gè)性化的搜索體驗(yàn)。
港大開發(fā)V-IRL平臺(tái):將真實(shí)世界地圖納入虛擬環(huán)境 給AI Agent完整的一生!
【AiBase提要:】
? 港大和NYU的研究團(tuán)隊(duì)合作開發(fā)V-IRL平臺(tái),將真實(shí)世界地圖等信息融入虛擬環(huán)境,提供AI Agent更真實(shí)生活體驗(yàn)。
? V-IRL平臺(tái)模擬真實(shí)環(huán)境,使智能體執(zhí)行復(fù)雜任務(wù),并可在不同任務(wù)間協(xié)作解決問題。
? 研究人員基于V-IRL進(jìn)行了地點(diǎn)識(shí)別、視覺問答和導(dǎo)航等測試,展示AI在現(xiàn)實(shí)世界的廣泛應(yīng)用潛力。
項(xiàng)目地址:GitHub - VIRL-Platform/VIRL: Code for V-IRL: Grounding Virtual Intelligence in Real Life
清華、哈工大提出OneBit方法:可把大模型壓縮到1bit 保持83% 性能
【AiBase提要:】
? 清華大學(xué)和哈爾濱工業(yè)大學(xué)聯(lián)合發(fā)布論文,將嘗試1bit 量化,突破了2bit 的限制;
? 新方法結(jié)合1bit 層結(jié)構(gòu)、基于 SVID 的參數(shù)初始化和量化感知訓(xùn)練。
?1bit 量化突破了2bit 障礙,為在移動(dòng)設(shè)備上高效運(yùn)行大模型提供新可能性。
論文地址:https://arxiv.org/pdf/2402.11295.pdf
AiBase副業(yè)搞錢交流群
歡迎大家加入AiBase交流群, 掃碼進(jìn)入,暢談AI賺錢心得,共享最新行業(yè)動(dòng)態(tài),發(fā)現(xiàn)潛在合作伙伴,迎接未來的賺錢機(jī)遇!。文章來源:http://www.zghlxwxcb.cn/news/detail-840035.html
文章來源地址http://www.zghlxwxcb.cn/news/detail-840035.html
到了這里,關(guān)于今日AI:阿里欲推AI電商產(chǎn)品“繪蛙”;北大團(tuán)隊(duì)發(fā)起復(fù)現(xiàn)Sora計(jì)劃;ComfyUI LayerDiffusion正式上線;AI工具DUSt3R GitHub爆火的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!