? 1: Qwen1.5-32B
Qwen1.5-32B是Qwen1.5系列中性能與效率兼顧的最新語言模型,內(nèi)存占用低,運行速度快。
Qwen1.5-32B是Qwen1.5語言模型系列的最新成員,這個模型是基于先進的技術(shù)研發(fā)的,旨在提供一種既高效又經(jīng)濟的AI語言理解和生成工具。
Qwen1.5-32B是一款既高效又經(jīng)濟實惠的語言模型,適用于需要自然語言處理能力的多種場景。尤其對于那些追求成本效益、運行效率,同時又不愿犧牲太多性能的開發(fā)者和企業(yè)來說,Qwen1.5-32B提供了一個非常吸引人的選擇。
地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/
? 2: Hand Talk
利用3D角色和人工智能將文字和音頻自動翻譯成手語的應(yīng)用程序
Hand Talk是一個旨在促進交流和幫助學(xué)習(xí)美國手語(ASL)和巴西手語(Libras)的應(yīng)用程序。它通過人工智能將文本和音頻自動翻譯為手語。該應(yīng)用程序通過兩個可愛的3D角色,Hugo和Maya,來引導(dǎo)用戶學(xué)習(xí)手語,使得學(xué)習(xí)過程既實用又有趣。全球有超過4.66億的聾人和聽力受損的人,Hand Talk被聯(lián)合國評為世界上最佳的社會應(yīng)用程序之一,目標(biāo)是通過技術(shù)和交流拉近人們之間的距離。
地址:https://www.handtalk.me/en/app/
? 3: Chinese-Tiny-LLM
專注于中文處理的大型語言模型,它有20億參數(shù),主要用中文數(shù)據(jù)進行訓(xùn)練
Chinese-Tiny-LLM(簡稱CT-LLM)是一個專注于中文處理的大型語言模型,它有20億參數(shù),主要用中文數(shù)據(jù)進行訓(xùn)練。這個模型使用了1,2000億個token的語料庫,包括8000億個中文token、3000億個英文token和1000億個代碼token。這種多語言混合的訓(xùn)練方法提高了模型對中文的處理能力,并且通過對齊技術(shù)進一步改進。在中文語言任務(wù)上,CT-LLM在CHC-Bench上展示出優(yōu)秀的表現(xiàn),并且通過SFT(Structured Fine-Tuning)也能夠處理英文任務(wù)。這標(biāo)志著開發(fā)LLM(大型語言模型)的方向開始著重考慮中文,拓展了訓(xùn)練方法論。
地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM
? 4: VAR
北大發(fā)布新興的圖像生成方法
Visual Autoregressive Modeling (VAR) 是一種新興的圖像生成方法,它代表了生成式預(yù)訓(xùn)練模型(如GPT系列模型)在視覺生成領(lǐng)域的重要進步。VAR模型通過使用一種稱為“下一尺度預(yù)測”或“下一分辨率預(yù)測”的方法,重新定義了對圖像的自回歸學(xué)習(xí)。這與傳統(tǒng)的按照像素序列逐點預(yù)測的方法有所不同。
地址:https://github.com/FoundationVision/VAR文章來源:http://www.zghlxwxcb.cn/news/detail-849227.html
更多AI工具,參考國內(nèi)AiBard123,Github-AiBard123文章來源地址http://www.zghlxwxcb.cn/news/detail-849227.html
到了這里,關(guān)于阿里通義千問開源 320 億參數(shù)模型;文字和音頻自動翻譯成手語Hand Talk拉近人與人的距離的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!