国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者

這篇具有很好參考價值的文章主要介紹了HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

HuggingFace是目前最火熱的AI社區(qū),很多人稱之為AI模型的GitHub。包括Google、微軟等很多知名企業(yè)都在上面發(fā)布模型。

HuggingFace簡介:https://www.datalearner.com/blog/1051636550099750

而HuggingFace上提供的流行的模型也是大家應(yīng)當(dāng)關(guān)注的內(nèi)容。本文簡單介紹一下2023年4月初的七天(當(dāng)然包括3月底幾天)的最流行的9個模型(為什么9個,因?yàn)槲野l(fā)現(xiàn)第10個是一個數(shù)據(jù)集!服了?。W尨蠹铱纯吹厍蛉硕荚陉P(guān)注和使用什么模型。

HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者

上圖就是過去七天最流行的模型,我們分別簡單介紹一下。

Cerebras-GPT-13B

Cerebras GPT是由Cerebras公司開源的自然語言處理領(lǐng)域的預(yù)訓(xùn)練大模型,其模型參數(shù)規(guī)模最小1.11億,最大130億,共7個模型。

Cerebras-GPT-13B模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/Cerebras-GPT

與業(yè)界的模型相比,Cerebras-GPT幾乎是各個方面完全公開,沒有任何限制。不管是模型架構(gòu),還是預(yù)訓(xùn)練結(jié)果都是公開的。目前開源的模型結(jié)構(gòu)和具體訓(xùn)練細(xì)節(jié)如下:

HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者

而排行榜第一的13B是其中最大的模型。過去七天它獲得了2.68K的關(guān)注,當(dāng)之無愧的第一名。

stable-diffusion-v1-5

著名的開源的Text-to-Image模型,是DALL·E2和Midjourney的免費(fèi)替代品。Stable-Diffusion-v1-5的checkpoints使用Stable-Diffusion-v1-2的權(quán)重進(jìn)行了初始化,隨后在“l(fā)aion-aesthetics v2 5+”上以512x512的分辨率進(jìn)行了595k步的微調(diào),并且降低了10%的文本調(diào)節(jié)來改善無分類器的引導(dǎo)采樣。

盡管StableDiffusion2.1已經(jīng)發(fā)布(Stable Diffusion2.0版本模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/stable-diffusion-2?),這個1.5模型這么火熱真沒有想到(真實(shí)原因大概是1.5之后的版本在NSFW方面做了限制)。

清華大學(xué)的ChatGLM-6B

清華大學(xué)著名的ChatGLM-6B的開源模型?;贕LM-13B模型做的指令微調(diào)。由于僅包含60億參數(shù),且效果很好,可以在自己電腦上運(yùn)行,因此十分受歡迎。本周排行第三,十分值得大家嘗試!

ChatGLM-6B模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/ChatGLM-6B

stable-diffusion-v2-1

不多說了,Stable Diffusion的2.1版本?;赟D2.0版本做的進(jìn)一步訓(xùn)練。于2022年12月7日發(fā)布。本次排行第四!

controlnet

ontrolNet是一種新的神將網(wǎng)絡(luò)結(jié)構(gòu),由斯坦福大學(xué)的Lvmin Zhang和Maneesh Agrawala提出的可以用來增強(qiáng)擴(kuò)散模型的方法。主要是基于已有的Text-to-Image預(yù)訓(xùn)練模型對特定數(shù)據(jù)進(jìn)行微調(diào)以更加適合使用者的目的。這個結(jié)構(gòu)最大的特點(diǎn)是可以在比較資源少的設(shè)備如個人PC上對大模型進(jìn)行調(diào)整以獲得更好的效果。

由于其結(jié)構(gòu)簡單,并且與其它模型簡單配合就可以做成更好的效果,所以一直十分受歡迎。而作者也在其HuggingFace上提供了很多模型的實(shí)現(xiàn),包括 Canny邊緣檢測、圖像分割等。具體參考ControlNet模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/ControlNet

dolly-v1-6b

dolly-v1-6b是由Databricks創(chuàng)建的一個60億參數(shù)的因果語言模型,它源自EleutherAI的GPT-J(于2021年6月發(fā)布),并在一個約為52,000個記錄的指令語料庫(Stanford Alpaca)(CC-NC-BY-4.0)上進(jìn)行了微調(diào),其中包括使用Self-Instruct論文中概述的技術(shù)生成的問答對。Dolly的原始版本是使用deepspeed ZeRO 3在Databricks機(jī)器學(xué)習(xí)平臺上訓(xùn)練的,僅使用一臺NDasrA100_v4機(jī)器和8個A100 40GB GPU,只需30分鐘(1個epoch)即可完成。

Dolly具有與ChatGPT相似的驚人的指令跟隨能力。

Dolly的模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/Dolly

GPTrillion

GPTrillion是由Banana公司訓(xùn)練的一個1.5萬億參數(shù)的模型。沒錯!1.5萬億參數(shù)。

GPTrillion是由Banana.dev的開源研究團(tuán)隊(duì)Plantain Labs在僅6個月的時間里訓(xùn)練而成的。Banana提供了訓(xùn)練計算資源,利用服務(wù)器GPU集群在低負(fù)載期間進(jìn)行訓(xùn)練。

最重要的,該模型完全開源!

GPTrillion模型卡信息:https://huggingface.co/banana-dev/GPTrillion

—-更正:GPTrillion是愚人節(jié)玩笑節(jié)目,里面的項(xiàng)目已經(jīng)被刪除!

llama-7b-hf

LLaMA是著名的MetaAI開源的大語言預(yù)訓(xùn)練模型,也因?yàn)樗拈_源以及斯坦福發(fā)布的Alpaca工作,讓LLaMA成為最近這些天發(fā)布的模型的基礎(chǔ)(也就是說最近很多模型都是用LLaMA微調(diào)的)。而這個是Decapoda Research在HuggingFace上部署的。是將原始的預(yù)訓(xùn)練結(jié)果轉(zhuǎn)換成與Transformers/HuggingFace兼容的文件。

LLaMA模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/LLaMA

OrangeMixs

這是一個宅男神器,是基于StableDiffusion做的生成美少女插畫的模型集合。

下圖就是它生成的一些圖:

HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者

OrangeMixs 是一個免費(fèi)的 Stable Diffusion 合并模型集,它包含了一些具有不同特征的合并模型,用于生成美少女插畫。

OrangeMixs 是由 WarriorMama777 在 Google Colab 上創(chuàng)建的 Stable Diffusion 模型,可以通過單擊進(jìn)行設(shè)置。它旨在為日本社區(qū)提供常用模型的便捷訪問,并作為上傳合并模型的地方。它支持 Gradio Web UI 來運(yùn)行 OrangeMixs。

最主要的是這是開源可下載的!文章來源地址http://www.zghlxwxcb.cn/news/detail-461118.html

到了這里,關(guān)于HuggingFace過去七天最流行的AI模型一覽——預(yù)訓(xùn)練大模型絕對王者的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包