国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

集體出走的Stability AI 發(fā)布全新代碼大模型,3B以下性能最優(yōu),超越Code Llama和DeepSeek-Coder

這篇具有很好參考價值的文章主要介紹了集體出走的Stability AI 發(fā)布全新代碼大模型,3B以下性能最優(yōu),超越Code Llama和DeepSeek-Coder。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Stability AI又有新動作!程序員又有危機了? 3月26日,Stability AI推出了先進的代碼語言模型Stable Code Instruct 3B,該模型是在Stable Code 3B的基礎上進行指令調(diào)優(yōu)的Code LM。

deepseek-coder,人工智能,llama

Stability AI 表示,Stable Code Instruct 3B 在代碼完成準確性、對自然語言指令的理解以及處理多種編程語言方面都優(yōu)于同類模型,在 3B 規(guī)模下提供最先進的性能,并且性能媲美Codellama 7B Instruct以及DeepSeek-Coder Instruct 1.3B

GPT-3.5研究測試:

https://hujiaoai.cn

GPT-4研究測試:

https://higpt4.cn

deepseek-coder,人工智能,llama

先讓我們來感受一下Stable Code Instruct 3B的效果吧~

deepseek-coder,人工智能,llama

在線試用
https://huggingface.co/spaces/stabilityai/stable-code-instruct-3b
Hugging Face地址
https://huggingface.co/stabilityai/stable-code-instruct-3b
技術報告
https://static1.squarespace.com/static/6213c340453c3f502425776e/t/6601c5713150412edcd56f8e/1711392114564/Stable_Code_TechReport_release.pdf

從效果圖以及Stability AI的介紹可以看出Stable Code Instruct 3B有以下幾個功能特點:

  1. 自然語言理解 :Stable Code Instruct 3B可以理解以自然語言為主的編程指令,并有效執(zhí)行生成高質(zhì)量代碼。

  2. 支持多種編程語言 :Stable Code Instruct 3B不僅支持Python、Javascript、Java、C、C++和Go等語言,還支持其他廣泛采用的語言如SQL、PHP和Rust

  3. 多樣化編程任務:Stable Code Instruct 3B不僅精通代碼生成,還擅長FIM(填充中間)任務、數(shù)據(jù)庫查詢、代碼翻譯、解釋和創(chuàng)作。

  4. 更強的代碼理解能力:Stable Code Instruct 3B在訓練集最初未包括的語言(如Lua)中也能夠表現(xiàn)出較強的測試性能。這種熟練程度可能源于其對底層編碼原理的理解。

讓我們再來看看Stable Code Instruct 3B的實現(xiàn)方法吧~

方法

訓練數(shù)據(jù)

Stable Code Instruct收集了一系列公開訪問的大規(guī)模數(shù)據(jù)源。這些來源包括廣泛的代碼庫、廣泛的技術文檔集合(例如:readthedocs)、以數(shù)學為重點的文本和全面的網(wǎng)絡數(shù)據(jù)集,以在預訓練階段學習豐富的內(nèi)部表達,超越單純的代碼理解。模型旨在顯著提升在數(shù)學理解、邏輯推理和處理軟件開發(fā)相關的復雜技術文本方面的能力。

deepseek-coder,人工智能,llama

模型架構(gòu)

Stable Code是建立在Stable LM 3B基礎上構(gòu)建的,并且該模型是一個causal decoder-only transformer,架構(gòu)上與Llama類似,但和Llama有以下幾點區(qū)別:

  1. 位置嵌入:采用了旋轉(zhuǎn)位置嵌入(Rotary Position Embeddings),應用于頭嵌入維度的前25%,以提高吞吐量

  2. 歸一化方法:使用了具有學習偏置項的LayerNorm進行歸一化處理,而不是采用RMSNorm

  3. 偏置調(diào)整:除了鍵、查詢和值投影的偏差,Stable Code 從前饋網(wǎng)絡和多頭自注意力層中刪除了所有偏差項

    deepseek-coder,人工智能,llama

模型訓練

  1. 計算基礎設施和設置

    deepseek-coder,人工智能,llama

  • Stable Code在32個Amazon P4d實例上進行訓練,包含256個NVIDIA A100 (40GB HBM2) GPUs。采用ZeRO階段1的分布式優(yōu)化方法,消除了對模型分片的需求。

  • 采用的全局批量大小為4,194,304個令牌。在表中的設置下,設備的性能達到大約222 TFLOPs/s,或71.15%的模型浮點操作利用率(MFU)。

  1. 多階段訓練

  • 采用了在其他強大的代碼語言模型(如CodeGen、Stable Code Alpha、CodeLLaMA和DeepSeekCoder)中流行的分階段訓練方法。

  • 訓練分為幾個階段,包括代碼數(shù)據(jù)預訓練、中間填充(FIM)訓練、長上下文持續(xù)訓練和指令微調(diào)。

    deepseek-coder,人工智能,llama

  1. 模型初始化

  • 代碼模型大多遵循兩種主要訓練方法之一:使用代碼和相關文本從頭開始訓練的模型(例如,CodeGen、Stable code Alpha、Deepsseek Coder),以及利用基礎語言模型的持續(xù)預訓練的模型。

  • 預訓練的語言模型(如Stable LM 3B)初始化的模型往往表現(xiàn)優(yōu)于從頭開始訓練的模型。這證實了自然語言與代碼之間的正面交叉轉(zhuǎn)移可以增強模型的能力。

  1. 中間填充(FIM)訓練

  • 為了解決代碼中的左到右因果順序不總是成立的問題(例如,函數(shù)調(diào)用和聲明的順序可以是任意的)

  • 將文檔隨機分為三個部分:前綴、中間部分和后綴,然后將中間部分移動到文檔的末尾。在重新排列之后,遵循相同的自回歸訓練過程。

  • 在預訓練的兩個階段中都應用了FIM。為了在長上下文訓練階段考慮FIM,我們確保只允許在單個文件的范圍內(nèi)應用FIM,以避免引入不現(xiàn)實的情景到訓練目標中。

微調(diào)和對齊

在預訓練之后,Stable Code Instruct通過由監(jiān)督微調(diào)(SFT)和直接偏好優(yōu)化(DPO)組成的微調(diào)階段進一步提高了模型的對話能力

  1. 監(jiān)督微調(diào)

  • 使用了Hugging Face上公開可用的幾個數(shù)據(jù)集進行SFT微調(diào):OpenHermes、Code Feedback和CodeAlpaca。這些數(shù)據(jù)集合計提供了大約500,000個訓練樣本。

  • SFT模型訓練了三個周期,使用余弦學習率調(diào)度器。在達到5e-5峰值學習率之前,實施了占訓練持續(xù)時間10%的熱身階段。

  • 設置全局批量大小為512個序列,并將輸入打包成最多4096個令牌的序列。

  1. 直接偏好優(yōu)化

  • 繼SFT之后,我們應用了DPO,這是一種關鍵技術,對近期高性能模型(如Zephyr-7B、Neural-Chat-7B和Tulu-2-DPO-70B)的成功起到了關鍵作用。

  • 我們整理了大約7,000個樣本的數(shù)據(jù)集,使用了來自UltraFeedback和Distilabel Capybara DPO-7k Binarized的數(shù)據(jù),并僅保留了與代碼相關的樣本。

  • 為提高模型安全性,我們添加了來自Bai等人的Helpful and Harmless RLFH數(shù)據(jù)集,以及HH-Anthropic數(shù)據(jù)集的無害子集。編譯了大約15,000個高關聯(lián)性的安全相關數(shù)據(jù)點。

結(jié)論

本文介紹了Stable Code Instruct,一種新的代碼語言模型,該模型不僅支持多樣的編程語言,更在3B規(guī)模的模型上提供最先進的性能。隨著技術的進步,將會有更多高性能的代碼模型被推出,未來寫代碼的工作是否會變得更加輕松呢?是否程序員就業(yè)會面臨危機呢?Stable Code Instruct的出現(xiàn)為我們勾勒了一個充滿無限可能的未來。

deepseek-coder,人工智能,llama

deepseek-coder,人工智能,llama文章來源地址http://www.zghlxwxcb.cn/news/detail-855606.html

到了這里,關于集體出走的Stability AI 發(fā)布全新代碼大模型,3B以下性能最優(yōu),超越Code Llama和DeepSeek-Coder的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 大模型集體失控!南洋理工新型攻擊,主流AI無一幸免

    大模型集體失控!南洋理工新型攻擊,主流AI無一幸免

    西風 蕭簫 發(fā)自 凹非寺 量子位 | 公眾號 QbitAI 業(yè)界最領先的大模型們,竟然集體“越獄”了! 不止是GPT-4,就連平時不咋出錯的Bard、Bing Chat也全線失控,有的要黑掉網(wǎng)站,有的甚至揚言要設計惡意軟件入侵銀行系統(tǒng): 這并非危言聳聽,而是南洋理工大學等四所高校提出的一

    2024年02月03日
    瀏覽(21)
  • “超級AI助手:全新提升!中文NLP訓練框架,快速上手,海量訓練數(shù)據(jù),ChatGLM-v2、中文Bloom、Dolly_v2_3b助您實現(xiàn)更智能的應用!”

    “超級AI助手:全新提升!中文NLP訓練框架,快速上手,海量訓練數(shù)據(jù),ChatGLM-v2、中文Bloom、Dolly_v2_3b助您實現(xiàn)更智能的應用!”

    目標 :基于 pytorch 、 transformers 做中文領域的nlp開箱即用的訓練框架,提供全套的訓練、微調(diào)模型(包括大模型、文本轉(zhuǎn)向量、文本生成、多模態(tài)等模型)的解決方案; 數(shù)據(jù) : 從開源社區(qū),整理了海量的訓練數(shù)據(jù),幫助用戶可以快速上手; 同時也開放訓練數(shù)據(jù)模版,可以快

    2024年02月11日
    瀏覽(23)
  • Stability AI推出Stable Diffusion XL 1.0,文本到圖像模型

    Stability AI推出Stable Diffusion XL 1.0,文本到圖像模型

    Stability AI宣布推出Stable Diffusion XL 1.0,這是一個文本到圖像的模型,該公司將其描述為迄今為止“最先進的”版本。 Stability AI表示,SDXL 1.0能生成更加鮮明準確的色彩,在對比度、光線和陰影方面做了增強,可生成100萬像素的圖像(1024×1024)。而且還支持在網(wǎng)頁上直接對生成

    2024年02月15日
    瀏覽(21)
  • OpenAI全新發(fā)布文生視頻模型:Sora!

    OpenAI全新發(fā)布文生視頻模型:Sora!

    OpenAI官網(wǎng)原文鏈接:https://openai.com/research/video-generation-models-as-world-simulators#fn-20 ?????我們探索視頻數(shù)據(jù)生成模型的大規(guī)模訓練。具體來說,我們在可變持續(xù)時間、分辨率和寬高比的視頻和圖像上聯(lián)合訓練文本條件擴散模型。我們利用對視頻和圖像潛在代碼的時空Patche

    2024年02月19日
    瀏覽(21)
  • 百度發(fā)布全新 AI 互動式搜索:百度簡單搜索

    百度發(fā)布全新 AI 互動式搜索:百度簡單搜索

    本心、輸入輸出、結(jié)果 編輯:簡簡單單 Online zuozuo 地址:https://blog.csdn.net/qq_15071263 10月17日,百度世界大會2023即將開幕,此次活動將舉辦一場主論壇及七場分論壇 百度簡單搜索 是百度通過大模型重構(gòu)的第一個產(chǎn)品,也是首個A1互動式搜索一一簡單搜索 主要能力 ?? 百度新搜

    2024年02月07日
    瀏覽(21)
  • 對標ChatGPT生態(tài): 智譜全新大模型 GLM-4 發(fā)布

    對標ChatGPT生態(tài): 智譜全新大模型 GLM-4 發(fā)布

    ?? 展望:關注我, AI 和 編程 學習之旅上,我與您一同成長! 今天上午,在北京舉辦 2024年度技術開放日 Zhipu DevDay,國內(nèi)當前估值最高的AI大模型獨角獸智譜AI發(fā)布了 新一代基座大模型GLM-4 。 性能比上一代提升接近60%,整體評測結(jié)果進階GPT-4,支持更長的上下文、更強的多模

    2024年01月17日
    瀏覽(19)
  • 《實戰(zhàn)AI低代碼》:普元智能化低代碼開發(fā)平臺發(fā)布,結(jié)合專有模型大幅提升軟件生產(chǎn)力

    《實戰(zhàn)AI低代碼》:普元智能化低代碼開發(fā)平臺發(fā)布,結(jié)合專有模型大幅提升軟件生產(chǎn)力

    在7月6日舉辦的“低代碼+AI”產(chǎn)品戰(zhàn)略發(fā)布會上,普元智能化低代碼開發(fā)平臺正式發(fā)布。該平臺融合了普元自主研發(fā)的專有模型,同時也接入了多款AI大模型的功能。它提供了一系列低代碼產(chǎn)品,包括中間件、業(yè)務分析、應用開發(fā)、數(shù)據(jù)中臺和業(yè)務流程自動化等,旨在簡化企業(yè)

    2024年02月16日
    瀏覽(33)
  • JetBrains 2023.2全新發(fā)布!IDEA、PyCharm等支持AI輔助

    JetBrains 2023.2全新發(fā)布!IDEA、PyCharm等支持AI輔助

    日前JetBrains官方正式宣布旗下IDE系列今年第二個重要版本——v2023.2全新發(fā)布, 涵蓋了?IntelliJ IDEA、PyCharm、WebStorm等一眾知名產(chǎn)品,接下來我們一起詳細了解一下他們的更新重點吧~ IntelliJ IDEA v2023.2——引入AI輔助開發(fā) IntelliJ IDEA?2023.2版本引入了AI Assistant,通過一組由 AI 提供

    2024年02月11日
    瀏覽(33)
  • DeepSeek 發(fā)布全新開源大模型,數(shù)學推理能力超越 LLaMA-2

    DeepSeek 發(fā)布全新開源大模型,數(shù)學推理能力超越 LLaMA-2

    自從 LLaMA 被提出以來,開源大型語言模型(LLM)的快速發(fā)展就引起了廣泛研究關注,隨后的一些研究就主要集中于訓練固定大小和高質(zhì)量的模型,但這往往忽略了對 LLM 縮放規(guī)律的深入探索。 開源 LLM 的縮放研究可以促使 LLM 提高性能和拓展應用領域,對于推進自然語言處理

    2024年02月02日
    瀏覽(138)
  • RDIF.vNext全新低代碼快速開發(fā)框架平臺發(fā)布

    RDIF.vNext全新低代碼快速開發(fā)框架平臺發(fā)布

    RDIF.vNext ,全新低代碼快速開發(fā)集成框架平臺,給用戶和開發(fā)者最佳的.Net框架平臺方案,為企業(yè)快速構(gòu)建跨平臺、企業(yè)級的應用提供強大支持。 RDIF.vNext的前身是RDIFramework框架,RDIF(Rapid develop Integrate Framework, vNext代表全新下一代),全新設計,全新開發(fā),代碼量減少50%,運行的

    2023年04月11日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包