国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

寫代碼神器!48個主流代碼生成LLM大模型盤點,包含專用、微調等4大類Code llama

這篇具有很好參考價值的文章主要介紹了寫代碼神器!48個主流代碼生成LLM大模型盤點,包含專用、微調等4大類Code llama。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

寫代碼神器!48個主流代碼生成LLM大模型盤點,包含專用、微調等4大類

學姐帶你玩AI?2023-12-06 18:20

代碼大模型具有強大的表達能力和復雜性,可以處理各種自然語言任務,包括文本分類、問答、對話等。這些模型通常基于深度學習架構,如Transformer,并使用預訓練目標(如語言建模)進行訓練。

在對大量代碼數(shù)據(jù)的學習和訓練過程中,代碼大模型能夠提升代碼編寫的效率和質量,輔助代碼理解和決策,在代碼生成、代碼補全、代碼解釋、代碼糾錯以及單元測試等任務中都表現(xiàn)出十分出色的能力。

為了幫大家深入掌握代碼大模型的發(fā)展歷程和挑戰(zhàn),學姐這次整理了相關的48個模型以供同學們學習,分為了4大類,包括原始LM、LM改進、專用LM,以及微調模型。

原始LM

1.Lamda: Language models for dialog applications

用于對話應用程序的語言模型

模型簡介:LaMDA是一種專門用于對話的神經(jīng)網(wǎng)絡語言模型,通過預訓練和微調,可以顯著提高其安全性和事實依據(jù)。在安全性方面,使用少量眾包工人注釋的數(shù)據(jù)進行微調的分類器過濾候選響應可以提高模型的安全性。在事實依據(jù)方面,允許模型咨詢外部知識源可以使生成的響應基于已知來源。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

2.Palm: Scaling language modeling with pathways

使用路徑縮放語言模型

模型簡介:本文介紹了一種名為PaLM的540億參數(shù)密集激活Transformer語言模型,使用Pathways新機器學習系統(tǒng)在多個TPU Pod上進行高效訓練。作者通過數(shù)百個語言理解和生成基準測試展示了規(guī)??s放的持續(xù)優(yōu)勢,PaLM在一些多步推理任務上實現(xiàn)了突破性的性能,超過了最新的細調最先進技術和人類平均水平。此外,PaLM在多語言任務和源代碼生成方面也表現(xiàn)出強大的能力。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

3.Gpt-neox-20b: An open-source autoregressive language model

一個開源的自回歸語言模型

模型簡介:論文介紹了一種200億參數(shù)的自回歸語言模型GPT-NeoX-20B,該模型在Pile上進行訓練,并通過允許性許可證向公眾免費提供其權重。GPT-NeoX-20B是目前提交時公開可用權重最大的密集自回歸模型。在這項工作中,作者描述了該模型的架構和訓練,并在一系列語言理解、數(shù)學和基于知識的任務上評估了其性能。作者發(fā)現(xiàn)GPT-NeoX-20B是一個非常強大的少樣本推理器,當評估5個示例時,其性能比類似的GPT-3和FairSeq模型獲得更多收益。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

  • 4.BLOOM: A 176b-parameter open-access multilingual language model

  • 5.lama: Open and efficient foundation language models

  • 6.GPT-4 technical report

  • 7.lama 2: Open foundation and finetuned chat models

  • 8.Textbooks are all you need II: phi-1.5 technical report

LM改進

1.Evaluating large language models trained on code

評估基于代碼訓練的大型語言模型

模型簡介:Codex是一個用GPT模型微調的代碼生成器,它在GitHub Copilot中有應用。在HumanEval評估集中,Codex的表現(xiàn)優(yōu)于GPT-3和GPT-J。此外,通過從模型中重復采樣,可以生成對困難提示的有效解決方案。然而,Codex存在局限性,例如難以處理描述長操作鏈的文檔字符串以及將操作綁定到變量的能力。最后,作者討論了部署強大的代碼生成技術可能帶來的更廣泛的影響,包括安全、隱私和倫理問題。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

2.Solving quantitative reasoning problems with language models

使用語言模型解決定量推理問題

模型簡介:本文介紹了一種名為Minerva的大型語言模型,該模型在一般自然語言數(shù)據(jù)上進行預訓練,并在技術內容上進行了進一步的訓練。該模型在技術基準測試中實現(xiàn)了最先進的性能,而無需使用外部工具。作者還對物理學、生物學、化學、經(jīng)濟學和其他需要定量推理的科學領域的200多個本科水平的問題進行了評估,發(fā)現(xiàn)該模型可以正確回答近三分之一的問題。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

3.Palm 2 technical report

Palm 2技術報告

模型簡介:本文介紹了一種新型最先進的語言模型,該模型具有更好的多語言和推理能力,并且比其前身PaLM更計算高效。PaLM 2是一種基于Transformer的模型,使用多種目標進行訓練。通過在英語和多語言語言以及推理任務上的廣泛評估,作者證明PaLM 2在不同模型大小下對下游任務的質量有顯著提高,同時表現(xiàn)出比PaLM更快和更高效的推理。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

4.Code llama: Open foundation models for code

開放源代碼模型

模型簡介:論文提出了一個大型語言模型家族CodeLlama,可以生成代碼,具有先進性能、開箱即用的填充能力以及對編程任務的指令跟隨能力。作者提供了多種版本,覆蓋各種應用,所有模型都在16k個令牌的序列上進行訓練,并在最多100k個令牌的輸入上有所改進。該模型在幾個基準測試中表現(xiàn)出色,作者也發(fā)布了CodeLlama的Python版本。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

專用LM

1. Learning and evaluating contextual embedding of source code

學習與評估源代碼的上下文嵌入

模型簡介:本文介紹了一種名為CuBERT的開源代碼理解BERT模型,該模型使用GitHub上740萬個Python文件的去重語料庫進行預訓練。作者還創(chuàng)建了一個包含五個分類任務和一個程序修復任務的開源基準測試集,類似于文獻中提出的代碼理解任務。作者將CuBERT與不同的Word2Vec標記嵌入、BiLSTM和Transformer模型以及已發(fā)布的最先進模型進行了比較,結果表明,即使使用較短的訓練時間和較少的標記示例,CuBERT也能超越所有其他模型。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

2.Codebert: A pre-trained model for programming and natural languages

一種用于編程和自然語言的預訓練模型

模型簡介:論文介紹了一種新的預訓練模型CodeBERT,用于編程語言和自然語言。該模型使用基于Transformer的神經(jīng)網(wǎng)絡架構進行開發(fā),并使用混合目標函數(shù)進行訓練,以支持下游的自然語言代碼搜索、代碼文檔生成等應用。作者通過微調模型參數(shù)在兩個NL-PL應用上評估了CodeBERT的性能,結果表明,CodeBERT在這些任務上表現(xiàn)出色。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

3.Graphcodebert: Pre-training code representations with data flow

基于數(shù)據(jù)流的代碼表征預訓練模型

模型簡介:論文介紹了一種基于數(shù)據(jù)流的代碼表征預訓練模型Graphcodebert,該模型考慮了代碼的內在結構。作者使用數(shù)據(jù)流作為語義級別的代碼結構,而不是采用抽象語法樹(AST)這樣的語法級別的代碼結構。作者還引入了兩個結構感知的預訓練任務,并在四個任務上評估了該模型,結果表明該模型在代碼搜索、克隆檢測、代碼翻譯和代碼優(yōu)化等任務上表現(xiàn)出色。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

掃碼添加小享,回復“代碼大模型

免費獲取模型原文+代碼合集

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

  • 4.Syncobert: Syntax-guided multi-modal contrastive pre-training for code representation

  • 5.CODE-MVP: learning to represent source code from multiple views with contrastive pre-training

  • 6.Intellicode compose: code generation using transformer

  • 7.Codexglue: A machine learning benchmark dataset for code understanding and generation

  • 8.A systematic evaluation of large language models of code

  • 9.Codegen: An open large language model for code with multi-turn program synthesis

  • 10.CERT: continual pretraining on sketches for library-oriented code generation

  • 11.Pangu-coder: Program synthesis with function-level language modeling

  • 12.Codegeex: A pre-trained model for code generation with multilingual evaluations on humaneval-x

  • 13.Textbooks are all you need

  • 14.Codefuse-13b: A pretrained multi-lingual code large language model

  • 15.Incoder: A generative model for code infilling and synthesis

  • 16.Santacoder: don’t reach for the stars!

  • 17.Starcoder: may the source be with you!

  • 18.Multi-task learning based pre-trained language model for code completion

  • 19.Unixcoder: Unified cross-modal pre-training for code representation

  • 20.Pymt5: multi-mode translation of natural language and python code with transformers

  • 21.Studying the usage of text-to-text transfer transformer to support code-related tasks

  • 22.DOBF: A deobfuscation pre-training objective for programming languages

  • 23.Unified pre-training for program understanding and generation

  • 24.Codet5: Identifier-aware unified pre-trained encoder-decoder models for code understanding and generation

  • 25.Sptcode: Sequence-to-sequence pre-training for learning source code representations

  • 26.Competition-level code generation with alphacode

  • 27.Natgen: generative pre-training by "naturalizing" source code

  • 28.Codet5+: Open code large language models for code understanding and generation

代碼微調

1.Wizardcoder: Empowering code large language models with evolinstruct

使用evolinstruct為大型語言模型提供動力

模型簡介:本文介紹了WizardCoder模型,它通過將Evol-Instruct方法應用于代碼領域,為大型語言模型提供了更強的能力。作者在四個著名的代碼生成基準測試上進行了實驗,結果表明該模型比其他開源的大型語言模型表現(xiàn)更好,甚至超過了一些封閉的語言模型。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

2.Pangu-coder2: Boosting large language models for code with ranking feedback

使用排名反饋提高大型語言模型的代碼能力

模型簡介:論文提出了一種新的RRTF(Rank Responses to align Test&Teacher Feedback)框架,可以有效且高效地提高預訓練的大型語言模型的代碼生成能力。在該框架下,作者提出了PanGu-Coder2,它在OpenAI HumanEval基準測試上達到了62.20%的pass@1。此外,通過對CoderEval和LeetCode基準測試進行廣泛評估,作者表明PanGu-Coder2始終優(yōu)于之前的所有Code LLM。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

3.Octopack: Instruction tuning code large language models

指令調優(yōu)代碼大型語言模型

模型簡介:該論文介紹了通過使用Git提交中的代碼更改和人類指令,對大型語言模型進行指令調優(yōu)的方法。這種方法利用了自然結構的Git提交,將代碼更改與人類指令配對起來。他們編譯了一個包含4TB數(shù)據(jù)的數(shù)據(jù)庫CommitPack,涵蓋了350種編程語言的Git提交。在16B參數(shù)的StarCoder模型上,與其他指令調優(yōu)模型進行基準測試,該方法在HumanEval Python基準上取得了最佳性能(46.2% pass@1)。

編寫代碼的模型有哪些,AI編程之代碼大模型研究,前沿AI大模型論文翻譯與解讀,大語言模型LLM,llama

  • 4.Mftcoder: Boosting code llms with multitask fine-tuning

  • 5.Compilable neural code generation with compiler feedback

  • 6.Coderl: Mastering code generation through pretrained models and deep reinforcement learning

  • 7.Execution-based code generation using deep reinforcement learning

  • 8.RLTF: reinforcement learning from unit test feedback文章來源地址http://www.zghlxwxcb.cn/news/detail-847362.html

到了這里,關于寫代碼神器!48個主流代碼生成LLM大模型盤點,包含專用、微調等4大類Code llama的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 全網(wǎng)最詳細中英文ChatGPT-GPT-4示例文檔-食譜智能生成從0到1快速入門——官網(wǎng)推薦的48種最佳應用場景(附python/node.js/curl命令源代碼,小白也能學)

    全網(wǎng)最詳細中英文ChatGPT-GPT-4示例文檔-食譜智能生成從0到1快速入門——官網(wǎng)推薦的48種最佳應用場景(附python/node.js/curl命令源代碼,小白也能學)

    目錄 Introduce 簡介 setting 設置 Prompt 提示 Sample response 回復樣本 API request 接口請求 python接口請求示例 node.js接口請求示例 curl命令示例 json格式示例 其它資料下載 ChatGPT是目前最先進的AI聊天機器人,它能夠理解圖片和文字,生成流暢和有趣的回答。如果你想跟上AI時代的潮流,

    2023年04月10日
    瀏覽(20)
  • 從HumanEval到CoderEval: 你的代碼生成模型真的work嗎?

    本文分享自華為云社區(qū)《從HumanEval到CoderEval: 你的代碼生成模型真的work嗎?》,作者:華為云軟件分析Lab 。 本文主要介紹了一個名為CoderEval的代碼生成大模型評估基準,并對三個代碼生成模型(CodeGen、PanGu-Coder和ChatGPT)在該基準上的表現(xiàn)進行了評估和比較。研究人員從真實

    2024年02月05日
    瀏覽(13)
  • 從0到1:如何建立一個大規(guī)模多語言代碼生成預訓練模型

    從0到1:如何建立一個大規(guī)模多語言代碼生成預訓練模型

    國產(chǎn)AI輔助編程工具 CodeGeeX 是一個使用AI大模型為基座的輔助編程工具,幫助開發(fā)人員更快的編寫代碼??梢宰詣油瓿烧麄€函數(shù)的編寫,只需要根據(jù)注釋或Tab按鍵即可。它已經(jīng)在Java、JavaScript和Python等二十多種語言上進行了訓練,并基于大量公開的開源代碼、官方文檔和公共論

    2024年01月17日
    瀏覽(22)
  • Stable Diffusion架構的3D分子生成模型 GeoLDM - 測評與代碼解析

    Stable Diffusion架構的3D分子生成模型 GeoLDM - 測評與代碼解析

    之前,向大家介紹過3D分子生成模型?GeoLDM。 GeoLDM按照Stable Diffusion架構,將3D分子生成的擴散過程運行在隱空間內,優(yōu)化了基于擴散模型的分子生成。可能是打開Drug-AIGC的關鍵之作。讓精確控制分子生成有了希望。 詳見:分子生成領域的stable diffusion - GEOLDM-CSDN博客) 作者提供

    2024年02月03日
    瀏覽(27)
  • 用ArcGIS模型構建器生成、導出Python轉換空間坐標系的代碼

    用ArcGIS模型構建器生成、導出Python轉換空間坐標系的代碼

    ??本文介紹在 ArcMap 軟件中,通過創(chuàng)建 模型構建器 ( ModelBuilder ),導出 地理坐標系 與 投影坐標系 之間相互 轉換 的 Python 代碼的方法。 ??在 GIS 領域中,矢量、柵格圖層的投影轉換是一個經(jīng)常遇見的問題;而由于地理坐標系與投影坐標系各自都分別具有很多不同的種

    2024年01月18日
    瀏覽(52)
  • 國內主流AI大模型盤點

    國內主流AI大模型盤點

    今年年初,轟動科技圈的大事就是ChatGPT的面世,它的到來打響了AI智能時代的第一槍,同時展開了一場別開生面的智能科技革命。 隨著ChatGPT迅速走紅,國內各大企業(yè)紛紛發(fā)力認知大模型領域。經(jīng)過一段時間的醞釀,國內的AI領域也開啟了“內卷”模式,各種大模型紛紛出現(xiàn)在

    2024年02月08日
    瀏覽(46)
  • 0基礎使用LLAMA大模型搞科研,自動閱讀論文、代碼修改、論文潤色、稿件生成等等

    0基礎使用LLAMA大模型搞科研,自動閱讀論文、代碼修改、論文潤色、稿件生成等等

    0基礎使用LLAMA大模型搞科研,自動閱讀論文、代碼修改、論文潤色、稿件生成等等。 使用 LLAMA大模型 輔助科研可以帶來多方面的好處和優(yōu)勢,主要包括: 提高文獻調研效率 : LLAMA大模型 可以幫助研究人員快速獲取特定研究領域的概述,提供相關文獻的摘要和關鍵點,從而

    2024年04月23日
    瀏覽(24)
  • 代碼實現(xiàn)stable-diffusion模型,你也用AI生成獲得一等獎的藝術圖

    代碼實現(xiàn)stable-diffusion模型,你也用AI生成獲得一等獎的藝術圖

    Midjourney工具獲獎圖片 好嗎,人工智能雖然已經(jīng)涉及到人類的方方面面,但沒有想到,AI 還能搶藝術家的飯碗,這不,一位小哥使用AI工具生成的藝術照片竟然獲獎了,而且還是一等獎,且最近剛剛火起來的stable diffusion 更是讓藝術家與AI發(fā)生了爭執(zhí),到底AI是否搶了藝術家的飯

    2024年02月10日
    瀏覽(28)
  • 【AI人工智能】用于代碼生成的大型語言模型 Large Language Models for Code Generation

    【AI人工智能】用于代碼生成的大型語言模型 Large Language Models for Code Generation

    ? 目錄 Large Language Models for Code Generation – Part 1用于代碼生成的大型語言模型——第 1 部分 Introduction

    2024年02月08日
    瀏覽(101)
  • 構建你自己的 AI 輔助編碼助手:從 IDE 插件、代碼數(shù)據(jù)生成和模型微調(萬字長文)...

    構建你自己的 AI 輔助編碼助手:從 IDE 插件、代碼數(shù)據(jù)生成和模型微調(萬字長文)...

    我們會在 GitHub 上持續(xù)更新這個教程: https://github.com/phodal/build-ai-coding-assistant,歡迎在 GitHub 上討論。 2023 年,生成式 AI 的火爆,讓越來越多的組織開始引入 AI 輔助編碼。與在 2021 年發(fā)布的 GitHub Copilot 稍有差異的是,代碼補全只是重多場景中的一個。大量的企業(yè)內部在探索結

    2024年01月20日
    瀏覽(31)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包