国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS

這篇具有很好參考價值的文章主要介紹了基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

參考:

https://github.com/TabbyML/tabby

Docker | Tabby

Linux Debian上快速安裝Docker并運行_Entropy-Go的博客-CSDN博客

Tabby - 本地化AI代碼自動補全 - Windows10_Entropy-Go的博客-CSDN博客

1.為什么選擇Tabby

已經(jīng)有好幾款類似強勁的代碼補全工具,如GitHub Copilot,Codeium等,為什么還要選擇Tabby?

Tabby除了和其他工具一樣支持聯(lián)網(wǎng)直接使用之外,還支持本地化部署。

即對內(nèi)部代碼安全性要求很高時,可以采取Tabby項目模型的本地化部署,不用擔(dān)心本地項目代碼隱私泄露,同時有很好的享受GitHub代碼庫的建議。

部署完成后,如簡單粗暴斷開外部網(wǎng)絡(luò),甚至拔掉網(wǎng)線,依然可以使用。

可以單機使用,也可以公司內(nèi)部網(wǎng)、局域網(wǎng)內(nèi)共同使用。

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

2.決定動手之前,試一試?

Playground | Tabby

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

3.Linux Debian 上直接部署Tabby

前面已經(jīng)在windows上部署成功,也可以直接在Linux上安裝部署

4.Linux Debian上快速安裝Docker

Linux Debian上快速安裝Docker并運行_Entropy-Go的博客-CSDN博客

5.Git Clone?tabby項目代碼到本地

git clone https://github.com/TabbyML/tabby.git

6.Docker Run下載鏡像

Docker | Tabby

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

本文選擇了CPU,打開終端,在clone下來的tabby根目錄下,執(zhí)行下面的命令

CPU

docker run \
  -p 8080:8080 -v $HOME/.tabby:/data \
  tabbyml/tabby serve --model TabbyML/SantaCoder-1B

7.部署成功

$ sudo docker run -p 8080:8080 -v $HOME/.tabby:/data tabbyml/tabby serve --model TabbyML/SantaCoder-1B
2023-07-20T01:57:48.901861Z  INFO tabby::serve: crates/tabby/src/serve/mod.rs:131: Listening at 0.0.0.0:8080

檢查是否部署成功

瀏覽器本地訪問?http://localhost:8080/

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

或者在局域網(wǎng)絡(luò)中使用???http://PC_IP:8080/

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

8.下載并安裝VS Code(Visual Studio Code)

Download Visual Studio Code - Mac, Linux, Windows

安裝完成后,打開VS Code,擴展中搜索Tabby并安裝

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

Tabby的管理里面設(shè)置上面本地部署的Tabby服務(wù)

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github?VS Code右下角顯示Tabby已經(jīng)可以提供服務(wù)

?基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

9.開始高效編碼吧

輸入注釋或者編碼時,會自動補全,即灰色斜體部分,如果接收就直接按Tab鍵,采納建議,否則正常進行編碼

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

?基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

按Tab鍵接收建議,灰色部分變亮

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

?編碼時調(diào)用默認(rèn)tabby并提示補全時,服務(wù)器資源消耗大,可以通過top命令查看,可以考慮高性能設(shè)備或者GPU加速

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

10.并行多核CPU處理,加快推理響應(yīng)

卡頓還有個原因,雖然服務(wù)器性能不錯,但是tabby默認(rèn)最多使用4個CPU進行并行模型推理,所以可以嘗試增加并行的核數(shù)

默認(rèn)調(diào)用4核CPU

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

?可以增加更多核并行處理,

如服務(wù)器有16核添加參數(shù),16/4=4,?--num-replicas-per-device 4

如服務(wù)器有32核添加參數(shù),32/4=8,?--num-replicas-per-device 8

$ sudo docker run   -p 8080:8080 -v $HOME/.tabby:/data   tabbyml/tabby serve --model TabbyML/SantaCoder-1B --num-replicas-per-device 8

現(xiàn)在可以按照要求調(diào)用更多核CPU,VS Code中輸入過程中,提示的更快。

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

11.CentOS環(huán)境安裝并運行tabby

同樣的,可以在CentOS上安裝Docker,可參考

Linux CentOS上快速安裝Docker并運行服務(wù)_Entropy-Go的博客-CSDN博客

本地服務(wù)器有32核,所以添加參數(shù),32/4=8,?--num-replicas-per-device 8

$ sudo docker run   -p 8080:8080 -v $HOME/.tabby:/data   tabbyml/tabby serve --model TabbyML/SantaCoder-1B --num-replicas-per-device 8
2023-07-27T06:56:19.280691Z  INFO tabby::serve: crates/tabby/src/serve/mod.rs:131: Listening at 0.0.0.0:8080

運行截圖:基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

?在vscode中正常編碼或者寫代碼注釋時,觸發(fā)tabby進行多核并行模型推理

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

按Tab鍵接受自動補全的代碼

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

同時可以觀察到服務(wù)器上CPU內(nèi)存等資源使用情況,觸發(fā)模型推理時使用率特別高!

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github

12.CentOS擴展Nvidia GPU運行tabby

CentOS擴展Nvidia GPU之后,推理速度超級快,邊寫邊推薦源碼,體驗非常的絲滑,可以大大提高編碼效率。

首先需要安裝GPU,驅(qū)動,CUDA工具包和Nvidia Docker工具包,也可參考之前寫的:

安裝GPU,驅(qū)動,CUDA工具包
在線安裝

NVIDIA GPU驅(qū)動和CUDA工具包 Linux CentOS 7 在線安裝指南_Entropy-Go的博客-CSDN博客

下載安裝:

Linux CentOS安裝NVIDIA GPU驅(qū)動程序和NVIDIA CUDA工具包_centos 安裝nvcc_Entropy-Go的博客-CSDN博客

安裝Nvidia Docker工具包:

centOS 快速安裝和配置 NVIDIA docker Container Toolkit_Entropy-Go的博客-CSDN博客

GPU方式運行tabby:

[ xxx ]# docker run -it --gpus all -p 8080:8080 -v $HOME/.tabby:/data tabbyml/tabby serve --model TabbyML/SantaCoder-1B --device cuda
2023-08-17T11:00:25.128496Z  INFO tabby_download: crates/tabby-download/src/lib.rs:66: Start downloading model `TabbyML/SantaCoder-1B`
2023-08-17T11:00:31.338937Z  INFO tabby::serve: crates/tabby/src/serve/mod.rs:134: Listening at 0.0.0.0:8080

查看GPU使用情況:

[ xxx ]# nvidia-smi
Thu Aug 17 07:43:33 2023
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.86.10              Driver Version: 535.86.10    CUDA Version: 12.2     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  Tesla P100-PCIE-16GB           Off | 00000000:31:00.0 Off |                    0 |
| N/A   33C    P0              30W / 250W |   4908MiB / 16384MiB |      0%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes:                                                                            |
|  GPU   GI   CI        PID   Type   Process name                            GPU Memory |
|        ID   ID                                                             Usage      |
|=======================================================================================|
|    0   N/A  N/A     60875      C   /opt/tabby/bin/tabby                       4906MiB |
+---------------------------------------------------------------------------------------+

舉個栗子:

可以使用中文輸入提示詞,如?

# 設(shè)計1個貪吃蛇游戲

基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS,隨筆,linux,python,人工智能,機器學(xué)習(xí),AIGC,github文章來源地址http://www.zghlxwxcb.cn/news/detail-742730.html

到了這里,關(guān)于基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 基于Llama2和LangChain構(gòu)建本地化定制化知識庫AI聊天機器人

    基于Llama2和LangChain構(gòu)建本地化定制化知識庫AI聊天機器人

    參考: 本項目?https://github.com/PromtEngineer/localGPT 模型?https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML 云端知識庫項目:基于GPT-4和LangChain構(gòu)建云端定制化PDF知識庫AI聊天機器人_Entropy-Go的博客-CSDN博客? ????????相比OpenAI的LLM ChatGPT模型必須網(wǎng)絡(luò)連接并通過API key云端調(diào)用模型,擔(dān)心

    2024年02月08日
    瀏覽(33)
  • 本地化部署大語言模型 ChatGLM

    本地化部署大語言模型 ChatGLM

    ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話進行了優(yōu)

    2023年04月20日
    瀏覽(32)
  • 【AI工具】-Stable Diffusion本地化部署教程

    【AI工具】-Stable Diffusion本地化部署教程

    今天我們要介紹的是時下最流行的AI繪圖軟件Stable Diffusion,雖然Diffusion.ai已經(jīng)開放api,但是長時間的商業(yè)化調(diào)用我們需要購買很多的金幣。所以我們需要找一個平替的AI繪圖平臺,現(xiàn)在主流市場中AI繪圖軟件主要就是OpenAI的DALLE、midjourney以及今天要學(xué)習(xí)的Stable Diffusion,而前兩

    2024年02月13日
    瀏覽(29)
  • 實戰(zhàn)whisper:本地化部署通用語音識別模型

    實戰(zhàn)whisper:本地化部署通用語音識別模型

    ????????Whisper 是一種通用語音識別模型。它是在大量不同音頻數(shù)據(jù)集上進行訓(xùn)練的,也是一個多任務(wù)模型,可以執(zhí)行多語言語音識別、語音翻譯和語言識別。 ? ? ? ? 這里呢,我將給出我的一些代碼,來幫助你盡快實現(xiàn)【語音轉(zhuǎn)文字】的服務(wù)部署。 ? ? ? ? 以下是該A

    2024年01月18日
    瀏覽(29)
  • Window本地化部署stable diffusion AI繪圖

    Window本地化部署stable diffusion AI繪圖

    從零開始,手把手教你Window本地化部署stable diffusion AI繪圖 - 知乎 (zhihu.com) 解決MAC筆記本Stable Diffusion安裝時報No matching distribution found for tb-nightly的問題 - 阿貍哥哥 - 博客園 (cnblogs.com) ?修改啟動腳本啟動命令里加入了 --precision full --no-half?precision full就是全精度,no half是不使用

    2024年02月11日
    瀏覽(36)
  • Window本地化部署stable diffusion AI繪圖+問題匯總

    Window本地化部署stable diffusion AI繪圖+問題匯總

    1. 為什么要本地部署 本地部署沒有生成數(shù)量的限制,不用花錢,生成時間快,不用排隊,自由度高很多,可以調(diào)試和個性化的地方也更多。 部署過程可以熟悉環(huán)境配置的流程,熟悉工程化部署步驟。對于PM來說也是一種技術(shù)成長。 部署過程遇到各種問題,在嘗試解決的過程

    2024年02月09日
    瀏覽(34)
  • 不需要GPU就可以玩轉(zhuǎn)模型,同時支持本地化部署

    不需要GPU就可以玩轉(zhuǎn)模型,同時支持本地化部署

    ????????簡單一款不需要GPU就可以在Win 機器跑的模型:Ollama;用于本地運行和部署大型語言模型(LLMs)的開源工具 關(guān)于Ollama的簡要介紹 平臺兼容性 :Ollama支持多種操作系統(tǒng),包括macOS、Linux和Windows,這使得它在不同用戶之間具有較好的可訪問性。 模型支持 :它能夠支持

    2024年04月16日
    瀏覽(39)
  • GPT大語言模型Alpaca-lora本地化部署實踐【大語言模型實踐一】

    Alpaca模型是斯坦福大學(xué)研發(fā)的LLM(Large Language Model,大語言)開源模型,是一個在52K指令上從LLaMA 7B(Meta公司開源的7B)模型微調(diào)而來,具有 70億 的模型參數(shù)(模型參數(shù)越大,模型的推理能力越強,當(dāng)然隨之訓(xùn)練模型的成本也就越高)。 LoRA,英文全稱Low-Rank Adaptation of Large

    2024年02月05日
    瀏覽(25)
  • AIGC生成式代碼——Code Llama 簡介、部署、測試、應(yīng)用、本地化

    AIGC生成式代碼——Code Llama 簡介、部署、測試、應(yīng)用、本地化

    ????????本文介紹了CodeLlama的 簡介、本地化部署、測試和應(yīng)用實戰(zhàn)方案 ,幫助學(xué)習(xí)大語言模型的同學(xué)們更好地應(yīng)用CodeLlama。我們詳細講解了如何將CodeLlama部署到實際應(yīng)用場景中,并通過實例演示了如何使用CodeLlama進行代碼生成和優(yōu)化。最后,總結(jié)了CodeLlama的應(yīng)用實戰(zhàn)經(jīng)驗

    2024年02月05日
    瀏覽(38)
  • Qodana & IntelliJ IDEA,看代碼質(zhì)量平臺如何簡化IDE本地化!

    Qodana & IntelliJ IDEA,看代碼質(zhì)量平臺如何簡化IDE本地化!

    IntelliJ IDEA,是java編程語言開發(fā)的集成環(huán)境。IntelliJ在業(yè)界被公認(rèn)為最好的java開發(fā)工具,尤其在智能代碼助手、代碼自動提示、重構(gòu)、JavaEE支持、各類版本工具(git、svn等)、JUnit、CVS整合、代碼分析、 創(chuàng)新的GUI設(shè)計等方面的功能可以說是超常的。 當(dāng)程序員規(guī)劃涉及代碼重構(gòu)的

    2024年02月05日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包