DeepSeek 本地部署配置清單(全網(wǎng)最詳細(xì))
DeepSeek 本地部署配置清單,涵蓋 1.5B 至 671B 參數(shù)量模型的詳細(xì)信息。包括適用場(chǎng)景、硬件配置、量化技術(shù)支持及性能指標(biāo),適用于不同需求的用戶,從個(gè)人開發(fā)者到國家級(jí)實(shí)驗(yàn)室。
【deepseek】(1):12月1日新大模型deepseek發(fā)布!使用3080顯卡,運(yùn)行deepseek-7b模型,可以正常運(yùn)行WebUI了,速度9 words/s。
https://www.bilibili.com/video/BV1364y157EA/ 【deepseek】(1):12月1日新大模型deepseek發(fā)布!使用3080顯卡,運(yùn)行7b模型,可以正常運(yùn)行WebUI了,速度9 words/s。 RTX 3080 Ti 擁有 34 TFLOPS 的著色器性能、67 TFLOPS 的光追性能、以及 273 TFLOPS 的 Tensor(Sparsity)性能。 該卡的外形設(shè)計(jì),依然類似于現(xiàn)
DeepSeek 發(fā)布全新開源大模型,數(shù)學(xué)推理能力超越 LLaMA-2
自從 LLaMA 被提出以來,開源大型語言模型(LLM)的快速發(fā)展就引起了廣泛研究關(guān)注,隨后的一些研究就主要集中于訓(xùn)練固定大小和高質(zhì)量的模型,但這往往忽略了對(duì) LLM 縮放規(guī)律的深入探索。 開源 LLM 的縮放研究可以促使 LLM 提高性能和拓展應(yīng)用領(lǐng)域,對(duì)于推進(jìn)自然語言處理
集體出走的Stability AI 發(fā)布全新代碼大模型,3B以下性能最優(yōu),超越Code Llama和DeepSeek-Coder
Stability AI又有新動(dòng)作!程序員又有危機(jī)了? 3月26日,Stability AI推出了先進(jìn)的代碼語言模型Stable Code Instruct 3B,該模型是在Stable Code 3B的基礎(chǔ)上進(jìn)行指令調(diào)優(yōu)的Code LM。 Stability AI 表示,Stable Code Instruct 3B 在代碼完成準(zhǔn)確性、對(duì)自然語言指令的理解以及處理多種編程語言方面都優(yōu)
Whisper JAX 語音識(shí)別本地部署 whisperX 語音識(shí)別本地部署視頻教程
https://nlpcloud.com/zh/how-to-install-and-deploy-whisper-the-best-open-source-alternative-to-google-speech-to-text.html whisper-jax最詳細(xì)的安裝教程 | 一個(gè)號(hào)稱比whisper快70倍的語音識(shí)別項(xiàng)目 | 免費(fèi)開源的語音識(shí)別項(xiàng)目 whisperX 語音識(shí)別本地部署_JoeManba的博客-CSDN博客 GitHub - sanchit-gandhi/whisper-jax: JAX implement
本地部署LLaMA-中文LoRA部署詳細(xì)說明
硬件環(huán)境 AMD 5950X 128GB RAM RTX 3090(24G VRAM) 操作系統(tǒng) Ubuntu 18.04 編譯環(huán)境(可選) llama.cpp 編譯: 遇到Ubuntu18.04默認(rèn)穩(wěn)定版本gcc和g++不兼容問題,報(bào)錯(cuò): 通過更新Ubuntu的gcc,g++版本后,make進(jìn)行編譯; Python虛擬環(huán)境 Python = 3.10.7 requirements.txt 安裝CUDA,CUDA == 11.7; 卸載老版本: 安裝新版本CUDA(實(shí)際為
whisperX 語音識(shí)別本地部署
WhisperX 是一個(gè)優(yōu)秀的開源Python語音識(shí)別庫。 下面記錄Windows10系統(tǒng)下部署Whisper 1、在操作系統(tǒng)中安裝 Python環(huán)境 2、安裝 CUDA環(huán)境 3、安裝Annaconda或Minconda環(huán)境 4、下載安裝ffmpeg 下載release-builds包,如下圖所示 將下載的包解壓到你想要的路徑,然后配置系統(tǒng)環(huán)境:我的電腦-高級(jí)系
本地部署StableDiffusion WebUI
How To Run Stable Diffusion 2.0 On Your Local PC — No Code Guide https://luminous-mapusaurus-1aa.notion.site/Stable-Diffusion-ce61d77468644806ab03a780f670df51 stable-diffusion-webui 安裝_w3cschool https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 為了讓conda執(zhí)行下載指令加速,需要對(duì)conda換源操作,即將源由國外原始源,改為國
Stable Diffusion 本地部署
注意:如果沒有顯卡或顯卡性能較弱的同學(xué)們不要嘗試,不然到最后也還是不行!當(dāng)然這些同學(xué)們可以去(免費(fèi),效果稍遜) Stable Diffusion - a Hugging Face Space by stabilityai Discover amazing ML apps made by the community https://huggingface.co/spaces/stabilityai/stable-diffusion 或者(收費(fèi),但是效果更好) D
本地部署 VS 云服務(wù)
現(xiàn)今,企業(yè)面對(duì)本地部署與云服務(wù)選擇困難。本地部署是一種傳統(tǒng)IT基礎(chǔ)架構(gòu)方法,其物理硬件、軟件和數(shù)據(jù)都存儲(chǔ)在現(xiàn)場(chǎng)。而云則是新方式,它通過互聯(lián)網(wǎng)提供數(shù)據(jù)存儲(chǔ)和軟件,可用于遠(yuǎn)程工作。新冠以來,云服務(wù)規(guī)模持續(xù)增長(zhǎng),本期我們就來對(duì)比本地部署與云服務(wù)。? 本
ChatGPT本地部署,學(xué)習(xí)記錄
官網(wǎng)地址: Github:https://github.com/nomic-ai/gpt4all GPT4ALL 項(xiàng)目部署簡(jiǎn)易,但是在運(yùn)行體驗(yàn)上一般,并且是只調(diào)用CPU來進(jìn)行運(yùn)算。 看官方文檔介紹在嵌入式上有比較大的優(yōu)勢(shì),但是目前個(gè)人對(duì)嵌入式方向接觸不深,僅在本機(jī)部署使用。 本機(jī)配置 (CPU:i5-8400、顯卡:1060、內(nèi)存:8)
Excalidraw本地化部署
1 - Excalidraw介紹 Excalidraw是一個(gè)開源、小巧易用的手寫風(fēng)格的框圖畫板軟件。 ?excalidraw官網(wǎng)地址:https://excalidraw.com/? 2 - Excalidraw本地化安裝(git方式) 2-1安裝部署 在terminal中,輸入: 安裝完成后,在terminal中,進(jìn)入項(xiàng)目文件 2-2 安裝依賴環(huán)境 - nodeJS NodeJS下載地址: nodejs下載
minigpt-4 本地部署
minigpt-4 git主頁。 筆者參考了深度學(xué)習(xí)筆記–本地部署Mini-GPT4,使用了http鏈接, huggingface下載llama和vicuna權(quán)重的download.txt分別如下: 下載權(quán)重的腳本如下,使用了 wget ${file} --no-check-certificate 繞開https檢查: 筆者的環(huán)境下,安裝FastChat 0.1.10會(huì)導(dǎo)致依賴沖突: 因此改為安裝別的
本地部署Stable Diffusion
報(bào)錯(cuò):RuntimeError:“LayerNormKernelImpl” not implemented for ‘Half 解決方案: 產(chǎn)生報(bào)錯(cuò)的原因是因?yàn)轱@卡不支持half-float的數(shù)據(jù)類型,所以在啟動(dòng)項(xiàng)set COMMANDLINE_ARGS=后增加這一句 --precision full --no-half,以后運(yùn)行webui-user.bat就可以了
本地部署 FastGPT
FastGPT 是一個(gè)基于 LLM 大語言模型的知識(shí)庫問答系統(tǒng),提供開箱即用的數(shù)據(jù)處理、模型調(diào)用等能力。同時(shí)可以通過 Flow 可視化進(jìn)行工作流編排,從而實(shí)現(xiàn)復(fù)雜的問答場(chǎng)景! 創(chuàng)建 docker-compose.yml 文件,僅需把 CHAT_API_KEY 修改成 openai key 即可。如果需要使用中轉(zhuǎn)或 oneapi 還需要修改