国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用LLM插件從命令行訪問Llama 2

這篇具有很好參考價(jià)值的文章主要介紹了使用LLM插件從命令行訪問Llama 2。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

大家好,最近的一個(gè)大新聞是Meta AI推出了新的開源授權(quán)的大型語(yǔ)言模型Llama 2,這是一項(xiàng)非常重要的進(jìn)展。Facebook最初的LLaMA模型于今年2月發(fā)布,掀起了開源LLM領(lǐng)域的創(chuàng)新浪潮——從微調(diào)變體到從零開始的再創(chuàng)造。

如果在Llama 2版本發(fā)布之日,由被許可人或被許可人的附屬機(jī)構(gòu)提供的產(chǎn)品或服務(wù)的月活躍用戶在前一個(gè)日歷月超過7億,則必須向Meta申請(qǐng)?jiān)S可,Meta可自行決定是否授予許可,這使得它仍然可以適用于大多數(shù)商業(yè)用途。

使用LLM訪問Llama 2

LLM工具可以通過命令行訪問各種語(yǔ)言模型,既可以通過網(wǎng)絡(luò)應(yīng)用程序接口訪問,也可以在自己的機(jī)器上自行托管。添加插件支持以擴(kuò)展它對(duì)新模型的支持,現(xiàn)在一個(gè)獨(dú)立發(fā)布的插件可以為現(xiàn)有的CLI工具添加對(duì)新模型的支持。

全新的llm-replicate插件提供了對(duì)Replicate上托管的模型的CLI訪問,a16z-infra發(fā)布了a16z-infra/llama13b-v2-chat,該插件提供了對(duì)新的Llama 2 13B聊天模型的Replicate API訪問,需要一個(gè)Replicate API密鑰。

使用如下命令安裝LLM:

pip?install?llm

如果沒有安裝pip,但可以使用Homebrew:

brew?install?simonw/llm/llm

運(yùn)行llm--version確認(rèn)已安裝成功。

接下來,安裝llm-replicate插件:

llm?install?llm-replicate

該插件添加了一組新的llm replicate命令——可以使用llm --help查看。

配置Replicate API密鑰,以便插件能與API通信:

llm?keys?set?replicate
Enter?key:?<paste?key?here>

在插件中注冊(cè)新的a16z-infra/llama13b-v2-chat模型:

llm?replicate?add?a16z-infra/llama13b-v2-chat?\
??--chat?--alias?llama2

這就告訴插件它是一個(gè)“chat”模型,這意味著用戶可以與它進(jìn)行持續(xù)對(duì)話,而不僅僅是發(fā)送單個(gè)提示。

現(xiàn)在,可以使用在這里配置的llama2別名發(fā)送提示信息:

llm?-m?llama2?"Ten?great?names?for?a?pet?pelican"

得到的輸出如下所示:

當(dāng)然!以下是十個(gè)適合作為寵物鵜鶘的好名字:

  1. 花生(Peanut):一個(gè)可愛而活潑的小鵜鶘的名字。

  2. 水洼(Puddles):一個(gè)有趣而傻氣的名字,適用于喜歡在水中嬉戲的鵜鶘。

  3. 皮特(Pete):一個(gè)經(jīng)典的名字,適合友好外向的鵜鶘。

  4. 彭洛麗(Penelope):一個(gè)漂亮而優(yōu)雅的名字,適合雌性鵜鶘。

  5. 佩西(Percy):一個(gè)迷人而精致的名字,適合雄性鵜鶘。

  6. 皮皮(Pippy):一個(gè)活潑而親愛的名字,適合個(gè)性活躍的鵜鶘。

  7. 佩爾蒂(Pelty):一個(gè)有趣而古怪的名字,適合個(gè)性獨(dú)特的鵜鶘。

  8. 皮普(Pip):一個(gè)甜美而討人喜歡的名字,適合小鵜鶘。

  9. 勇敢(Plucky):一個(gè)勇敢而冒險(xiǎn)的名字,適合個(gè)性鮮明的鵜鶘。

  10. 波比(Poppy):一個(gè)可愛而嬌嫩的名字,適合性情溫和的雌性鵜鶘。

希望這些建議能幫助你為寵物鵜鶘找到一個(gè)完美的名字!

由于是聊天模型,可以在同一對(duì)話中發(fā)送后續(xù)提示:

llm?-c?"Five?more?and?make?them?more?nautical"

Ahoy!這里有五個(gè)更具海洋氣息的名字,適合你的寵物鵜鶘:

  1. 海鳥(Seabird):適合喜歡海洋及其奇觀的鵜鶘的名字。

  2. 船長(zhǎng)胡克(Captain Hook):適合勇敢無畏的鵜鶘的英勇名字。

  3. 錨(Anchor):適合始終穩(wěn)定可靠的鵜鶘的堅(jiān)固名字。

  4. 芬利(Finley):適合熱愛海洋及其生物的鵜鶘的有關(guān)魚的名字。

  5. 輕快(Buoyant):適合心情輕松愉快的鵜鶘的活潑愉快名字。

希望這些建議能讓你滿意,伙計(jì)!

LLM會(huì)將通過它發(fā)送的每個(gè)提示和響應(yīng)記錄到SQLite數(shù)據(jù)庫(kù)中,在這里使用--truncate來縮短輸出,將輸出截?cái)嘁员阍诒疚闹酗@示:

llm?logs?--truncate
[
??{
????"id":?"01h5n5b3q6s54e03wtvqe90w2g",
????"model":?"replicate-a16z-infra-llama13b-v2-chat",
????"prompt":?"Five?more?and?make?them?more?nautical",
????"system":?null,
????"response":?"Ahoy?matey!?Here?be?five?more?nautical-themed?names?for?yer?pet?pelican:\n\n1.?Captain?Hook\n2.?Anch...",
????"response_json":?null,
????"conversation_id":?"01h5n5atsqfg4bhxc53j3ymnx2",
????"duration_ms":?7364,
????"datetime_utc":?"2023-07-18T18:48:51.999944",
????"conversation_name":?"Ten?great?names?for?a?pet?pelic\u2026",
????"conversation_model":?"replicate-a16z-infra-llama13b-v2-chat"
??},
??{
????"id":?"01h5n5atss6k9zsr5qs5hb2wzd",
????"model":?"replicate-a16z-infra-llama13b-v2-chat",
????"prompt":?"Ten?great?names?for?a?pet?pelican",
????"system":?null,
????"response":?"Sure,?here?are?ten?great?names?for?a?pet?pelican:\n\n1.?Pelty\n2.?Peanut\n3.?Puddles\n4.?Nibbles\n5.?Fu...",
????"response_json":?null,
????"conversation_id":?"01h5n5atsqfg4bhxc53j3ymnx2",
????"duration_ms":?7873,
????"datetime_utc":?"2023-07-18T18:48:42.356413",
????"conversation_name":?"Ten?great?names?for?a?pet?pelic\u2026",
????"conversation_model":?"replicate-a16z-infra-llama13b-v2-chat"
??}
]

或運(yùn)行llm logs path命令查看SQLite數(shù)據(jù)庫(kù)文件的路徑,如果已經(jīng)安裝了Datasette,可以使用以下命令打開日志數(shù)據(jù)庫(kù):

datasette?"$(llm?logs?path)"

或使用Datasette Desktop:

open?"$(llm?logs?path)"

結(jié)語(yǔ)

預(yù)計(jì)隨著模型權(quán)重的逐步推出,用戶將開始看到在其基礎(chǔ)上的各種創(chuàng)新。

特別期待以下內(nèi)容:

  • 微調(diào)模型。Alpaca、Vicuna等人在原始LLaMA模型的基礎(chǔ)上進(jìn)行微調(diào),取得了驚人的成就。預(yù)計(jì)在接下來的幾周內(nèi),我們將看到數(shù)十個(gè)微調(diào)模型。

  • 實(shí)現(xiàn)reAct和Toolformer模式,這將使Llama 2能夠以類似于OpenAI Functions的方式驅(qū)動(dòng)外部工具。Llama 2的論文已經(jīng)提到了針對(duì)Toolformer提示的測(cè)試,因此希望這不會(huì)太困難。

希望能記錄什么類型的提示語(yǔ)能與Llama 2效果良好地配合使用,因?yàn)轭A(yù)計(jì)這一模型在未來一段時(shí)間內(nèi)將成為生態(tài)系統(tǒng)中頗具影響力的一部分。文章來源地址http://www.zghlxwxcb.cn/news/detail-629262.html

到了這里,關(guān)于使用LLM插件從命令行訪問Llama 2的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • LLM之RAG實(shí)戰(zhàn)(十六)| 使用Llama-2、PgVector和LlamaIndex構(gòu)建LLM Rag Pipeline

    LLM之RAG實(shí)戰(zhàn)(十六)| 使用Llama-2、PgVector和LlamaIndex構(gòu)建LLM Rag Pipeline

    ? ? ? ?近年來,大型語(yǔ)言模型(LLM)取得了顯著的進(jìn)步,然而大模型缺點(diǎn)之一是幻覺問題,即“一本正經(jīng)的胡說八道”。其中RAG(Retrieval Augmented Generation,檢索增強(qiáng)生成)是解決幻覺比較有效的方法。本文,我們將深入研究使用 transformer庫(kù) 、 Llama-2模型 、 PgVector數(shù)據(jù)庫(kù) 和

    2024年01月21日
    瀏覽(21)
  • LLM大模型推理加速實(shí)戰(zhàn):vllm、fastllm與llama.cpp使用指南

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(LLM)在諸如自然語(yǔ)言處理、智能問答、文本生成等領(lǐng)域的應(yīng)用越來越廣泛。然而,LLM模型往往具有龐大的參數(shù)規(guī)模,導(dǎo)致推理過程計(jì)算量大、耗時(shí)長(zhǎng),成為了制約其實(shí)際應(yīng)用的關(guān)鍵因素。為了解決這個(gè)問題,一系列大模型推理加

    2024年04月13日
    瀏覽(28)
  • 【LLM系列之LLaMA2】LLaMA 2技術(shù)細(xì)節(jié)詳細(xì)介紹!

    【LLM系列之LLaMA2】LLaMA 2技術(shù)細(xì)節(jié)詳細(xì)介紹!

    Llama 2 發(fā)布! Meta 剛剛發(fā)布了 LLaMa 2,它是 LLaMA 的下一代版本,具有商業(yè)友好的許可證。???? LLaMA 2 有 3 種不同的尺寸:7B、13B 和 70B。 7B 13B 使用與 LLaMA 1 相同的架構(gòu),并且是商業(yè)用途的 1 對(duì) 1 替代?? ?? 7B、13B 70B 參數(shù)版本 ?? 70B模型采用分組查詢注意力(GQA) ?? 聊天模

    2024年02月16日
    瀏覽(21)
  • 使用Python訪問和操作Llama的方法

    使用Python訪問和操作Llama的方法 Llama是一個(gè)流行的Python庫(kù),用于處理和操作數(shù)據(jù)集。它提供了豐富的功能和工具,使我們能夠輕松地對(duì)數(shù)據(jù)進(jìn)行處理、轉(zhuǎn)換和分析。本文將介紹如何使用Python來訪問和使用Llama庫(kù),并提供相應(yīng)的示例代碼。 安裝Llama庫(kù) 首先,我們需要安裝Llama庫(kù)。

    2024年04月12日
    瀏覽(19)
  • LLM實(shí)踐-在Colab上使用免費(fèi)T4 GPU進(jìn)行Chinese-Llama-2-7b-4bit推理

    一、配置環(huán)境 1、打開colab,創(chuàng)建一個(gè)空白notebook,在[修改運(yùn)行時(shí)環(huán)境]中選擇15GB顯存的T4 GPU. 2、pip安裝依賴python包 注意此時(shí),安裝完accelerate后需要重啟notebook,不然報(bào)如下錯(cuò)誤: ImportError: Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate 注:參考文章內(nèi)容

    2024年02月04日
    瀏覽(28)
  • llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA-7B模型測(cè)試

    llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA-7B模型測(cè)試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測(cè)試運(yùn)行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月15日
    瀏覽(17)
  • llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    llama.cpp LLM模型 windows cpu安裝部署;運(yùn)行LLaMA2模型測(cè)試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測(cè)試運(yùn)行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月16日
    瀏覽(29)
  • 【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models

    【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models

    LLaMA 是 Meta AI 發(fā)布的包含 7B、13B、33B 和 65B 四種參數(shù)規(guī)模的基礎(chǔ)語(yǔ)言模型集合,LLaMA-13B 僅以 1/10 規(guī)模的參數(shù)在多數(shù)的 benchmarks 上性能優(yōu)于 GPT-3(175B),LLaMA-65B 與業(yè)內(nèi)最好的模型 Chinchilla-70B 和 PaLM-540B 比較也具有競(jìng)爭(zhēng)力。 主要貢獻(xiàn): 開源一系列語(yǔ)言模型,可以與SOTA模型競(jìng)爭(zhēng)

    2024年02月10日
    瀏覽(18)
  • LLM__llama-7B模型試驗(yàn)

    LLM__llama-7B模型試驗(yàn)

    llama模型已經(jīng)開源很久了,所以拿做小的模型做了個(gè)簡(jiǎn)單嘗試 因?yàn)樽龊?jiǎn)單嘗試并不打算長(zhǎng)期持有,所以以便宜、夠用、好退貨為主要參考依據(jù)購(gòu)買阿里云服務(wù)器、 我看7B的模型權(quán)重大小就13GB,所以先購(gòu)入一個(gè) 32GB內(nèi)存的虛擬機(jī) CPU內(nèi)存: 4核(vCPU) 32 GiB ~ 操作系統(tǒng): Alibaba Cloud Lin

    2024年02月09日
    瀏覽(25)
  • LLM微調(diào)(四)| 微調(diào)Llama 2實(shí)現(xiàn)Text-to-SQL,并使用LlamaIndex在數(shù)據(jù)庫(kù)上進(jìn)行推理

    LLM微調(diào)(四)| 微調(diào)Llama 2實(shí)現(xiàn)Text-to-SQL,并使用LlamaIndex在數(shù)據(jù)庫(kù)上進(jìn)行推理

    ? ? ? ? Llama 2是開源LLM發(fā)展的一個(gè)巨大里程碑。最大模型及其經(jīng)過微調(diào)的變體位居Hugging Face Open LLM排行榜(https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)前列。多個(gè)基準(zhǔn)測(cè)試表明,就性能而言,它正在接近GPT-3.5(在某些情況下甚至超過它)。所有這些都意味著,對(duì)于從

    2024年02月03日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包