国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【大模型】0.5B的大模型通義千問1.5-0.5B-Chat來了??!

這篇具有很好參考價值的文章主要介紹了【大模型】0.5B的大模型通義千問1.5-0.5B-Chat來了??!。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

模型介紹

Qwen1.5是Qwen2的測試版,這是一個基于轉(zhuǎn)換器的純解碼器語言模型,在大量數(shù)據(jù)上進行了預(yù)訓(xùn)練。與之前發(fā)布的Qwen相比,改進之處包括:

  • 顯著改善了人類對聊天模型的偏好;

  • 對基本模式和聊天模式的多語言支持;

  • 穩(wěn)定支持32K上下文長度,適用于各種尺寸的模型

  • 不需要trust_remote_code。

訓(xùn)練細節(jié)

我們用大量數(shù)據(jù)對模型進行預(yù)訓(xùn)練,并用監(jiān)督微調(diào)和直接偏好優(yōu)化對模型進行后訓(xùn)練。然而,DPO導(dǎo)致了人類偏好評估的改進,但導(dǎo)致了基準評估的退化。在不久的將來,我們將解決這兩個問題。

Requirements

transformers>=4.37.0

拉取模型

git clone https://www.modelscope.cn/qwen/Qwen1.5-0.5B-Chat.git

示例代碼

from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "qwen/Qwen1.5-0.5B-Chat",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen1.5-0.5B-Chat")

prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)

generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

多輪對話

from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "Qwen1.5-0.5B-Chat",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen1.5-0.5B-Chat")

while True:
    print('input prompt:')
    
    # prompt = "Give me a short introduction to large language model."
    prompt = input()
    if prompt == 'q':
        break
    messages = [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": prompt}
    ]
    text = tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True
    )
    model_inputs = tokenizer([text], return_tensors="pt").to(device)

    generated_ids = model.generate(
        model_inputs.input_ids,
        max_new_tokens=512
    )
    generated_ids = [
        output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
    ]

    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    print('response:', response)

輸入退出多輪對話

測試輸出示例

input prompt:
借款不換會怎么樣
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 如果您不希望改變借給他的金額,您可以考慮將借款作為長期投資的一部分。雖然短期的回報可能不如長期投資,但長期來看,它可能會帶來更高的收益。

然而,如果您的資金狀況非常緊張或不確定如何使用該錢,那么將借給他并保持固定的比例支付可能會是一個更好的選擇。這樣做的風(fēng)險較低,因為您不會因為暫時的財務(wù)困難而減少償還本金的能力。

此外,如果您已經(jīng)決定改變借款的目的,例如為了實現(xiàn)個人目標或擴大投資范圍,那么調(diào)整借款比例以適應(yīng)這些新的需求可能是明智的選擇。

請注意,無論哪種情況,都需要與你的財務(wù)顧問一起制定一個詳細的風(fēng)險管理計劃,并確保你對所有的潛在影響有所了解和理解。
input prompt:
怎么才能合理合法的不還
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 我不能提供關(guān)于如何不還款的建議,因為這可能會涉及欺詐和非法行為。在許多國家和地區(qū),拒絕履行貸款或支付利息是違法的行為,而且可能還會導(dǎo)致罰款、監(jiān)禁甚至刑事責(zé)任。

如果您遇到困難無法按時償還貸款,請考慮與您的銀行聯(lián)系,看看是否有任何可以幫助您解決這個問題的方法。此外,您可以嘗試尋求財務(wù)咨詢服務(wù),以了解有關(guān)如何管理你的財務(wù)狀況和防止再次違約的建議。

請注意,不償還原款是一種嚴重的犯罪行為,并且可能會面臨法律后果。如果你正在采取這種方式,建議盡快尋求專業(yè)的幫助,以便避免不必要的法律責(zé)任。
input prompt:
你再好好想想能不能找到方法
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 當然可以,我會繼續(xù)努力的。請告訴我你需要什么樣的幫助?
input prompt:
借款不還
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 作為一個人工智能,我必須提醒您,您的行為可能涉及到法律問題。如果您正在面臨無法按時償還貸款的問題,我建議您盡快聯(lián)系專業(yè)的金融機構(gòu)或貸款機構(gòu)尋求幫助。

首先,了解清楚你的債務(wù)情況是很重要的。你是否已經(jīng)支付了所有的利息和本金?是否有未償還的本金和費用?這些信息可以幫助我們更準確地判斷你需要采取什么行動。

其次,你可以嘗試與你的銀行或貸款機構(gòu)進行溝通,看看他們是否有任何可能的解決方案。例如,他們是否有提供分期付款或其他還款計劃?

再次,如果以上方法都無法解決問題,你可能需要考慮尋求專業(yè)的法律援助。如果你認為自己的權(quán)益受到了侵害,請立即尋求法律援助。記住,你的權(quán)益是最重要的。
input prompt:
男孩和女孩誰更聰明
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 這個問題的答案取決于具體的情況。在智力測試中,男孩通常被認為是“更聰明”的,因為他們通常擁有更高的數(shù)學(xué)能力、邏輯思維能力和抽象思考能力。

然而,每個人都是獨一無二的,并且智商并不是一種標準化的評價標準。每個人的思維方式、學(xué)習(xí)風(fēng)格和應(yīng)對壓力的方式都不同,因此不能簡單地將一個人與其他人的智商進行比較。

重要的是要認識到,無論你是否被認為是一個聰明的人,關(guān)鍵在于你的努力、興趣和適應(yīng)能力,而不是你所擁有的天賦或外貌特征。
input prompt:
大語言模型誰排第一
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 作為一個AI助手,我無法比較不同的語言模型在實際應(yīng)用中的表現(xiàn)。不過,當前市面上的大多數(shù)大型語言模型都已經(jīng)得到了廣泛應(yīng)用,并且在全球范圍內(nèi)都有一定的認可度。

如果你需要了解某個特定的語言模型的具體排名情況,可以查閱相關(guān)的學(xué)術(shù)報告或公開的數(shù)據(jù)集,或者直接聯(lián)系相關(guān)的研究機構(gòu)進行查詢。

資源占用

CPU 約 2.2 GB
GPU 約 3.3 GB
推理速度還是非常快的!

參考

https://modelscope.cn/models/qwen/Qwen1.5-0.5B-Chat/summary文章來源地址http://www.zghlxwxcb.cn/news/detail-829671.html

到了這里,關(guān)于【大模型】0.5B的大模型通義千問1.5-0.5B-Chat來了!!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【AIGC】本地部署通義千問 1.5 (PyTorch)

    【AIGC】本地部署通義千問 1.5 (PyTorch)

    今天想分享一下 Qwen 1.5 官方用例的二次封裝( huggingface 說明頁也有提供源碼),其實沒有太多的技術(shù)含量。主要是想記錄一下如何從零開始在不使用第三方工具的前提下,以純代碼的方式本地部署一套大模型,相信這對于技術(shù)人員來說還是非常有用的。 雖然現(xiàn)在人人都可以

    2024年04月15日
    瀏覽(29)
  • 一道題告訴你為什么GPT4被封神!橫向測評大模型的推理能力:ChatGPT、Claude、Gemini、文心一言、訊飛星火、通義千問、天工、智譜清言、Kimi Chat!

    一道題告訴你為什么GPT4被封神!橫向測評大模型的推理能力:ChatGPT、Claude、Gemini、文心一言、訊飛星火、通義千問、天工、智譜清言、Kimi Chat!

    大家好,我是木易,一個持續(xù)關(guān)注AI領(lǐng)域的互聯(lián)網(wǎng)技術(shù)產(chǎn)品經(jīng)理,國內(nèi)Top2本科,美國Top10 CS研究生,MBA。我堅信AI是普通人變強的“ 外掛 ”,所以創(chuàng)建了“AI信息Gap”這個公眾號,專注于分享AI全維度知識,包括但不限于 AI科普 , AI工具測評 , AI效率提升 , AI行業(yè)洞察 。關(guān)

    2024年04月13日
    瀏覽(90)
  • 大模型語言模型的全面測評:ChatGPT、訊飛星火認知大模型、文心一言、昆侖天工和通義千問

    在當今人工智能技術(shù)日益成熟的背景下,大模型語言模型的應(yīng)用越來越廣泛。作為一名AI愛好者,我測試了五個平臺的大模型,分別是ChatGPT、訊飛星火認知大模型、文心一言、昆侖天工和通義千問。通過對這五個平臺的提問并得到其回答結(jié)果,我深刻感受到這些大模型的強大

    2024年02月10日
    瀏覽(31)
  • LLM(大語言模型)——Springboot集成文心一言、訊飛星火、通義千問、智譜清言

    目錄 引言 代碼完整地址 入?yún)??出參 Controller Service Service實現(xiàn)類 ?模型Service ?入?yún)⑥D(zhuǎn)換類 文心一言實現(xiàn)類 訊飛星火實現(xiàn)類 ?通義千問實現(xiàn)類 智譜清言實現(xiàn)類 本文將介紹如何使用Java語言,結(jié)合Spring Boot框架,集成國內(nèi)熱門大模型API,包括文心一言、訊飛星火、通義千問、智

    2024年04月12日
    瀏覽(70)
  • 如何讓 Llama2、通義千問開源大語言模型快速跑在函數(shù)計算上?

    如何讓 Llama2、通義千問開源大語言模型快速跑在函數(shù)計算上?

    :::info 本文是“在Serverless平臺上構(gòu)建AIGC應(yīng)用”系列文章的第一篇文章。 ::: 隨著ChatGPT 以及 Stable Diffusion,Midjourney 這些新生代 AIGC 應(yīng)用的興起,圍繞AIGC應(yīng)用的相關(guān)開發(fā)變得越來越廣泛,有呈井噴之勢,從長遠看這波應(yīng)用的爆發(fā)不僅僅是停留在形式之上,更是在各個領(lǐng)域產(chǎn)生實

    2024年02月09日
    瀏覽(84)
  • .Net接入AzureOpenAI、OpenAI、通義千問、智譜AI、訊飛星火、文心一言大語言模型。

    現(xiàn)在在網(wǎng)上搜索.NET接入大模型的帖子很少,有些官方案例只提供java和python的SDK,所以有了這篇.Net的接入大模型文章,目前僅實現(xiàn)對話模型的調(diào)用。 這里僅舉例通義千問,其他模型實現(xiàn)可以參考Gi他Hub 對您有幫助的話幫忙點個star 個人博客:FaceMan\\\' Blog 。 Github:FaceMan\\\' GitHub

    2024年01月21日
    瀏覽(23)
  • 【通義千問】大模型Qwen GitHub開源工程學(xué)習(xí)筆記(3)-- 通過Qwen預(yù)訓(xùn)練語言模型自動完成給定的文本

    本筆記分析了使用預(yù)訓(xùn)練的模型生成文本的示例代碼。它的步驟如下: 使用已加載的分詞器 tokenizer 對輸入文本進行處理,轉(zhuǎn)換為模型可以理解的格式。輸入文本是國家和首都的信息,最后一句是未完成的,需要模型來生成。 將處理后的輸入轉(zhuǎn)移到模型所在的設(shè)備上(例如

    2024年02月07日
    瀏覽(56)
  • 阿里云通義千問開源第二波!大規(guī)模視覺語言模型Qwen-VL上線魔搭社區(qū)

    阿里云通義千問開源第二波!大規(guī)模視覺語言模型Qwen-VL上線魔搭社區(qū)

    通義千問開源第二波!8月25日消息,阿里云推出大規(guī)模視覺語言模型Qwen-VL,一步到位、直接開源。Qwen-VL以通義千問70億參數(shù)模型Qwen-7B為基座語言模型研發(fā),支持圖文輸入,具備多模態(tài)信息理解能力。在主流的多模態(tài)任務(wù)評測和多模態(tài)聊天能力評測中,Qwen-VL取得了遠超同等規(guī)

    2024年02月11日
    瀏覽(26)
  • 【AIGC】Baichuan2-13B-Chat模型微調(diào)

    【AIGC】Baichuan2-13B-Chat模型微調(diào)

    微調(diào)框架:LLaMA-Efficient-Tuning 訓(xùn)練機器:4*RTX3090TI (24G顯存) python環(huán)境:python3.8, 安裝 requirements.txt 依賴包 1、準備數(shù)據(jù)集 2、訓(xùn)練及測試 1)創(chuàng)建模型輸出目錄 2)創(chuàng)建deepspeed配置文件目錄 3)創(chuàng)建deepspeed配置文件 4)訓(xùn)練模型 測試模型 3、注意事項: 1)我用的是3090TI顯卡,使用

    2024年02月08日
    瀏覽(50)
  • 大模型使用——超算上部署LLAMA-2-70B-Chat

    大模型使用——超算上部署LLAMA-2-70B-Chat

    前言 1、本機為 Inspiron 5005 ,為 64 位,所用操作系統(tǒng)為 Windos 10 。超算的操作系統(tǒng)為 基于Centos的linux , GPU 配置為 A100 ,所使用開發(fā)環(huán)境為 Anaconda 。 2、本教程主要實現(xiàn)了在超算上部署LLAMA2-70B-Chat。 實現(xiàn)步驟 1、連接上超算以后,執(zhí)行如下命令在超算上創(chuàng)建一個虛擬環(huán)境。

    2024年02月13日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包