国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

這篇具有很好參考價(jià)值的文章主要介紹了中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

歡迎關(guān)注『CVHub』官方微信公眾號!

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca

PDF: https://arxiv.org/pdf/2304.08177v1.pdf

Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca

導(dǎo)讀

大型語言模型LLM,如ChatGPT和GPT-4,已經(jīng)徹底改變了自然語言處理研究。然而,LLMs的昂貴訓(xùn)練和部署對于透明和開放的學(xué)術(shù)研究提出了挑戰(zhàn)。為了解決這些問題,該項(xiàng)目開源了中文LLaMAAlpaca大語言模型,并強(qiáng)調(diào)指令微調(diào)。通過增加20K個(gè)中文token擴(kuò)展了原始LLaMA的中文詞匯表,增加了編碼效率并提高了基本語義理解。通過將中文數(shù)據(jù)進(jìn)行輔助預(yù)訓(xùn)練并使用中文指令數(shù)據(jù)進(jìn)行微調(diào),可大大改善模型對指令的理解和執(zhí)行能力。

引言

隨著大型語言模型LLMs的出現(xiàn),自然語言處理NLP領(lǐng)域已然經(jīng)歷了一次革命性的范式轉(zhuǎn)變。這些模型以其龐大的規(guī)模和廣泛的訓(xùn)練數(shù)據(jù)為特征,已經(jīng)展示出了理解和生成類似于人類文本的強(qiáng)大能力。與用于文本理解的預(yù)訓(xùn)練語言模型BERT不同,GPT系列注重文本生成能力。作為GPT家族中最新的LLMs,ChatGPTGPT-4引起廣泛關(guān)注,并成為這個(gè)快速發(fā)展領(lǐng)域最具代表性的強(qiáng)大模型。

ChatGPT(OpenAI,2022)是基于GPT-3.5架構(gòu)構(gòu)建的高級對話人工智能模型,可以進(jìn)行上下文感知的類人交互。它的成功為GPT-4(OpenAI,2023)的開發(fā)鋪平了道路,GPT-4是一種更復(fù)雜的LLM,已經(jīng)展示出更大的自然語言理解、生成和各種NLP任務(wù)的潛力。這兩個(gè)模型開辟了新的研究和應(yīng)用方向,引起了人們對探索人工通用智能AGI能力的興趣。這些LLMs不僅在多個(gè)基準(zhǔn)測試中表現(xiàn)出令人印象深刻的性能,而且還展示了少量數(shù)據(jù)學(xué)習(xí)適應(yīng)新任務(wù)的能力。

盡管LLMs異常強(qiáng)大,但這些模型也存在某些限制:

  1. 私有化,這限制了外界對這些模型源碼的訪問,并阻礙了更廣泛的研究社區(qū)基于它們的成功進(jìn)行研究的能力。
  2. 訓(xùn)練和部署這些大語言模型所需的巨大計(jì)算資源對于資源有限的研究人員來說也是一個(gè)挑戰(zhàn)

為了應(yīng)對這些限制,自然語言處理研究社區(qū)已經(jīng)轉(zhuǎn)向開源平替方案。其中最著名的是:LLaMAAlpaca,其中Alpaca模型在LLaMA的基礎(chǔ)上進(jìn)一步用指令數(shù)據(jù)進(jìn)行了微調(diào)。這些開源LLMs的設(shè)計(jì)旨在促進(jìn)學(xué)術(shù)研究并加快自然語言處理領(lǐng)域的進(jìn)展。通過開源這些模型,自然語言處理社區(qū)旨在創(chuàng)建一個(gè)鼓勵(lì)模型開發(fā)、微調(diào)和評估進(jìn)一步發(fā)展的環(huán)境,最終構(gòu)建一些強(qiáng)大的LLMs,以應(yīng)用于各類應(yīng)用中。

現(xiàn)有的大語言模型存在私有化和資源受限的問題,因此學(xué)術(shù)界轉(zhuǎn)向了開源平替方案:LLaMAAlpaca等,以促進(jìn)更大的透明度和協(xié)作。然而,這些開源模型在處理中文任務(wù)時(shí)仍然存在困難,因?yàn)樗鼈兊脑~匯表中只包含了幾百個(gè)中文單詞,導(dǎo)致編碼和解碼中文文本的效率受到很大影響。為此,該項(xiàng)目提出了一種改進(jìn)的中文LLaMAAlpaca模型,通過添加20k個(gè)中文單詞來擴(kuò)展詞匯表,從而提高了這些模型處理和生成中文文本的能力。同時(shí)采用低秩適應(yīng)LoRA方法來確保模型的高效訓(xùn)練和部署,從而為其他語言的模型適應(yīng)提供了參考。這項(xiàng)工作為將LLaMAAlpaca模型推廣到其它語言提供了一個(gè)基礎(chǔ),也提供了一些方法擴(kuò)展這些模型的詞匯表和提高性能。

這份技術(shù)報(bào)告的貢獻(xiàn)如下:

  • 通過向原始LLaMA的詞匯表中添加20k個(gè)中文詞匯,增強(qiáng)了中文編碼和解碼效率并改善了LLaMA的中文理解能力。
  • 采用Low-Rank AdaptationLoRA方法,實(shí)現(xiàn)了中文LLaMAAlpaca模型的高效訓(xùn)練和部署,使研究人員能夠在不產(chǎn)生過多計(jì)算成本的情況下使用這些模型。
  • 評估了中文Alpaca 7B和13B模型在各種自然語言理解NLU和自然語言生成NLG任務(wù)中的表現(xiàn),在中文語言任務(wù)中相比原始LLaMA模型取得了顯著的提高。
  • 公開了相關(guān)研究的資源和結(jié)果,促進(jìn)了NLP社區(qū)內(nèi)進(jìn)一步的研究和協(xié)作,并鼓勵(lì)將LLaMAAlpaca模型適應(yīng)到其他語言中。

Chinese LLAMA

LLaMA是一個(gè)基于transformer架構(gòu)的僅解碼器的基礎(chǔ)性大語言模型。與其它基于transformer的大語言模型類似,LLaMA包括一個(gè)嵌入層、多個(gè)transformer塊和一個(gè)語言模型head層。它還包含了各種改進(jìn):如預(yù)歸一化、SwiGLU激活和Rotary Embeddings等等。LLaMA的參數(shù)總數(shù)在7B到65B之間。實(shí)驗(yàn)數(shù)據(jù)表明:LLaMA在保持更小模型尺寸的同時(shí),與其它大語言模型(如GPT-3)相比具有相當(dāng)?shù)母偁幮浴?/p>

LLaMA已經(jīng)在公開可用的語料庫中預(yù)訓(xùn)練了1T到1.4T個(gè)token,其中大多數(shù)數(shù)據(jù)為英語,因此LLaMA理解和生成中文的能力受到限制。為了解決這個(gè)問題,該項(xiàng)目建議在中文語料庫上對LLaMA模型進(jìn)行預(yù)訓(xùn)練,以增強(qiáng)其基本的中文理解和生成能力。

然而,在中文語料庫上對LLaMA進(jìn)行預(yù)訓(xùn)練也存在相應(yīng)的挑戰(zhàn):

  1. 原始LLaMA tokenizer詞匯表中只有不到一千個(gè)中文字符,雖然LLaMA tokenizer可以通過回退到字節(jié)來支持所有的中文字符,但這種回退策略會顯著增加序列長度,并降低處理中文文本的效率。
  2. 字節(jié)標(biāo)記不僅用于表示中文字符,還用于表示其它UTF-8標(biāo)記,這使得字節(jié)標(biāo)記難以學(xué)習(xí)中文字符的語義含義。

為了解決這些問題,研究人員提出了以下兩個(gè)解決方案來擴(kuò)展LLaMA tokenizer中的中文詞匯:

  1. 在中文語料庫上使用SentencePiece訓(xùn)練一個(gè)中文tokenizer,使用20000個(gè)詞匯大小。然后將中文tokenizer與原始LLaMA tokenizer合并,通過組合它們的詞匯表,最終獲得一個(gè)合并的tokenizer,稱為Chinese LLaMA tokenizer,詞匯表大小為49,953
  2. 為了適應(yīng)新的tokenizer,研究人員將詞嵌入和語言模型頭從V × H調(diào)整為V’× H的形狀,其中V = 32,000代表原始詞匯表的大小,而V’ = 49,953則是Chinese LLaMA tokenizer的詞匯表大小。新行附加到原始嵌入矩陣的末尾,確保原始詞匯表中的標(biāo)記的嵌入不受影響。

該技術(shù)報(bào)告指出,使用中文LLaMA分詞器相對于原始LLaMA分詞器生成的token數(shù)減少了一半左右。 對比了原始LLaMA分詞器和中文LLaMA分詞器,使用中文LLaMA分詞器相對于原始的編碼長度有明顯的減少。這表明該項(xiàng)目提出的方法在提高LLaMA模型的中文理解和生成能力方面是有效的。通過在標(biāo)準(zhǔn)的自然語言模型訓(xùn)練任務(wù)中,使用中文LLaMA分詞器對中文LLaMA模型進(jìn)行預(yù)訓(xùn)練,以自回歸的方式預(yù)測下一個(gè)標(biāo)記,從而進(jìn)一步提高了LLaMA模型的中文理解和生成能力。

對于給定的輸入token序列 x = ( x 0 , x 1 , x 2 , . . . ) x =(x_0,x_1,x_2,...) x=x0?,x1?x2?...,模型以自回歸的方式訓(xùn)練以預(yù)測下一個(gè)token,目標(biāo)是最小化以下負(fù)對數(shù)似然:

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

這里,符號Θ表示模型參數(shù), x i x_i xi?表示待預(yù)測的token,而 x 0 x_0 x0?, x 1 x_1 x1?, . . . , x i ? 1 x_{i-1} xi?1?則表示上下文。在這個(gè)任務(wù)中,模型會自動(dòng)地根據(jù)已經(jīng)看到的上下文信息來預(yù)測下一個(gè)token的概率分布,并通過最小化負(fù)對數(shù)似然函數(shù)來學(xué)習(xí)模型參數(shù)。

Chinese Alpaca

在獲得預(yù)訓(xùn)練的中文LLaMA模型之后,我們采用Alpaca中使用的方法來應(yīng)用指令微調(diào)的方式來繼續(xù)訓(xùn)練該模型。每個(gè)訓(xùn)練sample由一個(gè)指令和一個(gè)輸出組成,sample構(gòu)成模板如下展示:

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

實(shí)驗(yàn)設(shè)置

Pre-training階段

首先使用了類似于中文BERT-wwmMacBERT、LERT 等預(yù)訓(xùn)練模型使用的大規(guī)模中文語料庫,總共約有20GB。預(yù)訓(xùn)練分為兩個(gè)階段:

  1. 固定模型中的transformer編碼器參數(shù),只訓(xùn)練詞嵌入embeddings,適應(yīng)新添加的中文詞向量,同時(shí)最小化對原模型的干擾
  2. 添加LoRA權(quán)重adapters到注意力機(jī)制中,訓(xùn)練詞嵌入、語言模型頭以及新添加的LoRA參數(shù)

Instruction Fine-tuning階段

使用了self-instruction方法從ChatGPT(gpt-3.5-turbo API)中自動(dòng)獲取訓(xùn)練數(shù)據(jù),另外這段描述中提供了超參數(shù)(hyperparameters)的列表,并在Table 3中提供了微調(diào)數(shù)據(jù)的詳細(xì)信息。作者在GitHub上公開了模板和代碼細(xì)節(jié)。

下表2展示了訓(xùn)練7B與13B模型的相關(guān)超參數(shù)列表

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

實(shí)驗(yàn)評估方法

本項(xiàng)目采用GPT-4作為評分工具。然而,GPT-4并不總是提供準(zhǔn)確的分?jǐn)?shù),所以作者對其評分進(jìn)行人工檢查并在必要時(shí)進(jìn)行調(diào)整,手動(dòng)檢查確保分?jǐn)?shù)一致并反映所評估的模型的真實(shí)性能。作者使用以下評估模板輸入到GPT-4進(jìn)行評分:

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

采用了GPT-4作為評分方法,并結(jié)合人工檢查可建立了一個(gè)可靠的評估框架,以有效地衡量中文Alpaca模型在各種自然語言理解和生成任務(wù)上的表現(xiàn)。評估集包括 160 個(gè)樣本,涵蓋了10個(gè)不同的任務(wù),包括問答、推理、文學(xué)、娛樂、翻譯、多輪對話、編碼和倫理等等。每個(gè)任務(wù)的總分是該任務(wù)內(nèi)所有樣本的分?jǐn)?shù)之和,并將總分標(biāo)準(zhǔn)化為100分。

實(shí)驗(yàn)結(jié)果

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

上述結(jié)果表明,中文Alpaca-13B模型在各項(xiàng)任務(wù)中均表現(xiàn)優(yōu)于7B模型,凸顯了模型容量增加的好處。在回答問題任務(wù)中,中文Alpaca-13B模型得分77,而7B模型得分53。在開放式問答方面,13B模型得分73,7B模型得分64。在數(shù)值推理任務(wù)中,13B模型的得分為50,而7B模型的得分僅為23。

下方例子展示了7B與13B中文LLama模型在同一個(gè)prompt下的對比結(jié)果:

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼

結(jié)論

本文開源了專門針對中文的LLaMAAlpaca大語言模型,通過增加20K個(gè)中文token擴(kuò)展了原始LLaMA的中文詞匯表,使用中文LLaMA分詞器相對于原始LLaMA分詞器生成的token數(shù)減少了一半左右,進(jìn)一步增加了中文編碼效率并提高了中文基礎(chǔ)語義理解能力。有中文LLaMA大語言模型訓(xùn)練需求的同學(xué)可以借鑒一下。


如果您也對人工智能和計(jì)算機(jī)視覺全棧領(lǐng)域感興趣,強(qiáng)烈推薦您關(guān)注有料、有趣、有愛的公眾號『CVHub』,每日為大家?guī)砭吩瓌?chuàng)、多領(lǐng)域、有深度的前沿科技論文解讀及工業(yè)成熟解決方案!歡迎添加小編微信號: cv_huber,備注"CSDN",加入 CVHub 官方學(xué)術(shù)&技術(shù)交流群,一起探討更多有趣的話題!文章來源地址http://www.zghlxwxcb.cn/news/detail-491070.html

到了這里,關(guān)于中文LLaMa和Alpaca大語言模型開源方案 | 擴(kuò)充中文詞表 & 針對中文語料進(jìn)行高效編碼的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用

    中文大模型 Chinese-LLaMA-Alpaca-2 開源且可以商用

    “ ?Meta 開源?LLAMA2 后,國內(nèi)出現(xiàn)了不少以此為基座模型訓(xùn)練的中文模型,這次我們來看看其中一個(gè)不錯(cuò)的中文模型:Chinese-LLaMA-Alpaca-2?。 ” 01 — 目前在開源大模型中,比較有名的是Meta的LLAMA模型系列和清華的ChatGLM模型。 特別是在中文領(lǐng)域上,ChatGLM模型經(jīng)過中文問答和對

    2024年02月06日
    瀏覽(22)
  • LLaMA模型之中文詞表的蛻變

    在目前的開源模型中,LLaMA模型無疑是一顆閃亮的??,但是相對于ChatGLM、BaiChuan等國產(chǎn)大模型,其對于中文的支持能力不是很理想。原版LLaMA模型的詞表大小是32K,中文所占token是幾百個(gè)左右,這將會導(dǎo)致中文的編解碼效率低。 在將LLaMA系列模型用于中文語言時(shí)需要進(jìn)行中文

    2024年02月03日
    瀏覽(23)
  • 【AI實(shí)戰(zhàn)】從零開始搭建中文 LLaMA-33B 語言模型 Chinese-LLaMA-Alpaca-33B

    【AI實(shí)戰(zhàn)】從零開始搭建中文 LLaMA-33B 語言模型 Chinese-LLaMA-Alpaca-33B

    2023年2月25日消息,Meta 推出了一種針對研究社區(qū)的基于人工智能 (AI) 的新型大型語言模型,與微軟、谷歌等一眾受到 ChatGPT 刺激的公司一同加入人工智能競賽。 Meta 的 LLaMA 是“大型語言模型 Meta AI” (Large Language Model Meta AI)的縮寫,它可以在非商業(yè)許可下提供給政府、社區(qū)

    2024年02月13日
    瀏覽(46)
  • 安裝單機(jī)版大語言模型AI,基于LLaMA的斯坦福大學(xué)開源Alpaca

    個(gè)人電腦即可,不需要GPU,但內(nèi)存最好大于8G。我是在VM虛擬機(jī)中安裝成功,且流程運(yùn)行。 1.?首先使用如下命令下載 alpaca.cpp 項(xiàng)目 2.進(jìn)入項(xiàng)目后,下載模型 ?下載模型到目錄中,下載地址 3.然后編譯 4.開始運(yùn)行 如果運(yùn)行時(shí)報(bào)錯(cuò),有可能是內(nèi)存或CPU性能不足。 英語場景很流暢

    2024年02月13日
    瀏覽(16)
  • Llama 及 中文Alpaca模型部署測試

    Llama 及 中文Alpaca模型部署測試

    環(huán)境: Xeon? E5-2680v4 16C 40G RAM WinServer 2019 Standard Edition Python 3.10 依賴庫: accelerate==0.18.0 anyio==3.5.0 argon2-cffi==21.3.0 argon2-cffi-bindings==21.2.0 asttokens==2.0.5 attrs==22.1.0 Babel==2.11.0 backcall==0.2.0 beautifulsoup4==4.12.2 bleach==4.1.0 brotlipy==0.7.0 certifi==2022.12.7 cffi==1.15.1 chardet==5.1.0 charset-normalizer==3.1.

    2024年02月09日
    瀏覽(18)
  • LLM-LLaMA中文衍生模型:LLaMA-ZhiXi【沒有對詞表進(jìn)行擴(kuò)增、全參數(shù)預(yù)訓(xùn)練、部分參數(shù)預(yù)訓(xùn)練、指令微調(diào)】

    LLM-LLaMA中文衍生模型:LLaMA-ZhiXi【沒有對詞表進(jìn)行擴(kuò)增、全參數(shù)預(yù)訓(xùn)練、部分參數(shù)預(yù)訓(xùn)練、指令微調(diào)】

    下圖展示了我們的訓(xùn)練的整個(gè)流程和數(shù)據(jù)集構(gòu)造。整個(gè)訓(xùn)練過程分為兩個(gè)階段: (1)全量預(yù)訓(xùn)練階段。該階段的目的是增強(qiáng)模型的中文能力和知識儲備。 (2)使用LoRA的指令微調(diào)階段。該階段讓模型能夠理解人類的指令并輸出合適的內(nèi)容。 ? 3.1 預(yù)訓(xùn)練數(shù)據(jù)集構(gòu)建 為了在保

    2024年02月12日
    瀏覽(34)
  • 【類ChatGPT】中文LLaMA-2、Alpaca-2 二代羊駝大模型體驗(yàn)

    【類ChatGPT】中文LLaMA-2、Alpaca-2 二代羊駝大模型體驗(yàn)

    Meta發(fā)布的一代LLaMA已經(jīng)掀起了一股開源大模型熱潮,也有很多相關(guān)工作不斷涌現(xiàn)。最近Meta全新發(fā)布了Llama-2,效果更上一層樓。而且最重要的是模型可以相對隨意分發(fā)了,不像一代一樣,meta不讓開發(fā)者發(fā)布基于llama模型訓(xùn)練出來的權(quán)重(原版當(dāng)然更不可以)。 既然有了Llama-

    2024年02月12日
    瀏覽(23)
  • 【個(gè)人筆記本】本地化部署詳細(xì)流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

    不推薦小白,環(huán)境配置比較復(fù)雜 下載原始模型:Chinese-LLaMA-Alpaca-2 linux部署llamacpp環(huán)境 使用llamacpp將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型 windows部署Text generation web UI 環(huán)境 使用Text generation web UI 加載模型并進(jìn)行對話 筆記本環(huán)境: 操作系統(tǒng):win11 CPU:AMD R7535HS GPU:筆記本4060顯卡

    2024年02月08日
    瀏覽(84)
  • 【類ChatGPT】本地CPU部署中文羊駝大模型LLaMA和Alpaca

    【類ChatGPT】本地CPU部署中文羊駝大模型LLaMA和Alpaca

    昨天在github上看到一個(gè)在本地部署中文大模型的項(xiàng)目,和大家分享一下。先把地址po出來。 項(xiàng)目名稱:中文LLaMAAlpaca大語言模型+本地部署 (Chinese LLaMA Alpaca LLMs) 項(xiàng)目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 以下是原github中給出的體驗(yàn)GIF,可以看到這個(gè)模型還是具備一定的指令

    2023年04月23日
    瀏覽(34)
  • 類ChatGPT模型LLaMA的解讀與其微調(diào):Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    類ChatGPT模型LLaMA的解讀與其微調(diào):Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各種技術(shù)細(xì)節(jié) 不斷看論文(至少100篇,100篇目錄見此:ChatGPT相關(guān)技術(shù)必讀論文100篇),還開始研究一系列開源模型(包括各自對應(yīng)的模型架構(gòu)、訓(xùn)練方法、訓(xùn)練數(shù)據(jù)、本地私有化部署、硬件配置要求、微調(diào)等細(xì)節(jié))? 本文一開始是作為此文《ChatGPT技術(shù)

    2024年02月16日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包