国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

這篇具有很好參考價(jià)值的文章主要介紹了特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

?PaperWeekly 原創(chuàng) ·?作者 |?佀慶一

單位 |?中科院信息工程研究所

研究方向 |?視覺(jué)問(wèn)答

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

項(xiàng)目簡(jiǎn)稱(chēng):

Alpaca-CoT(當(dāng)羊駝?dòng)錾纤季S鏈)

項(xiàng)目標(biāo)題:

Alpaca-CoT: An Instruction Fine-Tuning Platform with Instruction Data Collection and Unified Large Language Models Interface

項(xiàng)目鏈接:

https://github.com/PhoebusSi/Alpaca-CoT

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)


ChatGPT背后的技術(shù)

LLM:(Large Language Models)指經(jīng)過(guò)大規(guī)模預(yù)訓(xùn)練且體量較大的語(yǔ)言模型,一般是 transformer-based 模型。

IFT:(Instruction Fine-Tuning)指令微調(diào),指令是指用戶傳入的目的明確的輸入文本,指令微調(diào)用以讓模型學(xué)會(huì)遵循用戶的指令。?

CoT:(Chain-of-Thought)指令形式的一種特殊情況,包含 step-by-step 的推理過(guò)程。如下圖藍(lán)色部分所示。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

定位

ChatGPT 的出現(xiàn)驗(yàn)證了大型語(yǔ)言模型 (LLM) 在通用人工智能 (AGI) 上的潛力。基于 LLaMA [1] 等 Large Language Models (LLMs) 的 instruction-tuning 研究(如,Alpaca [2])大幅度加速了復(fù)現(xiàn) ChatGPT 的進(jìn)程。Alpaca-CoT 希望在這個(gè)研究方向上做出適度的貢獻(xiàn),以推進(jìn) LLMs 的開(kāi)源進(jìn)程、降低 LLMs 研究和使用成本。?

具體來(lái)說(shuō),Alpaca-CoT 項(xiàng)目旨在探究如何更好地通過(guò) instruction-tuning 的方式來(lái)誘導(dǎo) LLM 具備類(lèi)似 ChatGPT 的交互和 instruction-following 能力。為此,我們廣泛收集了不同類(lèi)型的 instruction(尤其是 Chain-of-Thought)數(shù)據(jù)集,并將包含 LLaMA、ChatGLM、Bloom 在內(nèi)的多種 LLMs 集成進(jìn)來(lái)統(tǒng)一接口。

在這基礎(chǔ)上,我們基于 LLaMA 給出了深入細(xì)致的實(shí)證研究,以供未來(lái)工作參考。據(jù)我們所知,我們是首個(gè)將 CoT 拓展進(jìn) Alpaca 的工作,因此項(xiàng)目簡(jiǎn)稱(chēng)為?"Alpaca-CoT"。?

熱烈歡迎您向我們提供任何未被本項(xiàng)目收集的 instruction-tuning 及各類(lèi) tasks 數(shù)據(jù)集(或其來(lái)源)。我們將:

  • 將這些數(shù)據(jù)收錄并進(jìn)行統(tǒng)一格式化處理,并注明來(lái)源;

  • 用這些數(shù)據(jù)集 instruction finetune 一系列的 LLM(如 llama, ChatGLM 等),并開(kāi)源其 checkpoint;

  • 進(jìn)行廣泛的實(shí)證研究以探究新收錄的數(shù)據(jù)集的作用。?

同時(shí)也歡迎您向我們指出(general 或特定能力上)表現(xiàn)不錯(cuò)的開(kāi)源 LLM,我們將:

  • 將這些 LLM 集成到我們的平臺(tái)中,可以通過(guò)超參切換不同的 LLM;?

  • 開(kāi)源該模型在我們框架下 IFT 后的 checkpoint。?

我們希望我們的項(xiàng)目能夠?yàn)榇笮驼Z(yǔ)言模型的開(kāi)源過(guò)程做出適度的貢獻(xiàn),并降低 NLP 研究人員上手 LLM 相關(guān)研究的門(mén)檻。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

概述

近期,LLaMA [1] 顯示出驚人的 zero-shot 和 few-shot 能力,僅需較少的參數(shù)即可和 GPT-3.5 性能相當(dāng)(LLaMA-13B 顯著優(yōu)于 GPT-3(175B),LLaMA-65B 與 PaLM-540MB 相當(dāng)),明顯降低了訓(xùn)練、微調(diào)和使用 competitive 大型語(yǔ)言模型的成本。

最近,為了提高 LLaMA 的 instruction-following 能力,Stanford Alpaca [2] 借助 self-instruct [3] 的方式生成的 52K Englishi instruction-finetuning 數(shù)據(jù)對(duì) LLaMA 進(jìn)行了微調(diào),達(dá)到了客觀的效果。然而,目前該方向的研究仍然面臨著以下四個(gè)挑戰(zhàn):

  • 即便僅對(duì) 7b 大小的 LLM fientune,依然對(duì)計(jì)算資源有著較高的要求;

  • 用于 instruction finetuning 的開(kāi)源數(shù)據(jù)集較少,缺少資源整合;

  • 缺少統(tǒng)一的平臺(tái),可以輕松切換不同的 LLMs 和不同類(lèi)型的 IFT 數(shù)據(jù);

  • 缺乏各 instruction 類(lèi)型帶來(lái)的影響的實(shí)證研究,如響應(yīng)中文的能力和 CoT 能力。

為此,我們提出了 Alpaca-CoT 項(xiàng)目,該項(xiàng)目結(jié)合了相關(guān)的近期前沿技術(shù),具有以下優(yōu)勢(shì):?

  • 僅需要較低計(jì)算資源即可高效完成對(duì) LLaMA 的微調(diào)。7b, 13b 和 30b 版本的 LLaMA 模型均可在單卡 80G A100 上完成訓(xùn)練。我們的代碼主要修改自 Alpaca-LoRA,其使用了 low-rank adaptation (LoRA) [4], PEFT 和 bitsandbytes 等技術(shù)來(lái)達(dá)到降低計(jì)算資源需求的效果;

  • 我們發(fā)布的模型顯著提升了?CoT (reasoning) 能力;

  • 我們發(fā)布的模型顯著提升了對(duì)中文指令的響應(yīng)能力;

  • 維護(hù)了一個(gè)仍在不斷擴(kuò)大規(guī)模的 intruction-finetuning 的數(shù)據(jù)集集合。該集合包含了中文、英文和 CoT、code、story 等 instruction 數(shù)據(jù)。同時(shí),我們也維護(hù)了一個(gè)訓(xùn)練自各種 instruction 數(shù)據(jù)集的模型 checkpoint 集合。

  • 集成了多種 LLMs 并統(tǒng)一了調(diào)用接口,可通過(guò)超參輕松切換。目前包含 LLaMA, ChatGLM [5] 和 Bloom [6],后續(xù)將持續(xù)加入更多,以供研究者們輕松調(diào)用和對(duì)比不同 LLMs。

  • 提供了詳盡透徹的?Empirical Study,這里的 findings 可能會(huì)對(duì)促進(jìn)未來(lái) LLM 探索有一定的參考價(jià)值。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)


多接口統(tǒng)一的開(kāi)源平臺(tái)

為了便于研究者們?cè)?LLM 上做系統(tǒng)的 IFT 研究,我們收集了不同類(lèi)型的 instruction 數(shù)據(jù),集成了多種 LLM,并統(tǒng)一了接口,可以輕松定制化想要的搭配:

  • --model_type: 設(shè)置想要研究的LLM,目前已支持 [llama, chatglm 和 bloom],其中 llama 的英文能力較強(qiáng),chatglm 的中文能力較強(qiáng),bloom 關(guān)注多語(yǔ)種能力,后續(xù)將會(huì)集成更多的 LLMs。

  • --data: 設(shè)置用以 IFT 的數(shù)據(jù)類(lèi)型,以靈活特制想要的指令遵循能力,如追求較強(qiáng)的推理能力可設(shè)置 alpaca-cot,較強(qiáng)的中文能力可設(shè)置 belle1.5m,金融相關(guān)的響應(yīng)能力可設(shè)置 finance,code 和 story 生成可設(shè)置 gpt4all。?

  • --model_name_or_path: 與 --model_type 相對(duì)應(yīng),用來(lái)加載目標(biāo) LLM 的不同型號(hào)權(quán)重。如,要加載 llama 的 13b 的模型權(quán)重時(shí)可設(shè)置 decapoda-research/llama-13b-hf。

你可以在這里下載訓(xùn)練自各種類(lèi)型 instruction 數(shù)據(jù)的所有 checkpoints:

https://huggingface.co/QingyiSi/Alpaca-CoT/tree/main

#?單卡
CUDA_VISIBLE_DEVICES=0?python3?uniform_finetune.py?--model_type?llama?--model_name_or_path?decapoda-research/llama-7b-hf?\
????--data?alpaca-belle-cot?--lora_target_modules?q_proj?v_proj?

#?多卡
python3?-m?torch.distributed.launch?--nproc_per_node?4??\
????--nnodes=1?--node_rank=0?--master_addr=xxx?--master_port=yyy?uniform_finetune.py?\
????--model_type?llama?--model_name_or_path?decapoda-research/llama-7b-hf?\
????--data?alpaca-belle-cot?--lora_target_modules?q_proj?v_proj

然后,在 gernerate.py 中的 LoRA_WEIGHTS 設(shè)置成下載路徑,即可直接運(yùn)行模型的 inference 以查看模型效果。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)


指令數(shù)據(jù)集合

該集合仍在不斷更新和擴(kuò)增中??稍谝韵骆溄酉螺d和查看更多數(shù)據(jù)細(xì)節(jié):

https://huggingface.co/datasets/QingyiSi/Alpaca-CoT

數(shù)據(jù)統(tǒng)計(jì)

注意:下圖是截止到 2.26 日收集到的數(shù)據(jù)集的統(tǒng)計(jì)情況,僅作為 motivation 展示。目前已收集了更多數(shù)據(jù)集,如金融相關(guān),code 生成相關(guān)的指令數(shù)據(jù)集。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

當(dāng)前的 instruction-finetuning 數(shù)據(jù)集合主要包含以下三個(gè)部分:

alpaca_data_cleaned.json: 包含 5 萬(wàn)左右英文指令數(shù)據(jù);

CoT_data.json: 包含 9 個(gè) CoT 數(shù)據(jù)集,共 7 萬(wàn)條左右數(shù)據(jù)(相關(guān)的數(shù)據(jù)集由 FLAN [7] 發(fā)布,我們統(tǒng)一了數(shù)據(jù) format);

belle_data_cn.json:? 包含 50 萬(wàn)左右中文指令數(shù)據(jù)(相關(guān)的中文 instruction 數(shù)據(jù)由 BELLE [8] 發(fā)布)。

數(shù)據(jù)下載

你可以在這里下載所有我們已經(jīng)統(tǒng)一格式后的 formatted 數(shù)據(jù):

https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main

然后,將下載到的文件全部放到 data?folder:

https://github.com/PhoebusSi/alpaca-CoT/tree/main/data

數(shù)據(jù)格式

我們集合中的所有數(shù)據(jù)均已被轉(zhuǎn)化成相同的格式,每個(gè)樣本的格式如下:

[
{"instruction":?instruction?string,
"input":?input?string,?#?(may?be?empty)
"output":?output?string}
]

注意,對(duì)于 CoT 數(shù)據(jù)集,我們首先使用 FLAN 提供的 template 將其從原數(shù)據(jù)轉(zhuǎn)化成 Chain-of-Thought 的形式,之后再統(tǒng)一成以上格式。

https://github.com/google-research/FLAN/blob/main/flan/v2/templates.py

格式統(tǒng)一化的腳本可以在這里找到:

https://github.com/PhoebusSi/alpaca-CoT/blob/main/data/origin_cot_data/formating.py

您也可以標(biāo)注或生成(e.g., 采取 self-instruct 的做法)符合自己業(yè)務(wù)/專(zhuān)業(yè)需求的特定方向的 IFT 數(shù)據(jù)。如果同意開(kāi)源且質(zhì)量較好,我們會(huì)收集到我們維護(hù)的數(shù)據(jù)指令集合中并注明來(lái)源:

https://huggingface.co/datasets/QingyiSi/Alpaca-CoT/tree/main

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)


模型效果

關(guān)于CoT和Chinese Instructions的消融對(duì)比

"w/o CoT" 和 "w/o CN" 分別表示用在 instruction-finetuning 期間不采用 CoT 數(shù)據(jù)和 Chinese instructions。?

下圖是需要推理能力的問(wèn)題上的表現(xiàn):

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

下圖是需要遵循中文指令的問(wèn)題上的表現(xiàn):

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

下圖是在較復(fù)雜問(wèn)題上的表現(xiàn):

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

從以上樣例可以看出,從我們完整數(shù)據(jù)集 collection(英文、中文和 CoT 指令數(shù)據(jù))中微調(diào)得到的模型可以顯著提高 reasoning 能力和響應(yīng)中文指令的能力。

更多能力展示

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)


對(duì)比實(shí)驗(yàn)


CoT能力

下圖是引入 CoT 能力前(原 Alpaca)后(Ours w/CoT)的表現(xiàn)對(duì)比:

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

可以看出,我們的模型不僅可以給出準(zhǔn)確的答案,而且還可以給出對(duì)應(yīng)的思考過(guò)程。

遵循中文指令的能力

下圖是引入遵循中文指令能力前后在中文指令上的表現(xiàn)對(duì)比:

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

其中 Alpaca 未使用任何中文指令數(shù)據(jù)集,Belle 在更多的中文指令數(shù)據(jù)集中微調(diào)關(guān)注 multiple-lingual 的大語(yǔ)言模型 BLOOM。

可以看出,原模型 Alpaca 在第一個(gè)例子中無(wú)法準(zhǔn)確識(shí)別中文指令,在第三個(gè)例子中無(wú)法用中文響應(yīng)中文指令。而我們的模型表現(xiàn)基本與 Belle 持平。后續(xù),我們將會(huì)引入更多中文指令數(shù)據(jù),同時(shí)我們的 repository 將分出一個(gè) branch 專(zhuān)門(mén)探究中文交互能力。

下圖是引入遵循中文指令能力前后在英文指令上的表現(xiàn)對(duì)比:

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

可以看出,在中文指令數(shù)據(jù)集上微調(diào)后,并不會(huì)對(duì)模型 follow 英文指令造成負(fù)面影響。

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

總結(jié)

在 LLM 上的 IFT 研究是一個(gè) impressive 的方向,其加速了復(fù)現(xiàn) ChatGPT 的進(jìn)程。然而,由于 instruction 數(shù)據(jù)集的開(kāi)源工作較少,大模型訓(xùn)練需要極高計(jì)算資源等原因,目前相關(guān)的研究仍處于起始階段,幾乎被 OpenAI、微軟、Google、Meta 等大公司壟斷。

我們的工作 Alpaca-CoT 在解決這兩個(gè)問(wèn)題上各邁出了一小步:基于 Alpaca-LoRA 的技術(shù)路線(單機(jī)可訓(xùn))將不同的 LLM 集成進(jìn)來(lái),以降低不同 LLM 的計(jì)算資源消耗,同時(shí)持續(xù)收集、統(tǒng)一格式化指令數(shù)據(jù),以搭建出更方便的多接口統(tǒng)一的研究平臺(tái)。歡迎大家在我們的平臺(tái)上進(jìn)行自己的研究,一起為加速?gòu)?fù)現(xiàn) ChatGPT 而努力!

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

參考文獻(xiàn)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

[1]. LLaMA: Open and Efficient Foundation Language Models https://arxiv.org/abs/2302.13971

[2]. Stanford Alpaca: An Instruction-following LLaMA model https://github.com/tatsu-lab/stanford_alpaca

[3]. Self-Instruct: Aligning Language Model with Self Generated Instructions https://arxiv.org/abs/2212.10560

[4]. LoRA: Low-Rank Adaptation of Large Language Models https://arxiv.org/pdf/2106.09685.pdf

[5].?ChatGLM: An Open Bilingual Dialogue Language Model https://github.com/THUDM/ChatGLM-6B

[6].?BLOOM: A 176B-Parameter Open-Access Multilingual Language Model https://arxiv.org/abs/2211.05100

[7]. FLAN: Scaling Instruction-Finetuned Language Models https://arxiv.org/abs/2210.11416

[8]. BELLE: Bloom-Enhanced Large Language model Engine https://github.com/LianjiaTech/BELLE

更多閱讀

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)

#投 稿?通 道#

?讓你的文字被更多人看到?

如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。

總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類(lèi)優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)術(shù)熱點(diǎn)剖析、科研心得競(jìng)賽經(jīng)驗(yàn)講解等。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。

???稿件基本要求:

? 文章確系個(gè)人原創(chuàng)作品,未曾在公開(kāi)渠道發(fā)表,如為其他平臺(tái)已發(fā)表或待發(fā)表的文章,請(qǐng)明確標(biāo)注?

? 稿件建議以?markdown?格式撰寫(xiě),文中配圖以附件形式發(fā)送,要求圖片清晰,無(wú)版權(quán)問(wèn)題

? PaperWeekly 尊重原作者署名權(quán),并將為每篇被采納的原創(chuàng)首發(fā)稿件,提供業(yè)內(nèi)具有競(jìng)爭(zhēng)力稿酬,具體依據(jù)文章閱讀量和文章質(zhì)量階梯制結(jié)算

???投稿通道:

? 投稿郵箱:hr@paperweekly.site?

? 來(lái)稿請(qǐng)備注即時(shí)聯(lián)系方式(微信),以便我們?cè)诟寮x用的第一時(shí)間聯(lián)系作者

? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿

△長(zhǎng)按添加PaperWeekly小編

??

現(xiàn)在,在「知乎」也能找到我們了

進(jìn)入知乎首頁(yè)搜索「PaperWeekly」

點(diǎn)擊「關(guān)注」訂閱我們的專(zhuān)欄吧

·

·

特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-443963.html

到了這里,關(guān)于特制自己的ChatGPT:多接口統(tǒng)一的輕量級(jí)LLM-IFT平臺(tái)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • IDEA中的輕量級(jí)接口請(qǐng)求工具 | HTTP Client 新手指南

    IDEA中的輕量級(jí)接口請(qǐng)求工具 | HTTP Client 新手指南

    新鈦云服已累計(jì)為您分享 706 篇技術(shù)干貨 一、 簡(jiǎn)介 HTTP Client 是 IDEA 自帶的一款簡(jiǎn)潔輕量級(jí)的接口調(diào)用插件,通過(guò)它,我們能在 IDEA 上開(kāi)發(fā),調(diào)試,測(cè)試 RESTful Web 服務(wù)。 二、 快速上手 1、 首先要確保 HTTP Client 插件是安裝啟動(dòng)的,默認(rèn)是已安裝啟動(dòng)的。若沒(méi)有安裝,在 File

    2024年02月03日
    瀏覽(24)
  • 自動(dòng)化篇 | 14 | 輕量級(jí)接口自動(dòng)化框架(jmeter+ant+jenkins)

    自動(dòng)化篇 | 14 | 輕量級(jí)接口自動(dòng)化框架(jmeter+ant+jenkins)

    下載地址: https://ant.apache.org/bindownload.cgi ANT_HOME C:Program Filesapache-ant-1.10.12 path C:ProgramFilesapache-ant-1.10.12bin classpath C:ProgramFilesapache-ant-1.10.12lib 具體如下: 輸入ant -v,進(jìn)行檢查 將j

    2023年04月27日
    瀏覽(35)
  • 在VSCode中使用LaTex+(grammarly語(yǔ)法檢測(cè),chatgpt翻譯,Sumatra PDF 輕量級(jí)pdf閱讀器)

    在VSCode中使用LaTex+(grammarly語(yǔ)法檢測(cè),chatgpt翻譯,Sumatra PDF 輕量級(jí)pdf閱讀器)

    整個(gè)文章分為以下幾個(gè)內(nèi)容,打 * 的是必須要安裝的 latex的下載安裝可參考:LaTex(2021)安裝教程 VSCode下載:VSCode官網(wǎng) VSCode的安裝非常簡(jiǎn)單,幾乎不需要什么操作 先把中文包下載下來(lái),重啟生效 下載 LaTex Workshop 下載完之后,在界面下按下 Ctrl+Shift+P,然后鍵入“setjson”,點(diǎn)

    2024年02月06日
    瀏覽(30)
  • 簡(jiǎn)單有趣的輕量級(jí)網(wǎng)絡(luò) Efficientnet(可以直接替換自己數(shù)據(jù)集)-直接放置自己的數(shù)據(jù)集就能直接跑。跑的代碼有問(wèn)題的可以在評(píng)論區(qū)(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細(xì)注釋代碼+核心思想講解)——pytorch實(shí)現(xiàn)

    簡(jiǎn)單有趣的輕量級(jí)網(wǎng)絡(luò) Efficientnet(可以直接替換自己數(shù)據(jù)集)-直接放置自己的數(shù)據(jù)集就能直接跑。跑的代碼有問(wèn)題的可以在評(píng)論區(qū)(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細(xì)注釋代碼+核心思想講解)——pytorch實(shí)現(xiàn)

    ? ? ? ? 這期博客我們來(lái)學(xué)習(xí)一下Efficientnet網(wǎng)絡(luò),屬于NAS系列中最優(yōu)秀的輕量級(jí)網(wǎng)絡(luò)之一,通過(guò)NAS搜索的方式確定最佳的網(wǎng)絡(luò)結(jié)構(gòu)。之前的神經(jīng)網(wǎng)絡(luò)的寬度深度,輸入圖像的分辨率,是怎么獲得的呢,說(shuō)白了就是經(jīng)驗(yàn),研究人員通過(guò)無(wú)數(shù)的設(shè)計(jì)經(jīng)驗(yàn)獲得的,但是網(wǎng)絡(luò)的發(fā)展不

    2024年04月26日
    瀏覽(36)
  • git輕量級(jí)服務(wù)器gogs、gitea,非輕量級(jí)gitbucket

    git輕量級(jí)服務(wù)器gogs、gitea,非輕量級(jí)gitbucket

    本文來(lái)源:git輕量級(jí)服務(wù)器gogs、gitea,非輕量級(jí)gitbucket, 或 gitcode/gogs,gitea.md 結(jié)論: gogs、gitea很相似 確實(shí)輕, gitbucket基于java 不輕, 這三者都不支持組織樹(shù)(嵌套組織 nested group) 只能一層組織。 個(gè)人用,基于gogs、gitea,兩層結(jié)構(gòu)樹(shù) 簡(jiǎn)易辦法: 把用戶當(dāng)成第一層節(jié)點(diǎn)、該用戶的

    2024年02月07日
    瀏覽(140)
  • 輕量靈動(dòng): 革新輕量級(jí)服務(wù)開(kāi)發(fā)

    輕量靈動(dòng): 革新輕量級(jí)服務(wù)開(kāi)發(fā)

    從 JDK 8 升級(jí)到 JDK 17 可以讓你的應(yīng)用程序受益于新的功能、性能改進(jìn)和安全增強(qiáng)。下面是一些 JDK 8 升級(jí)到 JDK 17 的最佳實(shí)戰(zhàn): 1.1、確定升級(jí)的必要性:首先,你需要評(píng)估你的應(yīng)用程序是否需要升級(jí)到 JDK 17。查看 JDK 17 的新特性、改進(jìn)和修復(fù)的 bug,以確定它們對(duì)你的應(yīng)用程序

    2024年02月07日
    瀏覽(99)
  • 輕量級(jí) HTTP 請(qǐng)求組件

    Apache HttpClient 是著名的 HTTP 客戶端請(qǐng)求工具——現(xiàn)在我們模擬它打造一套簡(jiǎn)單小巧的請(qǐng)求工具庫(kù), 封裝 Java 類(lèi)庫(kù)里面的 HttpURLConnection 對(duì)象來(lái)完成日常的 HTTP 請(qǐng)求,諸如 GET、HEAD、POST 等等,并嘗試應(yīng)用 Java 8 函數(shù)式風(fēng)格來(lái)制定 API。 組件源碼在:https://gitee.com/sp42_admin/ajaxjs/tr

    2024年02月01日
    瀏覽(100)
  • Kotlin 輕量級(jí)Android開(kāi)發(fā)

    Kotlin 輕量級(jí)Android開(kāi)發(fā)

    Kotlin 是一門(mén)運(yùn)行在 JVM 之上的語(yǔ)言。 它由 Jetbrains 創(chuàng)建,而 Jetbrains 則是諸多強(qiáng)大的工具(如知名的 Java IDE IntelliJ IDEA )背后的公司。 Kotlin 是一門(mén)非常簡(jiǎn)單的語(yǔ)言,其主要目標(biāo)之一就是提供強(qiáng)大語(yǔ)言的同時(shí)又保持簡(jiǎn)單且精簡(jiǎn)的語(yǔ)法。 其主要特性如下所示: 輕量級(jí):這一點(diǎn)對(duì)

    2024年02月07日
    瀏覽(903)
  • 108中超輕量級(jí)的加載動(dòng)畫(huà)!

    大家好,我是【程序視點(diǎn)】小二哥! 今天要上的菜不是 Animate.js,也不是 Move.js,而是能提供108種加載動(dòng)畫(huà)的庫(kù): Whirl . 話不多說(shuō),直接來(lái)看例子。 以上只是冰山一角。whirl的CSS加載動(dòng)畫(huà)集合中有108種選項(xiàng)供你挑選。選中喜歡的動(dòng)畫(huà)后,點(diǎn)擊“Grab the CSS on Github!”。 將跳轉(zhuǎn)到

    2024年02月03日
    瀏覽(94)
  • Tomcat輕量級(jí)服務(wù)器

    Tomcat輕量級(jí)服務(wù)器

    目錄 1.常見(jiàn)系統(tǒng)架構(gòu)? C-S架構(gòu) B-S架構(gòu) 2.B-S架構(gòu)系統(tǒng)的通信步驟 3.常見(jiàn)WEB服服務(wù)器軟件 4.Tomcat服務(wù)器的配置 下載安裝 環(huán)境變量配置 測(cè)試環(huán)境變量是否配置成功 測(cè)試Tomcat服務(wù)器是否配置成功? Tomcat窗口一閃而過(guò)的解決步驟 Tomcat解決亂碼 介紹: C-S架構(gòu)即Client/Server(客戶端/服務(wù)

    2023年04月14日
    瀏覽(102)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包