国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[linux] huggingface transformers 如何下載模型至本地 & git lfs install 報(bào)錯(cuò)

這篇具有很好參考價(jià)值的文章主要介紹了[linux] huggingface transformers 如何下載模型至本地 & git lfs install 報(bào)錯(cuò)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

bert-base-uncased at main

一、官方給出的命令:

# Make sure you have git-lfs installed (https://git-lfs.com)
git lfs install
git clone https://huggingface.co/bert-base-uncased



# if you want to clone without large files – just their pointers
# prepend your git clone with the following env var:
GIT_LFS_SKIP_SMUDGE=1

但是 git lfs install 的時(shí)候報(bào)錯(cuò)。

于是查了一下。。。。安裝lfs是要這樣:?

二、安裝 lfs

You can't directly use

git lfs install

Instead of that, you can use these commands to download and install (you have to download it before installing).

# for linux
# 如果報(bào)錯(cuò),則用 sudo apt-get update
sudo apt-get install git-lfs
git-lfs install
# for mac
brew install git-lfs
#用git-lfs install檢查是否正確安裝
git-lfs install

網(wǎng)絡(luò)不好mac報(bào)錯(cuò):重新安了一下brew install git-lfs。。

[linux] huggingface transformers 如何下載模型至本地 & git lfs install 報(bào)錯(cuò),linux,linux,git,github

三、?再用官方的命令下載。

如果失敗,則。。。可能是網(wǎng)絡(luò)太差。。。。

最終,我還是給?from_pretrained 套了循環(huán),來(lái)解決的。。。。。。。

如果不套循環(huán),會(huì)報(bào)錯(cuò) " requests.exceptions.ConnectionError: ('Connection aborted.', ConnectionResetError(104, 'Connection reset by peer'))" 。。。。。。。。。。。。。。。。。。。。。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-688167.html

class Trainer(object):
    def __init__(self, args, train_dataset=None, dev_dataset=None, test_dataset=None):
        self.args = args
        self.train_dataset = train_dataset
        self.dev_dataset = dev_dataset
        self.test_dataset = test_dataset

        self.intent_label_lst = get_intent_labels(args)
        self.slot_label_lst = get_slot_labels(args)
        # Use cross entropy ignore index as padding label id so that only real label ids contribute to the loss later
        self.pad_token_label_id = args.ignore_index

        self.config_class, self.model_class, _ = MODEL_CLASSES[args.model_type]
        #self.config = self.config_class.from_pretrained(args.model_name_or_path, finetuning_task=args.task, output_hidden_states=args.output_hidden_states)
        self.config = self.config_class.from_pretrained(args.model_name_or_path, finetuning_task=args.task)
        ################## [O.O]這是一個(gè)循環(huán),解決下不下來(lái)模型的問(wèn)題 #################
        nb_tries = 20
        while nb_tries>0:
            nb_tries -= 1
            try:
                self.model = self.model_class.from_pretrained(args.model_name_or_path,
                                                      config=self.config,
                                                      args=args,
                                                      intent_label_lst=self.intent_label_lst,
                                                      slot_label_lst=self.slot_label_lst)
                break
            except:
                time.sleep(0.1)
        #########################################################################
        # GPU or CPU
        self.device = "cuda" if torch.cuda.is_available() else "cpu"
        # self.device = "cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu"
        self.model.to(self.device)

到了這里,關(guān)于[linux] huggingface transformers 如何下載模型至本地 & git lfs install 報(bào)錯(cuò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【工程實(shí)踐】使用git clone 批量下載huggingface模型文件

    【工程實(shí)踐】使用git clone 批量下載huggingface模型文件

    ? ? ? ? 經(jīng)常需要下載模型到服務(wù)器,使用git clone方法可以快速實(shí)現(xiàn)模型下載。 ????????以下載moka-ai/m3e-base為例,切換到Files and versions。 ? ? ? ? 如上圖所示,當(dāng)前要下載模型網(wǎng)頁(yè)的url為: ? ? ? ? 只需要將url中的/tree/main改為git即可,更改后的命令如下所示: ?????

    2024年02月08日
    瀏覽(17)
  • huggingface學(xué)習(xí) | 云服務(wù)器使用git-lfs下載huggingface上的模型文件

    huggingface學(xué)習(xí) | 云服務(wù)器使用git-lfs下載huggingface上的模型文件

    huggingface官網(wǎng)鏈接:https://huggingface.co/ 以stable-diffusion-inpant為例:模型鏈接為stable-diffusion-inpant 點(diǎn)擊clone repository,可以發(fā)現(xiàn)提供了兩種下載方式,方式一為HTTPS,代碼如下,然而國(guó)內(nèi)使用代理訪問(wèn)的時(shí)候采用這種方式會(huì)報(bào)錯(cuò):Failed to connect to huggingface.co port 443 after 127293 ms: Cou

    2024年01月19日
    瀏覽(28)
  • centOs安裝git-lfs并下載huggingface模型

    hf模型都是用git-lfs托管的,可以直接git下載的,天才第一步: 1、安裝git-lfs 2、直接git clone 3、測(cè)試模型opt-1.3b

    2024年02月12日
    瀏覽(22)
  • 如何從huggingface官網(wǎng)下載模型

    如何從huggingface官網(wǎng)下載模型

    何從huggingface官網(wǎng)下載模型 操作步驟: 首先打開(kāi)huggingface官網(wǎng):https://huggingface.co/ 進(jìn)入官網(wǎng)之后,點(diǎn)擊“Models\\\",如下圖: ? 如果想要下載數(shù)據(jù)集,則同樣的操作方法,點(diǎn)擊”Datasets“. 進(jìn)入”Models“,之后,在搜索框,輸入想要download的模型名稱。本文示例是:bert-base-cased ? 找

    2024年02月11日
    瀏覽(22)
  • 【AI之路】使用Jan.ai在本地部署大模型開(kāi)啟AI對(duì)話(含通過(guò)huggingface下載大模型,實(shí)現(xiàn)大模型自由)

    【AI之路】使用Jan.ai在本地部署大模型開(kāi)啟AI對(duì)話(含通過(guò)huggingface下載大模型,實(shí)現(xiàn)大模型自由)

    2023年是AIGC元年。以后,每個(gè)人多少都會(huì)接觸到GPT帶來(lái)的變化。別人都在用,我們也不能落下。ChatGPT咱用不了,可以用國(guó)內(nèi)的各種大模型。另外,我們還可以把大模型放到本地電腦上運(yùn)行,不信?咱往下看! 使用Jan.ai在本地調(diào)用大模型進(jìn)行對(duì)話 下面就讓我們的主角登場(chǎng)。

    2024年02月02日
    瀏覽(34)
  • 通過(guò)clone的方式,下載huggingface中的大模型(git lfs install)

    通過(guò)clone的方式,下載huggingface中的大模型(git lfs install)

    1、如圖:可以手動(dòng)一個(gè)個(gè)文件下載,但是那樣太慢了,此時(shí),可以點(diǎn)擊下圖圈起來(lái)的地方。 2、點(diǎn)擊【Clone repository】,在命令行中,輸入【git lfs install】(安裝了這個(gè),才會(huì)下載大文件,不然圖中的.bin文件都是不會(huì)被下載的) 3、再git clone https://huggingface.co/THUDM/chatglm2-6b,在

    2024年02月10日
    瀏覽(25)
  • 如何優(yōu)雅地下載huggingface上模型,以llama2模型下載為例

    如何優(yōu)雅地下載huggingface上模型,以llama2模型下載為例

    由于llama2模型的下載需要經(jīng)過(guò)官方的授權(quán),這就需要登陸hugging face的,對(duì)模型頁(yè)面進(jìn)行申請(qǐng)。等待審核通過(guò)后,才能夠下載。如果在單純用 git lfs 的方式進(jìn)行下載,需要輸入賬號(hào)和密碼。為了更快速地進(jìn)行下載,既能夠設(shè)置密碼、也能夠設(shè)置代理,采用腳本的方式會(huì)更加合適

    2024年02月16日
    瀏覽(24)
  • huggingface transformers loadset 導(dǎo)入本地文件

    點(diǎn)擊查看 Huggingface詳細(xì)入門介紹之dataset庫(kù) json : 表示導(dǎo)入的本地文件是 json文件

    2024年02月11日
    瀏覽(20)
  • 【Linux】【chatGLM-6B】如何從huggingface上下載chatGLM-6B模型于centos系統(tǒng)

    【Linux】【chatGLM-6B】如何從huggingface上下載chatGLM-6B模型于centos系統(tǒng)

    從 https://github.com/git-lfs/git-lfs/releases 這個(gè)網(wǎng)址上選擇以下框框中的內(nèi)容進(jìn)行下載 tar -zxvf git-lfs-linux-amd64-v2.12.1.tar.gz sudo ./install.sh 輸入如下代碼開(kāi)始下載: git lfs clone https://huggingface.co/chatglm-6b 直接git clone下載的文件都特別小,不像是完整版的

    2024年02月12日
    瀏覽(23)
  • huggingface.co下載模型

    huggingface.co下載模型

    1、在測(cè)試clip-interrogator 發(fā)現(xiàn)BLIP CLIP模型需要離線加載,以下手工下載并指定路徑。 并運(yùn)行TRANSFORMERS_OFFLINE=1 python run.py, run.py如下 其他huggingface的模型處理方法可參考。 2、BLIP模型 根據(jù)Readme指引下載,存,指定路徑即可。 BLIP//pretrained/model_base_caption_capfilt_large.pth ?BLIP//pretrai

    2024年02月04日
    瀏覽(17)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包