在下載huggingface 模型的時(shí)候,經(jīng)常會(huì)出現(xiàn)這個(gè)錯(cuò)誤,HTTPSConnectionPool(host=‘huggingface.co’, port=443),即使你已經(jīng)有了正確的上網(wǎng)姿勢(shì)。
如在下載Tokenizer的時(shí)候,
tokenizer = AutoTokenizer.from_pretrained("csebuetnlp/mT5_multilingual_XLSum")
就會(huì)出現(xiàn)以上的錯(cuò)誤HTTPSConnectionPool(host=‘huggingface.co‘, port=443)。
解決的辦法可以有兩種。
1.直接下載模型
第一種方式,你可以直接的huggingface 上,指定模型的Files and versions 進(jìn)行下載,全部下載完成以后,設(shè)置本地模型的路徑,就是下載以后放在本地的文件夾地址。
tokenizer = AutoTokenizer.from_pretrained("模型的本地路徑")
這樣模型加載的時(shí)候,就不會(huì)從網(wǎng)上進(jìn)行下載,而是直接用本地的模型。
2.降級(jí)requests和urllib3
如果不想手動(dòng)下載那么多的文件,可以把 requests 降到2.27.1,urllib3 降到1.25.11,當(dāng)然能下載的前提是你已經(jīng)有了正確的上網(wǎng)姿勢(shì)。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-713065.html
pip install requests==2.27.1
pip install urllib3==1.25.11
就可以看到,模型自己在下載了文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-713065.html
Downloading (…)okenizer_config.json: 100%|██████████| 375/375 [00:00<?, ?B/s]
Downloading (…)lve/main/config.json: 100%|██████████| 730/730 [00:00<?, ?B/s]
Downloading spiece.model: 100%|██████████| 4.31M/4.31M [00:03<00:00, 1.08MB/s]
Downloading (…)cial_tokens_map.json: 100%|██████████| 65.0/65.0 [00:00<00:00, 65.1kB/s]
到了這里,關(guān)于出現(xiàn)了HTTPSConnectionPool(host=‘huggingface.co‘, port=443)錯(cuò)誤的解決方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!