国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Windows 下 AMD顯卡訓練模型有救了:pytorch_directml 下運行Transformers

這篇具有很好參考價值的文章主要介紹了Windows 下 AMD顯卡訓練模型有救了:pytorch_directml 下運行Transformers。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Windows 下amd顯卡訓練transformer 模型。安裝方法參見 :?Windows下用amd顯卡訓練 : Pytorch-directml 重大升級,改為pytorch插件形式,兼容更好_amd顯卡 pytorch_znsoft的博客-CSDN博客?

import os
import imp
try:
    imp.find_module('torch_directml')
    found_directml = True
    import torch_directml
except ImportError:
    found_directml = False

import torch
from transformers import RobertaTokenizer, RobertaConfig, RobertaModel, RobertaForMaskedLM,pipeline

DIR="E:/transformers"
MODEL_NAME="microsoft/codebert-base"
from transformers import AutoTokenizer, AutoModel

if found_directml:
    device=torch_directml.device()
else:
    device=torch.device("cpu")

# tokenizer = AutoTokenizer.from_pretrained(DIR+os.sep+MODEL_NAME)
# model = AutoModel.from_pretrained(DIR+os.sep+MODEL_NAME).to(device)
# nl_tokens=tokenizer.tokenize("return maximum value")

# code_tokens=tokenizer.tokenize("def max(a,b): if a>b: return a else return b")

# tokens=[tokenizer.cls_token]+nl_tokens+[tokenizer.sep_token]+code_tokens+[tokenizer.eos_token]

# tokens_ids=tokenizer.convert_tokens_to_ids(tokens)
# tokens_ids=torch.tensor(tokens_ids)[None,:]
# tokens_ids.to(device)
# context_embeddings=model()[0]

# print(context_embeddings)



MODEL_NAME="microsoft/codebert-base-mlm"
model = RobertaForMaskedLM.from_pretrained(DIR+os.sep+MODEL_NAME)
tokenizer = RobertaTokenizer.from_pretrained(DIR+os.sep+MODEL_NAME)
model.to(device)
CODE = "if (x is not None) <mask> (x>1)"
code=tokenizer(CODE)
#.to(device)
input_ids=torch.tensor([code["input_ids"]]).to(device)
attention_mask=torch.tensor([code["attention_mask"]]).to(device)
for i in range(1000):
    out=model(input_ids=input_ids,attention_mask=attention_mask)
print(out)

注意,如果直接使用pipeline可能會有問題,應(yīng)該是pipeline不兼容導致的。只需要自己編寫具體代碼,避開pipeline即可。? amd GPU占用率能上去。文章來源地址http://www.zghlxwxcb.cn/news/detail-524704.html

到了這里,關(guān)于Windows 下 AMD顯卡訓練模型有救了:pytorch_directml 下運行Transformers的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • LLM-分布式訓練工具(一):DeepSpeed【微軟】【大模型分布式訓練工具,實現(xiàn)ZeRO并行訓練算法】【zero3配置將模型參數(shù)切分后分配到不同的顯卡中,突破單張顯卡容量不足以加載模型參數(shù)的限制】

    DeepSpeed是微軟推出的大規(guī)模模型分布式訓練的工具,主要實現(xiàn)了ZeRO并行訓練算法。 原始文檔鏈接: DeepSpeed Optimizer state partitioning (ZeRO stage 1) Gradient partitioning (ZeRO stage 2) Parameter partitioning (ZeRO stage 3) Custom mixed precision training handling A range of fast CUDA-extension-based optimizers ZeRO-Offlo

    2024年02月16日
    瀏覽(23)
  • 大模型落地實戰(zhàn)指南:從選擇到訓練,深度解析顯卡選型、模型訓練技、模型選擇巧及AI未來展望---打造AI應(yīng)用新篇章

    大模型落地實戰(zhàn)指南:從選擇到訓練,深度解析顯卡選型、模型訓練技、模型選擇巧及AI未來展望---打造AI應(yīng)用新篇章

    早期階段(1950s~1980s) 在1950年代初期,人們開始嘗試使用計算機處理自然語言文本。然而,由于當時的計算機處理能力非常有限,很難處理自然語言中的復(fù)雜語法和語義。隨著技術(shù)的發(fā)展,自然語言處理領(lǐng)域在20世紀60年代和70年代取得了一些重要的進展。例如,1970年,美國

    2024年04月09日
    瀏覽(21)
  • 【AMD顯卡電腦鼠標卡頓問題】

    【AMD顯卡電腦鼠標卡頓問題】

    今天弄來一張5600xt玩耍,裝好驅(qū)動22.11.2后,發(fā)現(xiàn)鼠標時不時會卡一下。 上網(wǎng)查資料,試了許多方法問題依舊。包括單不限于: 電源選項USB設(shè)置 2.禁用HDCP 嘗試無果后,突然想起USB2和3插孔可能有影響,看一下果然是插在2.0上了,換插3.0后測試許久再也沒出現(xiàn)卡頓。 問題解決

    2024年02月11日
    瀏覽(24)
  • ubuntu環(huán)境配置AMD顯卡驅(qū)動

    ubuntu環(huán)境配置AMD顯卡驅(qū)動

    本人買的AMD顯卡,最近要在ubuntu環(huán)境做python深度學習,所以必須折騰一番,結(jié)果發(fā)現(xiàn)還不復(fù)雜。本人的系統(tǒng)是Ubuntu 20.04.6,顯卡是RX6600,親測有效。 (0) 如果已經(jīng)配置了顯卡驅(qū)動但是沒有成功,或配置成功想更換版本,則先卸載原有的驅(qū)動,重新開始: (1) 在AMD官網(wǎng)下載需要的

    2024年02月05日
    瀏覽(42)
  • 【持續(xù)更新】1996-2023歷代AMD Radeon桌面顯卡列表,Radeon顯卡發(fā)布日期

    顯卡名稱 發(fā)行日期 工藝(nm) 核心頻率(Mhz) 顯存頻率 Rage 系列 3D Rage,1996/4/1,500,40,40 3D Rage II,1996/9/1,500,60,83 Rage Pro,1997/3/1,350,75,75 Rage XL,1998/8/1,250,83,125 Rage 128 VR,1998/8/1,250,80,120 Rage 128 GL,1998/8/1,250,103,103 Rage 128 Pro,1999/8/1,250,125,143 Rage 128 Ult

    2024年02月06日
    瀏覽(1066)
  • Win11怎么打開AMD顯卡控制面板

    Win11怎么打開AMD顯卡控制面板

    Win11怎么打開AMD顯卡控制面板?很多朋友使用的是AMD顯卡,大家想要進入AMD顯卡設(shè)置界面,通過某些設(shè)置讓游戲運行更加流暢,但是始終找不到AMD顯卡設(shè)置選項在哪里,今天就來詳細講講重裝系統(tǒng)的方法吧。 一般來說用戶可以在桌面點擊鼠標右鍵,然后點擊【顯示更多選項】

    2024年02月05日
    瀏覽(85)
  • 【深入了解pytorch】PyTorch訓練和評估模型

    在機器學習和深度學習領(lǐng)域,PyTorch是一個非常受歡迎的深度學習框架。它提供了靈活且強大的工具,使得訓練和評估模型變得更加容易。本文將介紹如何使用PyTorch來準備數(shù)據(jù)集、定義訓練循環(huán)、選擇優(yōu)化算法,并展示如何評估模型性能。 在開始訓練模型之前,我們首先需要

    2024年02月16日
    瀏覽(22)
  • pytorch完整模型訓練套路

    pytorch完整模型訓練套路

    本文以 CIFAR10數(shù)據(jù)集為例,介紹一個完整的模型訓練套路。 CIFAR-10數(shù)據(jù)集包含60000張32x32彩色圖像,分為10個類,每類6000張。有50000張訓練圖片和10000張測試圖片。 數(shù)據(jù)集分為五個訓練batches和一個測試batch,每個batch有10000張圖像。測試batch包含從每個類中隨機選擇的1000個圖像。

    2024年02月07日
    瀏覽(23)
  • Pytorch學習筆記(模型訓練)

    Pytorch學習筆記(模型訓練)

    在同一個包下創(chuàng)建 train.py 和 model.py ,按照步驟先從數(shù)據(jù)處理,模型架構(gòu)搭建,訓練測試,統(tǒng)計損失,如下面代碼所示 train.py model.py 運行 train.py 后可以通過啟動tensorboard進行查看我們的loss情況,損失是不斷下降的。 補充 argmax 函數(shù)的使用 我們模型預(yù)測處理的是概率,我們需

    2024年02月07日
    瀏覽(19)
  • AMD顯卡Ubuntu20.4系統(tǒng)下部署stable diffusion

    AMD顯卡Ubuntu20.4系統(tǒng)下部署stable diffusion

    今天來給大家做一個AMD顯卡使用stable diffusion的小白(硬核)教程。最近這段時間AI特別火,很多小伙伴看到各種大佬用AI畫的老婆非常精美(色情),弄的人心癢癢,自己也想畫一個心儀的老婆(畫作)。 太露骨的圖片不能放,你們懂得?。?但是很多小伙伴用的是AMD的獨立顯

    2024年02月03日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包