国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

這篇具有很好參考價(jià)值的文章主要介紹了幸福的煩惱:顯卡算力太高而pytorch版本太低不支持。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_70.)
前些天發(fā)現(xiàn)了一個(gè)出色的人工智能學(xué)習(xí)網(wǎng)站。它的內(nèi)容不僅深入淺出、易于理解,還充滿了趣味性和幽默感,我覺得這對(duì)于喜歡探索新知識(shí)的朋友們來說會(huì)是一個(gè)不錯(cuò)的資源。
如果你對(duì)人工智能感興趣,不妨 點(diǎn)擊查看,看看能否為你的學(xué)習(xí)之旅增添一些樂趣和啟發(fā)。

寫在最前面

表面上是pytorch版本不夠,實(shí)際是pytorch所依賴的cuda版本不夠
幸福的煩惱:顯卡算力太高而pytorch版本太低不支持
幸福的煩惱:顯卡算力太高而pytorch版本太低不支持
總結(jié):給RTX 3090配置cuda11以上版本即可

項(xiàng)目場(chǎng)景:

環(huán)境
RTX 3090 + linux
配置
torch-1.10.0 torchtext-0.11.0
cuda11.8


問題描述

UserWarning:
帶有CUDA能力sm_86的NVIDIA GeForce RTX 3090與當(dāng)前的PyTorch安裝不兼容。
當(dāng)前的PyTorch安裝支持CUDA功能sm_37 sm_50 sm_60 sm_70。
如果您想在PyTorch中使用NVIDIA GeForce RTX 3090 GPU,請(qǐng)查看https://pytorch.org/get-started/locally/的說明

UserWarning: 
NVIDIA GeForce RTX 3090 with CUDA capability sm_86 is not compatible with the current PyTorch installation.
The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_70.
If you want to use the NVIDIA GeForce RTX 3090 GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/

原因分析:

參考:https://blog.csdn.net/Paramagnetism/article/details/115221478

幸福的煩惱
CUDA capability sm_86:算力8.6
上面表面上是說PyTorch,實(shí)際上是PyTorch依賴的CUDA版本的問題
翻譯一下就是:RTX 3090的算力是8.6,但是當(dāng)前的PyTorch依賴的CUDA版本支持的算力只有3.7、5.0、6.0、7.0

算力7.0的顯卡可以在支持最高算力7.5的CUDA版本下運(yùn)行,但是算力7.5的顯卡不可以在支持最高算力7.0的CUDA版本下運(yùn)行
同理算力8.x的顯卡不可以在支持最高算力7.x的CUDA版本下運(yùn)行


解決方案:

參考:https://blog.csdn.net/weixin_41529093/article/details/122039547

查看gpu的算力(即nvidia的算力)

nvidia-smi
nvidia-smi -a

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持nvidia官網(wǎng)的算力查詢
https://developer.nvidia.cn/zh-cn/cuda-gpus

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

查看pytorch版本&支持的cuda算力

>>> import torch
>>> print(torch.__version__)

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

python
import torch
torch.cuda.get_arch_list()

[‘sm_37’, ‘sm_50’, ‘sm_60’, ‘sm_70’]
幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

查看cuda版本

nvcc _V

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

查看對(duì)應(yīng)版本

pytorch官網(wǎng)
https://pytorch.org/get-started/previous-versions/

上pytorch官網(wǎng)查看(安裝)最新版本的cuda以及對(duì)應(yīng)的pytorch

幸福的煩惱:顯卡算力太高而pytorch版本太低不支持

# CUDA 11.3
conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3 -c pytorch -c conda-forge

在現(xiàn)有conda下安裝報(bào)錯(cuò)

因此新建環(huán)境

conda create -n wyt_1.10 python==3.8

進(jìn)入到環(huán)境下

conda activate wyt_1.10

然后安裝,還是報(bào)錯(cuò)
換成pip版本

pip install torch==1.10.0+cu111 torchvision==0.11.0+cu111 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html

成功了

查看支持算力
幸福的煩惱:顯卡算力太高而pytorch版本太低不支持文章來源地址http://www.zghlxwxcb.cn/news/detail-424336.html

到了這里,關(guān)于幸福的煩惱:顯卡算力太高而pytorch版本太低不支持的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 如何查詢顯卡算力

    如何查詢顯卡算力

    一般在 C:Program FilesNVIDIA GPU Computing ToolkitCUDAv11.6extrasdemo_suite 這個(gè)目錄 注意: 1.V后面的數(shù)字表示版本,請(qǐng)根據(jù)自己的版本進(jìn)行更改 2.此目錄為我的安裝目錄,如果不是默認(rèn)的安裝目錄,則根據(jù)自己的安裝情況進(jìn)行更改 一般右鍵有個(gè)打開終端,沒有只能cmd用cd導(dǎo)入了 運(yùn)行命

    2024年02月14日
    瀏覽(19)
  • 支持CUDA運(yùn)算的顯卡算力表

    GPUs supported Supported CUDA level of GPU and card. CUDA SDK 1.0 support for compute capability 1.0 – 1.1 (Tesla CUDA SDK 1.1 support for compute capability 1.0 – 1.1+x (Tesla) CUDA SDK 2.0 support for compute capability 1.0 – 1.1+x (Tesla) CUDA SDK 2.1 – 2.3.1 support for compute capability 1.0 – 1.3 (Tesla) CUDA SDK 3.0 – 3.1 support for compu

    2023年04月21日
    瀏覽(24)
  • 【20230407】NVIDIA顯卡算力、Jetson比較

    【20230407】NVIDIA顯卡算力、Jetson比較

    TOPS :指的是每秒鐘可以執(zhí)行的整數(shù)運(yùn)算次數(shù),它代表著計(jì)算機(jī)在處理圖像、音頻等任務(wù)時(shí)的處理能力。TOPS的單位是萬億次每秒(trillion operations per second)。一般是指整數(shù)運(yùn)算能力 INT8 。 TFLOPS :指的是每秒鐘可以執(zhí)行的浮點(diǎn)運(yùn)算次數(shù),它代表著計(jì)算機(jī)在處理科學(xué)計(jì)算、機(jī)器

    2024年02月05日
    瀏覽(20)
  • 最新NVIDIA英偉達(dá)GPU顯卡算力表

    隨著深度學(xué)習(xí)的火熱, 顯卡也變得越來越重要. 而我們?cè)诎惭b各種各樣的適配顯卡的軟件工具時(shí), 都會(huì)提到一個(gè)顯卡算力的概念. 這里的顯卡算力指的并不是顯卡的計(jì)算能力, 而是指的顯卡的架構(gòu)版本. NVIDIA Data Center Products GPU Compute Capability NVIDIA A100 8.0 NVIDIA A40 8.6 NVIDIA A30 8.0 NV

    2024年02月05日
    瀏覽(18)
  • 【npm run serve報(bào)錯(cuò)問題node.js版本太高】

    提示:這里描述項(xiàng)目中遇到的問題: npm run serve出現(xiàn)下面的報(bào)錯(cuò)問題 提示:這里填寫該問題的具體解決方案: 1、方法一: 在命令行修改環(huán)境變量: $env:NODE_OPTIONS=\\\"--openssl-legacy-provider\\\" 在啟動(dòng)項(xiàng)目: yarn start 2、方法二: 使用nvm將node修改為不高于16的版本

    2024年01月18日
    瀏覽(37)
  • AutoDL服務(wù)器的鏡像版本太高,配置python3.7 tensorflow1.15版本的框架的步驟

    AutoDL服務(wù)器的鏡像版本太高,配置python3.7 tensorflow1.15版本的框架的步驟

    1.選擇一個(gè)實(shí)例,進(jìn)入后端界面 2. 更新bashrc中的環(huán)境變量 查看虛擬環(huán)境 可以看到此時(shí)有一個(gè)base的虛擬環(huán)境 但是它的python版本為3.8.10,無法安裝tensorflow1.15,所以我們要?jiǎng)?chuàng)建一個(gè)新的虛擬環(huán)境。 3.創(chuàng)建新的虛擬環(huán)境 python 3.7 舊版 TensorFlow 對(duì)于 1.15 及更早版本,CPU 和 GPU 軟件包是

    2024年02月13日
    瀏覽(24)
  • 關(guān)于selenium, 你還在因?yàn)閏hromedriver的版本與Chrome的版本不一致,需要手動(dòng)更新chromedriver而煩惱嗎?

    關(guān)于selenium, 你還在因?yàn)閏hromedriver的版本與Chrome的版本不一致,需要手動(dòng)更新chromedriver而煩惱嗎?

    平時(shí)做爬蟲我比較喜歡用 selenium chrome ,一直困擾我一個(gè)問題,就是只要谷歌瀏覽器更新了,就要重新去下載對(duì)應(yīng)版本的 chromedriver_win32 ,這讓我十分煩惱 比如我的谷歌瀏覽器已經(jīng)94版本了,但是 chromedriver_win32 還停留在92版本,就會(huì)報(bào)出下面的錯(cuò)誤 selenium.common.exceptions.SessionN

    2024年02月12日
    瀏覽(19)
  • ubuntu20.0.4安裝opencv4.2.0和opencv_contrib-4.2.0并支持CUDA,Geforce RTX 3060顯卡,算力8.6

    ubuntu20.0.4安裝opencv4.2.0和opencv_contrib-4.2.0并支持CUDA,Geforce RTX 3060顯卡,算力8.6

    參考:Ubuntu系統(tǒng)---配置OpenCV? 1、首先更新 apt-get,在安裝前最好先更新一下系統(tǒng),不然有可能會(huì)安裝失敗。在終端輸入: 2、接著安裝官方給的opencv依賴包,在終端輸入: OpenCV3.4.x版本+Opencv_contrib+Ubuntu16.04安裝記錄_YuYunTan的博客-CSDN博客 安裝前的必備包 ??這些安裝不算十分完

    2024年02月01日
    瀏覽(23)
  • 【pytorch】深度學(xué)習(xí)所需算力估算:flops及模型參數(shù)量

    確定神經(jīng)網(wǎng)絡(luò)推理需要的運(yùn)算能力需要考慮以下幾個(gè)因素: 網(wǎng)絡(luò)結(jié)構(gòu):神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度直接影響運(yùn)算能力的需求。一般來說,深度網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)需要更多的計(jì)算能力。 輸入數(shù)據(jù)大小和數(shù)據(jù)類型:輸入數(shù)據(jù)的大小和數(shù)據(jù)類型直接影響到每層神經(jīng)網(wǎng)絡(luò)的計(jì)算量和存儲(chǔ)需

    2024年02月04日
    瀏覽(19)
  • Lnton羚通云算力平臺(tái)【PyTorch】教程:torch.nn.SiLU

    Lnton羚通云算力平臺(tái)【PyTorch】教程:torch.nn.SiLU

    原型 CLASS torch.nn.SiLU(inplace=False) ? torch.nn.SiLU 是 PyTorch 深度學(xué)習(xí)框架中的一個(gè)激活函數(shù),它代表 Sigmoid-Weighted Linear Unit(SiLU),也稱為 Swish 激活函數(shù)。SiLU 激活函數(shù)在深度學(xué)習(xí)中被廣泛使用,因?yàn)樗谟?jì)算復(fù)雜度相對(duì)較低的情況下,在某些任務(wù)上比常用的激活函數(shù)(如 ReLU)具

    2024年02月11日
    瀏覽(14)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包