国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Ubuntu下nvidia-smi失敗,使用dkms解決

這篇具有很好參考價值的文章主要介紹了Ubuntu下nvidia-smi失敗,使用dkms解決。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Ubuntu下nvidia-smi失敗,使用dkms解決

錯誤信息

nvidia-smi顯示無法與驅(qū)動通訊

NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.

原因

一般來說是因為機器重啟linux內(nèi)核自動更新導(dǎo)致,可以嘗試回退內(nèi)核版本,或者使用dkms安裝該內(nèi)核下驅(qū)動配套的包,這里主要介紹使用dkms如何處理

解決步驟

查看已安裝的nvidia驅(qū)動版本
ls /usr/src | grep nvidia

顯示

nvidia-525.116.04

說明我電腦上nvidia驅(qū)動的版本是nvidia-525.116.04

安裝dkms和相關(guān)包

安裝dkms

sudo apt install dkms

安裝相關(guān)包(注意-v后更換成自己的nvidia版本)

sudo dkms install -m nvidia -v 525.116.04

重啟系統(tǒng),nvidia-smi成功輸出!文章來源地址http://www.zghlxwxcb.cn/news/detail-638974.html

到了這里,關(guān)于Ubuntu下nvidia-smi失敗,使用dkms解決的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • ubuntu20.04裝顯卡驅(qū)動nvidia-smi顯示成功的血淚史

    ubuntu20.04裝顯卡驅(qū)動nvidia-smi顯示成功的血淚史

    注意這只是我個人在安裝驅(qū)動過程中踩過的坑,不要直接照著我的方法裝 在csnd上看了許多教程,最終選擇直接命令行輸入 ubuntu-drivers devices 可以看到推薦的版本是525 于是執(zhí)行sudo apt install nvidia-driver-525(好像這一步執(zhí)行完后沒有報錯) 打開軟件更新看到 ?然后我就根據(jù)網(wǎng)上

    2023年04月15日
    瀏覽(24)
  • ubuntu服務(wù)器關(guān)機重新開機之后nvidia-smi不顯示但nvcc -C沒問題

    ubuntu服務(wù)器關(guān)機重新開機之后nvidia-smi不顯示但nvcc -C沒問題

    安裝stable diffusion webui過程中發(fā)現(xiàn)的問題。 出現(xiàn)報錯: AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check 然后來看nvidia-smi 的時候發(fā)現(xiàn)驅(qū)動掛了 1. nvcc -V,查看cuda是可以看到的 說明之前至少安裝cuda的時候沒掛,應(yīng)該是服務(wù)器啟動的

    2024年02月12日
    瀏覽(23)
  • 【已解決】nvidia-smi不顯示正在使用GPU的進程

    【已解決】nvidia-smi不顯示正在使用GPU的進程

    環(huán)境: 遠程服務(wù)器Ubuntu20.04 CUDA 11.6 現(xiàn)象:在日志文件和終端均顯示Python腳本已使用了GPU 但是 nvidia-smi 中的 Processes 進程無顯示 首先,可以看到 GPU顯存被占用,換言之有實例在正常使用GPU,表明不是硬件、顯卡驅(qū)動等問題。 檢查Pytorch是否正確配置 證明也不是Pytorch的問題 接

    2024年01月25日
    瀏覽(23)
  • 沒有NVIDIA控制面板,在cmd中使用nvidia-smi命令不顯示CUDA Version的解決方案

    沒有NVIDIA控制面板,在cmd中使用nvidia-smi命令不顯示CUDA Version的解決方案

    Environment_set 沒有NVIDIA控制面板,在cmd中使用nvidia-smi命令不顯示CUDA Version 先在控制面板中查看是否被隱藏了,查看方式選擇:小圖標 這里若沒有NVIDIA控制面板,而NVIDIA驅(qū)動已安裝,則可能是缺少組件:NVIDIA control panel,可以單獨下載,推薦更新NVIDIA驅(qū)動,直接安裝適合本電腦

    2024年02月06日
    瀏覽(25)
  • nvidia-smi報錯(已解決):NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因分析

    nvidia-smi報錯(已解決):NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因分析

    基本是follow下面教程修復(fù)的 nvidia-smi報錯:NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因及避坑解決方案_打拳的土豆的博客-CSDN博客 1 背景分析: 可能是由于斷電重啟造成的 當(dāng)再次跑實驗時,發(fā)現(xiàn)cuda不可用,于是輸入“nvidia-smi”才發(fā)現(xiàn)了一個錯誤,如下:

    2024年02月09日
    瀏覽(48)
  • 【nvidia-smi:command not found】如何在集群服務(wù)器上使用nvidia-smi查看GPU信息

    【nvidia-smi:command not found】如何在集群服務(wù)器上使用nvidia-smi查看GPU信息

    1. nvidia-smi指令輸出分析 對于普通的多卡服務(wù)器,nvidia-smi命令可以顯示有關(guān) NVIDIA 顯卡和 GPU 的詳細信息,如輸入 得到以下輸出,可以看到相應(yīng)的CUDA版本,GPU顯存大小等信息。 2. 集群上使用nvidia-smi指令 如果登錄了服務(wù)器后,直接在命令行中輸入nvidia-smi,會有如下報錯: b

    2024年02月10日
    瀏覽(34)
  • Linux | nvidia-smi 命令使用記錄

    Linux | nvidia-smi 命令使用記錄

    參考文章鏈接:https://blog.csdn.net/weixin_44966641/article/details/121228579 nvidia smi(也稱為NVSMI)為來自 Fermi 和更高體系結(jié)構(gòu)系列的 nvidia Tesla、Quadro、GRID 和 GeForce 設(shè)備提供監(jiān)控和管理功能。GeForce Titan系列設(shè)備支持大多數(shù)功能,為GeForce品牌的其余部分提供的信息非常有限。NVSMI是一種

    2024年02月02日
    瀏覽(18)
  • docker內(nèi)部執(zhí)行nvidia-smi無任何顯示的解決方法

    docker內(nèi)部執(zhí)行nvidia-smi無任何顯示的解決方法

    賀志國 2023.4.11 今天在Docker內(nèi)部編譯程序,發(fā)現(xiàn)與 CUDA 相關(guān)的代碼居然沒有編譯,于是在Docker內(nèi)部執(zhí)行Nvidia顯卡驅(qū)動檢測命令 nvidia-smi ,執(zhí)行完畢后,無任何輸出,也沒有任何報錯信息,但在Docker外部執(zhí)行該命令,結(jié)果如下圖所示,沒有任何異常: 最開始我以為是Docker啟動有

    2024年02月07日
    瀏覽(60)
  • 【已解決】nvidia-smi報錯:NVIDIA-SMI has failed because it couldn’t communicate with the ... 阿里云GPU服務(wù)器

    如題,起因是在阿里云GPU服務(wù)器上,使用原先正常運行的鏡像生成了容器,但容器的顯卡驅(qū)動出問題了,使用nvidia-smi命令會報錯 NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver. 嘗試使用官網(wǎng).run文件重新安裝顯卡驅(qū)動會報錯ERROR: Unable to load the kernel module ‘nvidia

    2024年02月11日
    瀏覽(24)
  • nvidia/cuda doker容器使用nvidia-smi不能找到命令

    參考資料 NVIDIA官方安裝文檔 CSDN博客 運行環(huán)境 wsl子系統(tǒng)Ubuntu 20.04 docker19.03以上 問題:使用docker pull nvidia/cuda:11.4.2-cudnn8-runtime-rockylinux8 在容器中使用nVidia-smi 出現(xiàn)命令無法找到的問題 百度好久,看了幾篇文章,最后發(fā)現(xiàn)運行cuda的容器不支持調(diào)用主機的顯卡,需要下載nvidia-

    2023年04月08日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包