顯卡驅(qū)動 cuda cudnn conda TensorRT安裝及配置
- 如果要使用
TensorRT
,請注意CUDA 支持的最高算力要大于等于GPU本身的算力, 可以先看3小節(jié) - conda和pip換源直接看2.3小節(jié)
- 本人已在ubuntu20.04下安裝成功。其他版本步驟應(yīng)該差不多
- 如果帖子有幫助,感謝一鍵三連,
^_^
- 部署有問題的小伙伴歡迎留言和加
Q
裙-472648720
- BEV各算法環(huán)境部署實戰(zhàn)匯總
1 顯卡驅(qū)動, cuda, cudnn
1.1 顯卡驅(qū)動下載
顯卡算力查詢
- 禁用
nouveau
核顯
- 安裝顯卡驅(qū)動必須禁用
nouveau
核顯,不然安裝顯卡驅(qū)動后會黑屏 - 不要更新內(nèi)核,更新內(nèi)核后不能用apt二進制安裝, 安裝前需要禁核顯
# 1 禁用nouveau
sudo vim /etc/modprobe.d/blacklist.conf
# 2 末尾添加下面2句代碼, 來禁用其他核顯
blacklist nouveau
options nouveau modeset=0
# 3 生效
sudo update-initramfs -u
# 4 查看是否生效,如果沒輸出就已經(jīng)生效,如果有輸出重啟在試試
lsmod | grep nouveau
- 安裝
- 安裝方法1
apt
二進制
# 查看可以安裝的驅(qū)動
sudo ubuntu-drivers devices
# 根據(jù)table補全選擇一個合適的
sudo apt install nvidia-drive-470
- 安裝方法2 官方下載安裝
更新過內(nèi)核驅(qū)動選擇此方法, 都需要提前禁nouveau
核顯
官方網(wǎng)站下載
按照自己顯卡型號下載linux版本就行
依賴
sudo apt install g++ make
安裝
sudo ./NVIDIA-Linux-x86_64-515.76.run
一直默認(rèn)就行,點enter就行
查看版本
nvidia-smi
終端輸出nvidia-smi
, 有顯卡信息即代表安裝成功
1.2 cuda安裝
1.下載
cuda下載
cuda版本和算力
-
6000顯卡算力
8.9
;cuda-12.0
支持的算力5.0 – 9.0
-
30系顯卡算力
8.6
;cuda-11.1 – 11.4
算力支持3.5-8.6
-
cuda-11.8 support for compute capability 3.5 – 9.0
-
下載地址, 下載11.3.0就行
可以鼠標(biāo)點擊下載,也可以使用wget
# cuda12.0
wget https://developer.download.nvidia.com/compute/cuda/12.0.0/local_installers/cuda_12.0.0_525.60.13_linux.run
# cuda11.3.0
wget https://developer.download.nvidia.com/compute/cuda/11.3.0/local_installers/cuda_11.3.0_465.19.01_linux.run
- 安裝
sudo sh cuda_11.3.1_465.19.01_linux.run
-
安裝時注意, 選擇continue ,然后輸入
accept
之后 只選擇cuda tookit
, 其他driver \文檔\ sample
等都不要安裝, 即把選項之前的X
按enter
去掉就行,最后選擇install
等待安裝完成就行。 -
安裝后會在
/usr/local/
下生成cuda
和cuda-11.3
目錄 ,cuda
是cuda-11.3
軟連接得到的,在本機有多個cuda
環(huán)境時,可以重新軟連接切換cuda
版本
- 添加環(huán)境變量
vim ~/.bashrc
# 在~/.bashrc文本加入下面2句
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
# 退出~/.bashrc, 生效
source ~/.bashrc
- 查看cuda版本
nvcc -V
-
出現(xiàn)nvcc版本信息表示安裝cuda成功
-
有的人
nvcc -V
沒有輸出,可能是因為環(huán)境變量沒有設(shè)置對,要確認(rèn)/usr/local
下是否含有cuda
和cuda-11.3
,有可能是cuda-11.x
, 第3步就換成對應(yīng)的,退出~/.bashrc
一定要source
1.3 cudnn
下載cudnn下載
選擇支持cuda11.x版本linux平臺的cudnn-8.6.0
,下載后解壓
# 8.2.1版本.tgz
tar -xf cudnn-11.3-linux-x64-v8.2.1.32.tgz
# 8.6.0版本.tar.xz
tar -xf cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz
解壓后得到的文件,拷貝到/usr/local/cuda-11.3/中
cp cuda/lib64/* /usr/local/cuda-11.3/lib64/
cp cuda/include/* /usr/local/cuda-11.3/include/
查看cudnn版本
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
cat /usr/local/cuda-11.3/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
上面2句結(jié)果都一樣,證明cudnn復(fù)制成功,并生效
CuBLAS CuBLAS查看版本,自己根據(jù)版本好修改
2 conda安裝
2.1 安裝
miniconda地址
anaconda地址
下載完后,先加權(quán)限,再運行安裝包
chmod +x Miniconda3-latest-Linux-x86_64.sh
sudo ./Miniconda3-latest-Linux-x86_64.sh
安裝一直yes就行,安裝路徑可以自己設(shè)定, 不懂就直接默認(rèn)即可
2.2 conda初始化設(shè)置
- 初始化conda
cd Miniconda3
./bin/conda init
2.3 conda和pip換源
- conda換源
- 終端中依次執(zhí)行5句代碼就ok
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/linux-64/
conda config --set show_channel_urls yes
- pip換源
創(chuàng)建一個~/.pip/pip.conf
文件,然后將下面的源地址添加進去
# 創(chuàng)建~/.pip/pip.conf文件
mkdir ~/.pip && vim ~/.pip/pip.conf
- 源地址。把下面代碼粘貼進
~/.pip/pip.conf
即可
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple/
2.4 torch安裝
torch版本和cuda版本對應(yīng)查詢
conda和pip換源后就可以安裝虛擬python環(huán)境了
- conda創(chuàng)建虛擬環(huán)境
# 創(chuàng)建一個名為lin,python環(huán)境為3.8的虛擬環(huán)境. 一直yes即可
conda create -n lin python=3.8
- 激活conda安裝torch等包
# 1 激活lin虛擬環(huán)境
conda activate lin
# 2 在lin虛擬環(huán)境中,使用pip安裝python包
pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https://download.pytorch.org/whl/cu113
3 TensorRT
tensorRT
下載, 需要注冊賬號
注冊后選擇登錄,以TensorRT8
為例子,選擇TensorRT8
,勾選下圖上的Agree
,選擇8.6GA
版本(GA
通用版,EA
搶先體驗版),和自己的ubuntu
版本和cuda
對應(yīng)上,我是ubuntu20.04-cuda11.3
選擇下圖紅框內(nèi)容,選擇tar
版本(已經(jīng)編譯好了)
-
c++
解壓就能用
tar -xf TensorRT-8.6.1.6.Linux.x86_64-gnu.cuda-11.8.tar.gz
-
python
版本的tensorrt
安裝,根據(jù)python
版本選擇,這里是python3.8
# 進入解壓后的tensorRT/python目錄
cd TensorRT-8.6.1.6/python
# 虛擬環(huán)境中安裝python3.8版本
pip install tensorrt-8.6.1.6-cp38-none-linux_x86_64.whl
自此,c++
版本和python
版本的tensorRT
已經(jīng)安裝完成。
-
TensorRT
部署時, 注意cuda
的算力和顯卡的算力
編譯c++
的時候會報錯**
nvcc fatal : Unsupported gpu architecture 'compute_89'
- 也就是說
CUDA
支持的最高算力要大于等于GPU
本身的算力
顯卡支持 89
的算力,而cuda
是11.3
只支持86
的算力
-
yolov5-v7
使用tensorRT
加速 -
ros
下完成lidar2cam
的點云上色、目標(biāo)檢測、測距代碼鏈接文章來源:http://www.zghlxwxcb.cn/news/detail-814231.html -
CMakeLists.txt
文件輸出相關(guān)庫的版本號文章來源地址http://www.zghlxwxcb.cn/news/detail-814231.html
MESSAGE("\n------------\n")
MESSAGE("----OPENCV VERSION: " ${OpenCV_VERSION})
MESSAGE("----PCL VERSION: " ${PCL_VERSION})
MESSAGE("----CUDA VERSION: " ${CUDA_VERSION})
message(STATUS " cuda-libraries: ${CUDA_LIBRARIES}")
message(STATUS " cuda-include path: ${CUDA_INCLUDE_DIRS}")
MESSAGE("----TensorRT VERSION: " ${TensorRT_FOUND})
message("\n---------------\n")
到了這里,關(guān)于ubuntu20.04顯卡驅(qū)動cuda cudnn conda TensorRT安裝及配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!