歡迎使用GPU版docker安裝使用說明
使用官方教程安裝docker
導入源倉庫的GPG key
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
將 Docker APT 軟件源添加到你的系統(tǒng)
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
安裝命令如下:
curl -fsSL https://test.docker.com -o test-docker.sh
sudo sh test-docker.sh
驗證安裝過程,查看安裝的docker 版本,如果返回docker 版本,證明安裝成功
docker -v
新建一個GPU版docker環(huán)境
在 Docker 中尋找專為深度學習和 GPU 計算準備的基礎(chǔ)鏡像,通常您會使用 Docker Hub,這是 Docker 的官方鏡像倉庫,包含了大量的社區(qū)和官方維護的鏡像。對于深度學習和 GPU 計算,有幾個關(guān)鍵的鏡像資源您可以利用:
官方深度學習框架鏡像:比如 PyTorch 和 TensorFlow 的官方鏡像通常已經(jīng)配置了適合深度學習的環(huán)境。在 Docker Hub 上搜索 pytorch/pytorch 或 tensorflow/tensorflow。
要查找這些鏡像,您可以在 Docker Hub 的搜索欄中輸入關(guān)鍵字,比如 “CUDA”、“PyTorch” 或 “TensorFlow”。選擇鏡像時,請注意鏡像的標簽,這些標簽表示了不同版本的 CUDA 或深度學習框架。
例如,為了找到適合 PyTorch 和 CUDA 的鏡像,您可以在 Docker Hub 上搜索 pytorch/pytorch,然后選擇一個標簽,比如 1.7.1-cuda11.0-cudnn8-runtime,這個標簽意味著這個鏡像包含了 PyTorch 1.7.1,CUDA 11.0 和 cuDNN 8。
一旦找到合適的鏡像,您可以使用 docker pull 命令來下載它,例如:
docker pull nvidia/cuda:11.1-base
或
docker pull pytorch/pytorch:1.7.1-cuda11.0-cudnn8-runtime
測試 GPU 訪問,要測試 Docker 是否可以訪問 GPU,您可以運行一個帶有 CUDA 支持的測試鏡像,例如:
docker run --gpus all nvidia/cuda:10.0-base nvidia-smi
docker: Error response from daemon: could not select device driver “” with capabilities: [[gpu]].
ERRO[0000] error waiting for container: context canceled
表明 Docker 無法識別或使用 GPU。這通常是因為您的系統(tǒng)缺少所需的 NVIDIA 容器運行時或相應的配置不正確。以下是解決這個問題的幾個步驟:
1、安裝 NVIDIA Docker 插件
如果您正在使用 Docker 19.03 或更早的版本,您需要安裝 nvidia-docker2。對于 Docker 19.03 及以后的版本,雖然有了原生的 GPU 支持,但您仍然需要 NVIDIA 容器工具包。
2、添加 NVIDIA 容器庫:
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
3、安裝 NVIDIA Docker:
sudo apt-get update
sudo apt-get install -y nvidia-docker2
4、重啟 Docker 服務:
sudo systemctl restart docker
5、 驗證 NVIDIA Docker 安裝
運行以下命令來驗證 NVIDIA Docker 是否正確安裝:
docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi
出現(xiàn)如下界面表明容器可成功調(diào)用本地GPU,之后就是配置容器需要的代碼插件。
調(diào)用docker環(huán)境執(zhí)行本地python文件
1、定位您的 Python 文件:
確定您要執(zhí)行的 Python 文件的路徑。例如,假設(shè)您的文件位于 /path/to/your/script.py。
2、選擇或創(chuàng)建 Docker 鏡像:
確保您有一個包含所需 Python 版本和依賴庫的 Docker 鏡像。假設(shè)您使用的是 liqiang12689/laconda:v1 鏡像。
3、運行 Docker 容器并掛載文件:
使用 Docker 的 -v 參數(shù)將本地文件或目錄掛載到容器中。以下命令將本地目錄 /path/to/your 掛載到容器的 /app 目錄,并以交互模式啟動容器:
docker run -it -v /path/to/your:/app liqiang12689/laconda:v1 /bin/bash
這樣,容器內(nèi)的 /app 目錄現(xiàn)在包含您的 Python 文件。
4、在容器內(nèi)執(zhí)行 Python 文件:
容器啟動后,您將進入其命令行界面。切換到掛載的目錄:
cd /app
5、然后,使用 Python 運行您的腳本:
python script.py # 或 python3 script.py,取決于您的 Python 版本
這將執(zhí)行您的本地 Python 腳本 script.py。
6、退出容器:
完成后,您可以通過輸入 exit 或按 Ctrl+D 退出容器。文章來源:http://www.zghlxwxcb.cn/news/detail-783288.html
請記住,如果您的 Python 腳本有任何外部依賴或特定的環(huán)境需求,您需要確保這些依賴在 Docker 鏡像中可用。您可能需要創(chuàng)建一個自定義 Docker 鏡像,其中包含您的代碼依賴項,或者在運行容器之前手動安裝它們。文章來源地址http://www.zghlxwxcb.cn/news/detail-783288.html
到了這里,關(guān)于從頭安裝與使用一個docker GPU環(huán)境的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!