国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Windows下Python+PyCharm+miniconda+Cuda/GPU 安裝步驟

這篇具有很好參考價值的文章主要介紹了Windows下Python+PyCharm+miniconda+Cuda/GPU 安裝步驟。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 官網(wǎng)安裝Python 3.9

Python Release Python 3.9.0 | Python.org

2. 安裝pycharm

https://download.jetbrains.com/python/pycharm-professional-2023.3.2.exe

3. 安裝miniconda

Miniconda — miniconda documentation

4. 安裝完miniconda 創(chuàng)建虛擬環(huán)境

conda create -n wave2 python=3.9

conda activate wave2

6. 安裝依賴包

pip install numpy

pip show numpy

顯示c:\users\xx\.conda\envs\wave2\lib\site-packages

7. Python安裝cuda 參考資料

Python+PyCharm+PyTorch+Cuda/GPU 安裝步驟_python 中使用pycharam 使安裝cuda-CSDN博客

nvidia-smi

有Nvidia顯卡,想用GPU跑程序時

先查版本!
(1) 確定顯卡支持的cuda版本
在cmd命令行中輸入命令:“nvidia-smi”回車(如提示命令不可用,可先執(zhí)行命令:cd C:\Program Files\NVIDIA Corporation\NVSMI)

NVIDIA-SMI 546.01 ? ? ? ? ? ? ? ?

Driver Version: 546.01 ? ? ?

CUDA Version: 12.3

Windows下Python+PyCharm+miniconda+Cuda/GPU 安裝步驟,linux,運維,服務(wù)器文章來源地址http://www.zghlxwxcb.cn/news/detail-783493.html

import torch
import time

def simulate_gpu_load_torch(usage_percentage, duration):
    # 檢查是否有可用的GPU,如果沒有,將使用CPU
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

    # 模擬 GPU 計算任務(wù)
    data = torch.rand((1000, 1000), device=device)
    result = torch.matmul(data, data)

    # 控制 GPU 使用率
    busy_time = duration * (usage_percentage / 100)
    idle_time = duration - busy_time
    start_time = time.time()

    while (time.time() - start_time) < duration:
        result = torch.matmul(data, data)
        time.sleep(busy_time)

        # 空閑時間不進行計算
        time.sleep(idle_time)

# 控制 GPU 使用率為50%,持續(xù)10秒
simulate_gpu_load_torch(50, 10)
from ast import Break
import torch
import torch.nn as nn
import os
torch.backends.cudnn.benchmark = False  # 關(guān)閉 CuDNN 的 benchmark 模式
torch.backends.cudnn.deterministic = True  # 開啟 deterministic 模式
torch.cuda.empty_cache()  # 清理未使用的 GPU 內(nèi)存

# 設(shè)置設(shè)備
device = torch.device('cuda') 
global memory_used
# 模型
# model = nn.Sequential(
#   nn.Linear(1024, 2048),
#   nn.ReLU(),
#   nn.Linear(2048, 4096),  # 更多神經(jīng)元
#   nn.ReLU(),
#   nn.Linear(4096, 8192),  # 更多神經(jīng)元
#   nn.ReLU(),
#   nn.Linear(8192, 4096),  # 更多神經(jīng)元
#   nn.ReLU(),
#   nn.Linear(4096, 2048),  # 更多神經(jīng)元
#   nn.ReLU(),
#   nn.Linear(2048, 1024)
# ).to(device)
model = nn.Sequential(
  nn.Linear(1024, 512),
  nn.ReLU(),
  nn.Linear(512, 1024),
  nn.ReLU(),
  nn.Linear(1024, 2048),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(2048, 1024),  # 更多神經(jīng)元
  nn.ReLU(),
  nn.Linear(1024, 512),
  nn.ReLU(),
  nn.Linear(512, 1024)
).to(device)
# 優(yōu)化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)

# 設(shè)置最大內(nèi)存
max_memory = 4 * 1024 * 1024 * 1024
#max_memory = 4096
# 初始參數(shù)
batch_size = 1024
# batch_size =512
memory_used = 0
#torch.cuda.empty_cache()  # 關(guān)閉內(nèi)存回收
#while memory_used < max_memory:
totalmemory_used =0 
while True:
  # 生成數(shù)據(jù)
  #count +=1
  #inputs = torch.rand(batch_size, 1024).to(device)
  inputs = torch.rand(batch_size, 1024).to(device)
  # 前向傳播  
  outputs = model(inputs)

  # 反向傳播和優(yōu)化
  loss = outputs.mean()
  loss.backward()
  optimizer.step()
  device = torch.device('cuda')  # 或者 'cuda:0',如果有多個GPU

  # 獲取當(dāng)前GPU的顯存占用量
  memory_used = torch.cuda.memory_allocated(device)

  # 將字節(jié)轉(zhuǎn)換為兆字節(jié)(MB)
  memory_used_mb = memory_used / (1024 * 1024)
  totalmemory_used += memory_used_mb
  print(totalmemory_used)

  torch.cuda.empty_cache()

  # if count == 10:
  #   break
  # 更新內(nèi)存和batchsize
  #memory_used += 1024 * 1024 * 1024
  # if int(torch.cuda.memory_allocated(device)) >= max_memory:
  #   break
  os.system('nvidia-smi')
  #if totalmemory_used > 4096:
  #  break
  #batch_size += 1024
  

到了這里,關(guān)于Windows下Python+PyCharm+miniconda+Cuda/GPU 安裝步驟的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Windows安裝tensorflow-gpu(1050Ti,cuda11.6,cuDNN7.6.5,python3.6,tensorflow-gpu2.3.0)

    Windows安裝tensorflow-gpu(1050Ti,cuda11.6,cuDNN7.6.5,python3.6,tensorflow-gpu2.3.0)

    參考:https://blog.csdn.net/qq_43215538/article/details/123852028 首先查看本機GPU對應(yīng)的cuda版本,如下圖所示,本機cuda版本為11.6,后面選擇的cuda版本不要超過這里的版本就好。 https://developer.nvidia.com/cuda-toolkit-archive選擇相應(yīng)的cudatoolkit版本下載,如這里選擇版本一定要注意,因為cuda版本

    2023年04月08日
    瀏覽(26)
  • windows10系統(tǒng)PYthon深度學(xué)習(xí)環(huán)境安裝(Anaconda3、PYthon3.10、CUDA11.6、CUDDN10、pytorch、tensorflow,Pycharm)

    windows10系統(tǒng)PYthon深度學(xué)習(xí)環(huán)境安裝(Anaconda3、PYthon3.10、CUDA11.6、CUDDN10、pytorch、tensorflow,Pycharm)

    一、 總體說明 1、說明:總體採用https://blog.csdn.net/zhizhuxy999/article/details/90442600方法,部分步驟由於版本變化,進行了調(diào)整。 2、基本概念 編程語言/編譯器:Python。Python的特點是“用最少的代碼干最多的事”。Python 2即在2020年停止更新,所以現(xiàn)在學(xué)習(xí)Python 3是最好的選擇。 P

    2023年04月18日
    瀏覽(99)
  • windows10:CUDA、GPU 版本的torch安裝

    windows10:CUDA、GPU 版本的torch安裝

    ? ? ? ? 前期環(huán)境準(zhǔn)備:anaconda、pycharm版本不作具體要求 ??????? windows10打開命令行 ?Windows用戶: win+R - 輸入cmd? ?然后點擊“運行” - conda? 檢查是否conda安裝成功 ??????? ?若沒有安裝好,則 安裝conda Windows用戶: win+R - 輸入cmd? ?然后點擊“運行” - 輸入nvidia-smi? 檢查

    2024年02月13日
    瀏覽(24)
  • windows10,CUDA、GPU 版本的torch安裝

    windows10,CUDA、GPU 版本的torch安裝

    ? ? ? ? 前期環(huán)境準(zhǔn)備:anaconda、pycharm版本不作具體要求 ??????? windows10打開命令行 ?Windows用戶: win+R - 輸入cmd? ?然后點擊“運行” - conda? 檢查是否conda安裝成功 ??????? ?若沒有安裝好,則 安裝conda Windows用戶: win+R - 輸入cmd? ?然后點擊“運行” - 輸入nvidia-smi? 檢查

    2024年02月08日
    瀏覽(24)
  • openCV的CUDA GPU 版本安裝 (Ubuntu windows 通用)

    需要做template match, 比較注重時間,因此opencv 的普通版本不適用。需要用GPU 的。 4090的GPU 測試: 使用普通的python-opencv template match 耗時0.089秒。 GPU 版本:0.0065秒 快了13.69倍 Oh YEAH, case sealed 1: visual studio (不是vs code)

    2024年01月22日
    瀏覽(25)
  • Windows安裝GPU環(huán)境CUDA、深度學(xué)習(xí)框架Tensorflow和Pytorch

    Windows安裝GPU環(huán)境CUDA、深度學(xué)習(xí)框架Tensorflow和Pytorch

    Windows安裝GPU環(huán)境CUDA、深度學(xué)習(xí)框架Tensorflow和Pytorch 首先需要安裝GPU環(huán)境,包括cuda和cudnn。 深度學(xué)習(xí)本質(zhì)上就是訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)。 cuda:顯卡能夠完成并行計算任務(wù),所有的操作是比較底層的、復(fù)雜的。 cudnn:在cuda之上有一個專門用于深度神經(jīng)網(wǎng)絡(luò)的SDK庫來加速完成相

    2023年04月26日
    瀏覽(24)
  • 【TensorFlow】P0 Windows GPU 安裝 TensorFlow、CUDA Toolkit、cuDNN

    【TensorFlow】P0 Windows GPU 安裝 TensorFlow、CUDA Toolkit、cuDNN

    TensorFlow 是一個基于數(shù)據(jù)流圖的深度學(xué)習(xí)框架 TensorFlow是一個基于數(shù)據(jù)流圖的深度學(xué)習(xí)框架,它使用張量(Tensor)作為數(shù)據(jù)的基本單位,在GPU上進行張量運算可以極大地提高深度學(xué)習(xí)模型的訓(xùn)練和推理速度。而CUDA則提供了在GPU上執(zhí)行高性能并行計算所需的API和運行時環(huán)境,能

    2024年02月13日
    瀏覽(20)
  • windows 安裝cuda和cudann步驟

    yolov5訓(xùn)練 圖片標(biāo)注 標(biāo)注工具常用的兩款是Labelme和LabelImg可以直接導(dǎo)出(github: heartexlabs/labelImg) 使用labeImg制作數(shù)據(jù)集 pip install pyqt5 lxml make qt5py3 python3 labelImg.py 轉(zhuǎn)換工具(github: ultralytics/JSON2YOLO) windows使用gpu訓(xùn)練yolo模型 1,安裝cuda 查看nvidia版本(控制面板 - 系統(tǒng)信息 - nvcuda64.dll) 版

    2024年02月11日
    瀏覽(21)
  • 配置Cuda及Cudnn,在Anaconda創(chuàng)建虛擬環(huán)境,安裝GPU版Pytorch,并在Jupyter noterbook及Pycharm中調(diào)用【極其詳細】

    配置Cuda及Cudnn,在Anaconda創(chuàng)建虛擬環(huán)境,安裝GPU版Pytorch,并在Jupyter noterbook及Pycharm中調(diào)用【極其詳細】

    目錄 ?一、配置Cuda及Cudnn (一)下載Cuda 1、查看電腦自帶的Cuda版本 2、下載相應(yīng)版本Cuda安裝包 3、安裝Cuda 4、配置變量 (二)下載Cudnn 二、創(chuàng)建虛擬環(huán)境 三、虛擬環(huán)境中安裝GPU版Pytorch (一)有關(guān)環(huán)境的基本指令 (二)安裝GPU版Pytorch 四、將虛擬環(huán)境在Jupyter noterbook及Pycha

    2024年04月28日
    瀏覽(92)
  • CUDA 11.7 版本下安裝Tensorflow-gpu以及Keras (Windows以及Ubuntu)

    CUDA 11.7 版本下安裝Tensorflow-gpu以及Keras (Windows以及Ubuntu)

    ? 記錄:在復(fù)現(xiàn)論文代碼時碰到使用keras環(huán)境,于是在自己windows系統(tǒng)的臺式機(RTX 3080;CUDA 11.7)上進行了安裝,但是發(fā)現(xiàn)臺式機的顯存無法支持程序的運行。于是將一摸一樣的環(huán)境配置到更大現(xiàn)存的Ubuntu服務(wù)器(CUDA 11.7)上,但配置環(huán)境出錯,一直無法調(diào)用GPU。經(jīng)過一天的

    2024年02月01日
    瀏覽(50)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包