国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Stable Diffusion WebUI rtx 2060 6G 高清修復(fù) 爆顯存torch.cuda.OutOfMemoryError: CUDA out of memory.

這篇具有很好參考價值的文章主要介紹了Stable Diffusion WebUI rtx 2060 6G 高清修復(fù) 爆顯存torch.cuda.OutOfMemoryError: CUDA out of memory.。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

故障日志

*** Arguments: ('task(9bknuv75x8gvtjn)', '1girl,3d,architecture,blurry,blurry background,breasts,brown hair,building,cherry blossoms,city,cityscape,cosplay photo,cowboy shot,day,depth of field,east asian architecture,flower,lips,long hair,looking at viewer,medium breasts,midriff,motion blur,navel,outdoors,photo \\(medium\\),photo background,pink flower,scrunchie,shirt,shorts,skyscraper,solo,street,tree,white shirt,best quality,ultra high res,(photorealistic:1.4),1girl,<lora:styleJelly_v10:1> ', 'paintings,sketches,(worst quality:2),(low quality:2),(normal quality:2),lowres,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,glans,{{{bad_hands}}},badhand,bad_feet,', [], 30, 17, False, False, 1, 1, 7, -1.0, -1.0, 0, 0, 0, False, 512, 300, True, 0.7, 2, 'Latent', 0, 0, 0, 0, '', '', [], 0, <scripts.controlnet_ui.controlnet_ui_group.UiControlNetUnit object at 0x7fde10debb50>, False, False, 0, None, [], 0, False, [], [], False, 0, 1, False, False, 0, None, [], -2, False, [], False, 0, None, None, False, False, 'positive', 'comma', 0, False, False, '', 1, '', [], 0, '', [], 0, '', [], True, False, False, False, 0, None, None, False, 50) {}
    Traceback (most recent call last):
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/call_queue.py", line 55, in f
        res = list(func(*args, **kwargs))
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/call_queue.py", line 35, in f
        res = func(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/txt2img.py", line 57, in txt2img
        processed = processing.process_images(p)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/processing.py", line 620, in process_images
        res = process_images_inner(p)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/batch_hijack.py", line 42, in processing_process_images_hijack
        return getattr(processing, '__controlnet_original_process_images_inner')(p, *args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/processing.py", line 741, in process_images_inner
        x_samples_ddim = [decode_first_stage(p.sd_model, samples_ddim[i:i+1].to(dtype=devices.dtype_vae))[0].cpu() for i in range(samples_ddim.size(0))]
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/processing.py", line 741, in <listcomp>
        x_samples_ddim = [decode_first_stage(p.sd_model, samples_ddim[i:i+1].to(dtype=devices.dtype_vae))[0].cpu() for i in range(samples_ddim.size(0))]
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/processing.py", line 525, in decode_first_stage
        x = model.decode_first_stage(x)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/sd_hijack_utils.py", line 17, in <lambda>
        setattr(resolved_obj, func_path[-1], lambda *args, **kwargs: self(*args, **kwargs))
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/modules/sd_hijack_utils.py", line 28, in __call__
        return self.__orig_func(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/utils/_contextlib.py", line 115, in decorate_context
        return func(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddpm.py", line 826, in decode_first_stage
        return self.first_stage_model.decode(z)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/autoencoder.py", line 90, in decode
        dec = self.decoder(z)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1501, in _call_impl
        return forward_call(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/model.py", line 641, in forward
        h = self.up[i_level].upsample(h)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1501, in _call_impl
        return forward_call(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/diffusionmodules/model.py", line 64, in forward
        x = self.conv(x)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1501, in _call_impl
        return forward_call(*args, **kwargs)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/extensions-builtin/Lora/lora.py", line 415, in lora_Conv2d_forward
        return torch.nn.Conv2d_forward_before_lora(self, input)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/nn/modules/conv.py", line 463, in forward
        return self._conv_forward(input, self.weight, self.bias)
      File "/home/yeqiang/Downloads/ai/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/nn/modules/conv.py", line 459, in _conv_forward
        return F.conv2d(input, weight, bias, self.stride,
    torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 150.00 MiB (GPU 0; 5.79 GiB total capacity; 4.14 GiB already allocated; 130.62 MiB free; 4.25 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.  See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

零食解決辦法,重啟webui.sh進程,重新執(zhí)行生成圖片

stable diffusion torch.cuda.outofmemoryerror: cuda out of memory.,stable diffusion,ai,stable diffusion,ai

日志

^CInterrupted with signal 2 in <frame at 0x5573c3eeeb50, file '/home/yeqiang/miniconda3/envs/stable-diffusion-webui/lib/python3.10/threading.py', line 324, code wait>
yeqiang@yeqiang-MS-7B23:~/Downloads/ai/stable-diffusion-webui$ ./webui.sh 

################################################################
Install script for stable-diffusion + Web UI
Tested on Debian 11 (Bullseye)
################################################################

################################################################
Running on yeqiang user
################################################################

################################################################
Repo already cloned, using it as install directory
################################################################

################################################################
Create and activate python venv
################################################################

################################################################
Launching launch.py...
################################################################
Using TCMalloc: libtcmalloc_minimal.so.4
Python 3.10.6 | packaged by conda-forge | (main, Aug 22 2022, 20:36:39) [GCC 10.4.0]
Version: v1.4.0
Commit hash: 394ffa7b0a7fff3ec484bcd084e673a8b301ccc8
Installing requirements




Launching Web UI with arguments: 
No module 'xformers'. Proceeding without it.
2023-07-10 08:54:22,210 - ControlNet - INFO - ControlNet v1.1.231
ControlNet preprocessor location: /home/yeqiang/Downloads/ai/stable-diffusion-webui/extensions/sd-webui-controlnet/annotator/downloads
2023-07-10 08:54:22,275 - ControlNet - INFO - ControlNet v1.1.231
sd-webui-prompt-all-in-one background API service started successfully.
Loading weights [7234b76e42] from /home/yeqiang/Downloads/ai/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_Ni.safetensors
preload_extensions_git_metadata for 13 extensions took 0.34s
Creating model from config: /home/yeqiang/Downloads/ai/stable-diffusion-webui/configs/v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying attention optimization: Doggettx... done.
Textual inversion embeddings loaded(0): 
Model loaded in 2.2s (load weights from disk: 0.8s, create model: 0.5s, apply weights to model: 0.4s, apply half(): 0.3s, move model to device: 0.2s).
Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.
Startup time: 8.2s (import torch: 0.8s, import gradio: 0.7s, import ldm: 0.3s, other imports: 0.4s, load scripts: 3.2s, create ui: 0.4s, gradio launch: 2.3s).
100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 30/30 [00:09<00:00,  3.22it/s]
100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 30/30 [00:38<00:00,  1.29s/it]
Total progress: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 60/60 [00:52<00:00,  1.14it/s]
Total progress: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 60/60 [00:52<00:00,  1.27s/it]

?

確實清晰不少?

stable diffusion torch.cuda.outofmemoryerror: cuda out of memory.,stable diffusion,ai,stable diffusion,ai文章來源地址http://www.zghlxwxcb.cn/news/detail-764693.html

到了這里,關(guān)于Stable Diffusion WebUI rtx 2060 6G 高清修復(fù) 爆顯存torch.cuda.OutOfMemoryError: CUDA out of memory.的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2

    下載源碼 創(chuàng)建venv 安裝依賴 已安裝依賴列表 下載編譯llama.cpp 編譯成功 創(chuàng)建軟鏈接 下載模型 由于只有6G顯存,只下載基礎(chǔ)的對話模型chinese-alpaca-2-1.3b 瀏覽器打開地址:hfl/chinese-alpaca-2-1.3b at main 放到~/Downloads/ai 目錄下 啟動chat報錯 繼續(xù)折騰: 這兩個文件需要手動在瀏覽器內(nèi)

    2024年01月18日
    瀏覽(23)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    項目地址 chatglm2-6b 下載模型 創(chuàng)建測試項目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進程cpu使用率100.3%持續(xù)了很長時間,沒有啟用多線程?

    2024年01月20日
    瀏覽(26)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2 【2】啟用GPU支持

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2 【2】啟用GPU支持

    接上篇 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2-CSDN博客 前面的實驗,chat.sh確認是運行在CPU模式下,未啟用GPU支持 重新編譯llama.cpp 故障:nvcc fatal ? : Value \\\'native\\\' is not defined for option \\\'gpu-architecture\\\' 查看gpu-arch 修改Makefile,調(diào)整MK_NVCCFLAGS差異如下? yeqia

    2024年01月23日
    瀏覽(24)
  • 4G顯存玩轉(zhuǎn)AI繪畫!Stable Diffusion WebUI Forge來了!

    4G顯存玩轉(zhuǎn)AI繪畫!Stable Diffusion WebUI Forge來了!

    經(jīng)常使用Stable Diffusion WebUI的同學(xué)可能都被顯存的問題困擾過,其運行時需要巨大的顯存空間,跑著跑著顯存可能就爆了,不得不重新啟動。不過現(xiàn)在這個問題解決了,因為Stable Diffusion WebUI Forge來了。 相較于原版的SD WebUI(針對1024像素分辨率下的SDXL圖片生成),可以獲取以下

    2024年04月29日
    瀏覽(26)
  • Stable Diffusion高清修復(fù)老照片-圖生圖

    Stable Diffusion高清修復(fù)老照片-圖生圖

    修復(fù)老照片的意義就不多說了,相信大家都明白,這里直接開講方法。 1、原理 這個方法需要一個真實模型,以便讓修復(fù)的照片看起來比較真實,我這里選擇:realisticVisionV20,大家有更好的給我推薦哦。 還需用搭配兩個特殊設(shè)置: ControlNet Tile:這是一個ControlNet模型,用于放

    2024年02月14日
    瀏覽(25)
  • AI 繪畫 | Stable Diffusion 高清修復(fù)、細節(jié)優(yōu)化

    AI 繪畫 | Stable Diffusion 高清修復(fù)、細節(jié)優(yōu)化

    在 Stable Diffusion 想要生成高清分辨率的圖片。在文生圖的功能里,需要設(shè)置更大的寬度和高度。在圖生圖的功能里,需要設(shè)置更大的重繪尺寸或者重繪尺寸。但是設(shè)置完更大的圖像分辨率,需要更大顯存,1024*1024的至少要電腦的空余顯存在8G以上。如顯存不夠,就會爆顯存生

    2024年02月05日
    瀏覽(22)
  • stable diffusion實踐操作-寬高設(shè)置以及高清修復(fù)

    stable diffusion實踐操作-寬高設(shè)置以及高清修復(fù)

    stable diffusion實踐操作 主要介紹SD的寬高設(shè)置以及高清修復(fù) 基礎(chǔ)模型都是通過512 512的圖像集訓(xùn)練的,所以我們采用SD1.5模型的時候,寬高不要超過512 512,否則,圖像就會出現(xiàn)不可以控. 但是在實際工作中,我們需要更加高清圖片怎么辦,這就是本章的主要內(nèi)容。 SD生成256 256圖

    2024年02月10日
    瀏覽(22)
  • 〔009〕Stable Diffusion 之 老照片高清修復(fù) 篇

    在 AI 繪畫出來后,飛兔小哥就一直思考它的商業(yè)出路,其中之一應(yīng)用我覺得就是老照片修復(fù) 其實在 stable diffusion 中修復(fù)老照片,其實有很好的效果,根據(jù)目前其內(nèi)置的功能,大概有三種可用的高清修復(fù)功能 而飛兔小哥也在社區(qū)開了相應(yīng)的 AI 專欄,并將自己平時生成和修復(fù)處

    2024年02月11日
    瀏覽(22)
  • 〔AI 繪畫〕Stable Diffusion 之 老照片高清修復(fù) 篇

    在 AI 繪畫出來后,飛兔小哥就一直思考它的商業(yè)出路,其中之一應(yīng)用我覺得就是老照片修復(fù) 其實在 stable diffusion 中修復(fù)老照片,其實有很好的效果,根據(jù)目前其內(nèi)置的功能,大概有三種可用的高清修復(fù)功能 而飛兔小哥也在社區(qū)開了相應(yīng)的 AI 專欄,并將自己平時生成和修復(fù)處

    2024年02月13日
    瀏覽(46)
  • Stable Diffusion - 真人照片的高清修復(fù) (StableSR + GFPGAN) 最佳實踐

    Stable Diffusion - 真人照片的高清修復(fù) (StableSR + GFPGAN) 最佳實踐

    歡迎關(guān)注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132032216 GFPGAN (Generative Facial Prior GAN) 算法,用于實現(xiàn)真實世界的盲臉恢復(fù)的算法,利用預(yù)訓(xùn)練的面部 GAN(如 StyleGAN2 )中封裝的豐富和多樣的先驗信息,來修復(fù)低質(zhì)量、模糊、噪聲或者損壞的

    2024年02月14日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包