国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

一鍵Run帶你體驗(yàn)擴(kuò)散模型的魅力

這篇具有很好參考價(jià)值的文章主要介紹了一鍵Run帶你體驗(yàn)擴(kuò)散模型的魅力。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本文分享自華為云社區(qū)《爆圈Sora橫空出世,AGI通用人工智能時(shí)代真的要來了嗎?一鍵Run帶你體驗(yàn)擴(kuò)散模型的魅力!》,作者: 碼上開花_Lancer。

Sora這幾天的爆炸性新聞,讓所有人工智能相關(guān)從業(yè)者及對應(yīng)用感興趣的人群都感到沸騰,震撼到央視也在進(jìn)行相關(guān)的討論,簡直可以和2023年初ChatGPT討論帶來的熱潮一般。所以它到底為什么這么火?

一、什么是SORA?

Sora 是OpenAI最新發(fā)布的文本生成視頻模型,不僅可以生成長達(dá)一分鐘的視頻,且能完全遵照用戶的?Prompt?并保持視覺質(zhì)量。

OpenAI 這個(gè)公司的格局非常大,他想要做 World Simulators(世界模擬器),做通用AGI,而不僅僅是文字或者圖像視頻領(lǐng)域的內(nèi)容,他希望的是幫助人們解決需要現(xiàn)實(shí)世界交互的問題。單從OpenAI 發(fā)布的sora模型的論文可以看出來:

圖片中文翻譯:

視頻生成模型作為世界模擬器 我們探討了在視頻數(shù)據(jù)上對生成模型進(jìn)行大規(guī)模訓(xùn)練。 具體來說,我們共同訓(xùn)練了文本條件擴(kuò)散模型,這些模型能夠處理不同時(shí)長、分辨率和寬高比的視頻和圖像。 我們利用了一種變壓器架構(gòu),該架構(gòu)能夠處理視頻和圖像潛在代碼的空間時(shí)間塊。我們最大的模型,Sora,能夠生成一分鐘的高保真視頻。 我們的結(jié)果表明,擴(kuò)展視頻生成模型是構(gòu)建通用物理世界模擬器的有希望的道路。
在文生視頻領(lǐng)域,Sora將帶來短視頻的智能化變革,打破當(dāng)前內(nèi)容平臺(tái)等額原有數(shù)據(jù)壁壘,短視頻創(chuàng)作的生態(tài)護(hù)城河,同時(shí)Sora融入短視頻工作流,極大的增強(qiáng)用戶的體驗(yàn),降低創(chuàng)作難度和成本,極大拓展創(chuàng)作者的能力邊界,激發(fā)短視頻創(chuàng)作空間。


在視頻創(chuàng)作領(lǐng)域,畫面的穩(wěn)定性至關(guān)重要。如果要呈現(xiàn)出優(yōu)質(zhì)的效果,創(chuàng)作者需要具備高超的視頻剪輯技能和相關(guān)基礎(chǔ)。然而,SORA這次的表現(xiàn)真是逆天!通過簡單的文字描述,它能生成畫面穩(wěn)定、理解能力強(qiáng)的長視頻。

SORA的技術(shù)思路與眾不同,完全碾壓了傳統(tǒng)方法。它不再僅關(guān)注二維像素的變化,而是專注于語義理解的變化。從以往的視頻畫面生成,轉(zhuǎn)變?yōu)楣适逻壿嫷纳?。這種創(chuàng)新思路讓人瞠目結(jié)舌,展示了技術(shù)的無限可能性

二、SORA背后原理的推測

根據(jù)OpenAI最新發(fā)布的技術(shù)報(bào)告,Sora背后的“text-to-video”模型基于Diffusion Transformer Model。這種模型結(jié)合了Transformer架構(gòu)和擴(kuò)散模型,用于生成圖像、視頻和其他數(shù)據(jù)。

實(shí)際上,Sora是一個(gè)基于Transformer的擴(kuò)散模型。這類模型不僅在理論上具有創(chuàng)新性,而且在實(shí)際應(yīng)用中也顯示出了強(qiáng)大的潛力。例如,DiT模型(Sora的基礎(chǔ))和GenTron模型在圖像和視頻生成等領(lǐng)域都已經(jīng)取得了巨大的成功,這些創(chuàng)新性的模型為我們展示了技術(shù)的無限可能性。目前Sora技術(shù)沒有公開,大家對它都有不同猜測。DIT提出人謝賽寧:

1)Sora應(yīng)該是建立在DiT這個(gè)擴(kuò)散Transformer之上的 。

2)Sora可能有大約30億個(gè)參數(shù),(引用論文模型0.13B, 32X算力)。
3)訓(xùn)練數(shù)據(jù)是Sora 成功的最關(guān)鍵因素。
4)主要的挑戰(zhàn)是如何解決錯(cuò)誤累積問題并隨著時(shí)間的推移保持質(zhì)量/一致 。

DiT模型:Meta提出的完全基于transformer架構(gòu)的擴(kuò)散模型,不僅將transformer成功應(yīng)用在擴(kuò)散模型,還探究了transformer架構(gòu)在擴(kuò)散模型上的scalability能力。

GenTron模型:一種基于Transformer的擴(kuò)散模型,在針對SDXL的人類評估中,GenTron在視覺質(zhì)量方面取得了51.1%的勝率(19.8%的平局率),在文本對齊方面取得了42.3%的勝率(42.9%的平局率)。

DiT模型
Scalable Diffusion Models with Transformers ---- 基于transformer的擴(kuò)散模型,稱為Diffusion Transformers(DiTs) ,Diffusion Transformer Model(DiT)的設(shè)計(jì)空間、擴(kuò)展行為、網(wǎng)絡(luò)復(fù)雜度和樣本質(zhì)量之間的關(guān)系。這些研究結(jié)果表明,通過簡單地?cái)U(kuò)展DiT并使用高容量的骨干網(wǎng)絡(luò),可以在類條件256x256 ImageNet生成基準(zhǔn)測試中實(shí)現(xiàn)最新的2.27 FID。與像素空間擴(kuò)散模型相比,DiTs在使用的Gflops只是其一小部分,因此具有較高的計(jì)算效率。此外,DiTs還可以應(yīng)用于像素空間,使得圖像生成流程成為混合方法,使用現(xiàn)成的卷積VAEs和基于transformer的DDPMs。

擴(kuò)散模型中引入了transformer類的標(biāo)準(zhǔn)設(shè)計(jì),以取代傳統(tǒng)的U-Net設(shè)計(jì),從而提供了一種新的架構(gòu)選擇。

引入了潛在擴(kuò)散模型(LDMs),通過將圖像壓縮為較小的空間表示,并在這些表示上訓(xùn)練擴(kuò)散模型,從而解決了在高分辨率像素空間中直接訓(xùn)練擴(kuò)散模型的計(jì)算問題。

那對于我們開發(fā)者用戶想要強(qiáng)烈體驗(yàn)文生視頻的樂趣,那里可以體驗(yàn)?zāi)??今天給大家介紹下Stable Video Diffusion (SVD),一起在華為云一鍵Run體驗(yàn)其中的樂趣:

三、Stable Video Diffusion (SVD) 擴(kuò)散模型的圖像生成視頻的體驗(yàn)

1. 案例簡介

Stable Video Diffusion (SVD) 是一種擴(kuò)散模型,它將靜止圖像作為條件幀,并從中生成視頻。

?? 本案例需使用 Pytorch-1.8 GPU-V100 及以上規(guī)格運(yùn)行

?? 點(diǎn)擊Run in ModelArts,將會(huì)進(jìn)入到ModelArts CodeLab中,這時(shí)需要你登錄華為云賬號(hào),如果沒有賬號(hào),則需要注冊一個(gè),且要進(jìn)行實(shí)名認(rèn)證,參考《ModelArts準(zhǔn)備工作_簡易版》?即可完成賬號(hào)注冊和實(shí)名認(rèn)證。 登錄之后,等待片刻,即可進(jìn)入到CodeLab的運(yùn)行環(huán)境

?? 出現(xiàn) Out Of Memory ,請檢查是否為您的參數(shù)配置過高導(dǎo)致,修改參數(shù)配置,重啟kernel或更換更高規(guī)格資源進(jìn)行規(guī)避???

2. 下載代碼和模型

!git clone https://github.com/Stability-AI/generative-models.git
Cloning into 'generative-models'...
?
remote: Enumerating objects: 860, done.?[K
?
remote: Counting objects: 100% (489/489), done.?[K
?
remote: Compressing objects: 100% (222/222), done.?[K
?
remote: Total 860 (delta 368), reused 267 (delta 267), pack-reused 371?[K
?
Receiving objects: 100% (860/860), 42.67 MiB | 462.00 KiB/s, done.
?
Resolving deltas: 100% (445/445), done.
import moxing as mox
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/Stable_Video_Diffusion/file/modify_file/generative-models/sgm/modules/encoders','generative-models/sgm/modules/encoders')
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/Stable_Video_Diffusion/file/models','generative-models/models')
mox.file.copy_parallel(,'obs://modelarts-labs-bj4-v2/case_zoo/Stable_Video_Diffusion/file/checkpoints','generative-models/checkpoints')
INFO:root:Using MoXing-v2.1.0.5d9c87c8-5d9c87c8
?
INFO:root:Using OBS-Python-SDK-3.20.9.1

3. 配置運(yùn)行環(huán)境

本案例依賴Python3.10.10及以上環(huán)境,因此我們首先創(chuàng)建虛擬環(huán)境:

!/home/ma-user/anaconda3/bin/conda create -n python-3.10.10 python=3.10.10 -y --override-channels --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
!/home/ma-user/anaconda3/envs/python-3.10.10/bin/pip install ipykernel
/home/ma-user/anaconda3/lib/python3.7/site-packages/requests/__init__.py:91: RequestsDependencyWarning: urllib3 (1.26.12) or chardet (3.0.4) doesn't match a supported version!
?
  RequestsDependencyWarning)
?
Collecting package metadata (current_repodata.json): done
?
Solving environment: failed with repodata from current_repodata.json, will retry with next repodata source.
?
Collecting package metadata (repodata.json): done
?
Solving environment: done
import json
import os
?
data = {
   "display_name": "python-3.10.10",
   "env": {
      "PATH": "/home/ma-user/anaconda3/envs/python-3.10.10/bin:/home/ma-user/anaconda3/envs/python-3.7.10/bin:/modelarts/authoring/notebook-conda/bin:/opt/conda/bin:/usr/local/nvidia/bin:/usr/local/cuda/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/home/ma-user/modelarts/ma-cli/bin:/home/ma-user/modelarts/ma-cli/bin:/home/ma-user/anaconda3/envs/PyTorch-1.8/bin"
   },
   "language": "python",
   "argv": [
      "/home/ma-user/anaconda3/envs/python-3.10.10/bin/python",
      "-m",
      "ipykernel",
      "-f",
      "{connection_file}"
   ]
}
?
if not os.path.exists("/home/ma-user/anaconda3/share/jupyter/kernels/python-3.10.10/"):
    os.mkdir("/home/ma-user/anaconda3/share/jupyter/kernels/python-3.10.10/")
?
with open('/home/ma-user/anaconda3/share/jupyter/kernels/python-3.10.10/kernel.json', 'w') as f:
    json.dump(data, f, indent=4)

創(chuàng)建完成后,稍等片刻,或刷新頁面,點(diǎn)擊右上角kernel選擇python-3.10.10?

!pip install torch==2.0.1 torchvision==0.15.2
!pip install MoviePy
Looking in indexes: http://repo.myhuaweicloud.com/repository/pypi/simple
?
Collecting torch==2.0.1
?
  Downloading http://repo.myhuaweicloud.com/repository/pypi/packages/8c/4d/17e07377c9c3d1a0c4eb3fde1c7c16b5a0ce6133ddbabc08ceef6b7f2645/torch-2.0.1-cp310-cp310-manylinux1_x86_64.whl (619.9 MB)
?
?[2K     ?[90m━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━?[0m ?[32m619.9/619.9 MB?[0m ?[31m5.6 MB/s?[0m eta ?[36m0:00:00?[0m00:01?[0m00:01?[0m
?
......
    Uninstalling decorator-5.1.1:
?
      Successfully uninstalled decorator-5.1.1
?
Successfully installed MoviePy-1.0.3 decorator-4.4.2 imageio-2.34.0 imageio_ffmpeg-0.4.9 proglog-0.1.10 tqdm-4.66.2
%cd generative-models
/home/ma-user/work/stable-video-diffusion/generative-models
/home/ma-user/anaconda3/envs/python-3.10.10/lib/python3.10/site-packages/IPython/core/magics/osm.py:417: UserWarning: using dhist requires you to install the `pickleshare` library.
?
  self.shell.db['dhist'] = compress_dhist(dhist)[-100:]
!pip install -r requirements/pt2.txt
Looking in indexes: http://repo.myhuaweicloud.com/repository/pypi/simple
?
Collecting clip@ git+https://github.com/openai/CLIP.git (from -r requirements/pt2.txt (line 3))
?
  Cloning https://github.com/openai/CLIP.git to /tmp/pip-install-_vzv4vq_/clip_4273bc4d2cba4d6486a222a5093fbe4b
?
 conda3/envs/python-3.10.10/lib/python3.10/site-packages (from -r requirements/pt2.txt (line 32)) (4.66.2)
?
Collecting transformers==4.19.1 (from -r requirements/pt2.txt (line 33))
?
 
      Successfully uninstalled urllib3-2.2.1
?
Successfully installed PyWavelets-1.5.0 aiohttp-3.9.3 aiosignal-1.3.1 altair-5.2.0 antlr4-python3-runtime-4.9.3 appdirs-1.4.4 async-timeout-4.0.3 attrs-23.2.0 black-23.7.0 blinker-1.7.0 braceexpand-0.1.7 cachetools-5.3.2 chardet-5.1.0 click-8.1.7 clip-1.0 contourpy-1.2.0 cycler-0.12.1 docker-pycreds-0.4.0 einops-0.7.0 fairscale-0.4.13 fire-0.5.0 fonttools-4.49.0 frozenlist-1.4.1 fsspec-2024.2.0 ftfy-6.1.3 gitdb-4.0.11 gitpython-3.1.42 huggingface-hub-0.20.3 importlib-metadata-7.0.1 invisible-watermark-0.2.0 jsonschema-4.21.1 jsonschema-specifications-2023.12.1 kiwisolver-1.4.5 kornia-0.6.9 lightning-utilities-0.10.1 markdown-it-py-3.0.0 matplotlib-3.8.3 mdurl-0.1.2 multidict-6.0.5 mypy-extensions-1.0.0 natsort-8.4.0 ninja-1.11.1.1 omegaconf-2.3.0 open-clip-torch-2.24.0 opencv-python-4.6.0.66 pandas-2.2.0 pathspec-0.12.1 protobuf-3.20.3 pudb-2024.1 pyarrow-15.0.0 pydeck-0.8.1b0 pyparsing-3.1.1 pytorch-lightning-2.0.1 pytz-2024.1 pyyaml-6.0.1 referencing-0.33.0 regex-2023.12.25 rich-13.7.0 rpds-py-0.18.0 safetensors-0.4.2 scipy-1.12.0 sentencepiece-0.2.0 sentry-sdk-1.40.5 setproctitle-1.3.3 smmap-5.0.1 streamlit-1.31.1 streamlit-keyup-0.2.0 tenacity-8.2.3 tensorboardx-2.6 termcolor-2.4.0 timm-0.9.16 tokenizers-0.12.1 toml-0.10.2 tomli-2.0.1 toolz-0.12.1 torchaudio-2.0.2 torchdata-0.6.1 torchmetrics-1.3.1 transformers-4.19.1 tzdata-2024.1 tzlocal-5.2 urllib3-1.26.18 urwid-2.6.4 urwid-readline-0.13 validators-0.22.0 wandb-0.16.3 watchdog-4.0.0 webdataset-0.2.86 xformers-0.0.22 yarl-1.9.4 zipp-3.17.0
!pip install .
Looking in indexes: http://repo.myhuaweicloud.com/repository/pypi/simple
?
Processing /home/ma-user/work/stable-video-diffusion/generative-models
?
  Installing build dependencies ... ?[?25ldone
?
?[?25h  Getting requirements to build wheel ... ?[?25ldone
?
?[?25h  Preparing metadata (pyproject.toml) ... ?[?25ldone
?
?[?25hBuilding wheels for collected packages: sgm
?
  Building wheel for sgm (pyproject.toml) ... ?[?25ldone
?
?[?25h  Created wheel for sgm: filename=sgm-0.1.0-py3-none-any.whl size=127368 sha256=0f9ff6913b03b2e0354cd1962ecb2fc03df36dea90d14b27dc46620e6eafc9a0
?
  Stored in directory: /home/ma-user/.cache/pip/wheels/a9/b8/f4/e84140beaf1762b37f5268788964d58d91394ee17de04b3f9a
?
Successfully built sgm
?
Installing collected packages: sgm
?
Successfully installed sgm-0.1.0

4. 生成視頻

視頻默認(rèn)生成到outputs文件夾內(nèi)

!python scripts/sampling/simple_video_sample.py --decoding_t 1 --input_path 'assets/test_image.png'
/home/ma-user/work/stable-video-diffusion/generative-models
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
VideoTransformerBlock is using checkpointing
?
Initialized embedder #0: FrozenOpenCLIPImagePredictionEmbedder with 683800065 params. Trainable: False
?
Initialized embedder #1: ConcatTimestepEmbedderND with 0 params. Trainable: False
?
Initialized embedder #2: ConcatTimestepEmbedderND with 0 params. Trainable: False
?
Initialized embedder #3: VideoPredictionEmbedderWithEncoder with 83653863 params. Trainable: False
?
Initialized embedder #4: ConcatTimestepEmbedderND with 0 params. Trainable: False
?
Restored from checkpoints/svd.safetensors with 0 missing and 0 unexpected keys
?
100%|███████████████████████████████████████| 890M/890M [00:50<00:00, 18.5MiB/s]
?
/home/ma-user/anaconda3/envs/python-3.10.10/lib/python3.10/site-packages/torch/utils/checkpoint.py:31: UserWarning: None of the inputs have requires_grad=True. Gradients will be None
?
  warnings.warn("None of the inputs have requires_grad=True. Gradients will be None")
#將視頻文件轉(zhuǎn)成動(dòng)圖顯示
from moviepy.editor import *
 
# 指定輸入視頻路徑
video_path = "outputs/simple_video_sample/svd/000000.mp4"
 
# 加載視頻
clip = VideoFileClip(video_path)
 
# 設(shè)置保存GIF的參數(shù)(如分辨率、持續(xù)時(shí)間等)
output_file = "output_animation.gif"
fps = 10 # GIF每秒顯示的幀數(shù)
 
# 生成并保存GIF
clip.write_gif(output_file, fps=fps)
MoviePy - Building file output_animation.gif with imageio.
from IPython.display import Image
Image(open('output_animation.gif','rb').read())

大家趕緊來體驗(yàn)文生視頻的樂趣吧!

?文章來源地址http://www.zghlxwxcb.cn/news/detail-837694.html

點(diǎn)擊關(guān)注,第一時(shí)間了解華為云新鮮技術(shù)~

?

到了這里,關(guān)于一鍵Run帶你體驗(yàn)擴(kuò)散模型的魅力的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • AI 繪畫 - 如何 0 成本在線體驗(yàn) AI 繪畫的魅力

    要想體驗(yàn) AI 繪畫,比較流行的三種方式是 Midjourney 、 OpenAI 的 DALL·E 2 以及 Stable Diffusion 。而 Midjourney 已經(jīng)停止免費(fèi)試用,且使用價(jià)格不太便宜, DALL·E 2 也是一樣價(jià)格不菲。只有 Stable Diffusion 作為一款開源模型可以自建,也有各種白嫖的方式比如 Google 的 Colab ,阿里云的 P

    2024年02月05日
    瀏覽(13)
  • 沉浸式推理樂趣:體驗(yàn)線上劇本殺小程序的魅力

    沉浸式推理樂趣:體驗(yàn)線上劇本殺小程序的魅力

    在這個(gè)信息爆炸的時(shí)代,人們的娛樂方式也在不斷地推陳出新。其中,線上劇本殺小程序以其獨(dú)特的沉浸式推理樂趣,成為了許多人的新寵。它不僅讓我們在閑暇之余享受到了推理的快樂,更讓我們在虛擬的世界里感受到了人性的復(fù)雜與多彩。 線上劇本殺小程序,顧名思義,

    2024年04月27日
    瀏覽(18)
  • 【騰訊云 TDSQL-C Serverless 產(chǎn)品體驗(yàn)】云函數(shù)+TDSQL-C Serverless:體驗(yàn)全棧Serverless的魅力

    【騰訊云 TDSQL-C Serverless 產(chǎn)品體驗(yàn)】云函數(shù)+TDSQL-C Serverless:體驗(yàn)全棧Serverless的魅力

    最近在學(xué)習(xí)Serverless架構(gòu)相關(guān)的知識(shí),學(xué)習(xí)過程中發(fā)現(xiàn)一個(gè)有趣的現(xiàn)象:無論是教程示例,還是場景實(shí)例,Serverless架構(gòu)中鮮有出現(xiàn)數(shù)據(jù)庫的身影。各類文章所介紹的Serverless架構(gòu)應(yīng)用場景中,也幾乎都是無需數(shù)據(jù)庫的業(yè)務(wù)場景。在一些教程文章中,對于一些需要進(jìn)行數(shù)據(jù)存儲(chǔ)的

    2024年02月07日
    瀏覽(27)
  • 探索設(shè)計(jì)模式的魅力:捕捉變化的風(fēng)-用觀察者模式提升用戶體驗(yàn)

    探索設(shè)計(jì)模式的魅力:捕捉變化的風(fēng)-用觀察者模式提升用戶體驗(yàn)

    設(shè)計(jì)模式專欄: 目錄 一、引言 ?核心概念 ?應(yīng)用場景 ?可以解決的問題 二、場景案例 2.1 不用設(shè)計(jì)模式實(shí)現(xiàn) 2.2 存在問題 2.3 使用設(shè)計(jì)模式實(shí)現(xiàn) 2.4 成功克服 三、工作原理 3.1 結(jié)構(gòu)圖和說明 3.2?工作原理詳解 3.3 實(shí)現(xiàn)步驟 四、 優(yōu)勢 4.1 好處和優(yōu)勢 4.2 應(yīng)用示例 4.3 系統(tǒng)性優(yōu)勢

    2024年02月19日
    瀏覽(39)
  • HarmonyOS Codelab 優(yōu)秀樣例——購物應(yīng)用,體驗(yàn)一次開發(fā)多端部署魅力

    HarmonyOS Codelab 優(yōu)秀樣例——購物應(yīng)用,體驗(yàn)一次開發(fā)多端部署魅力

    ? 本篇Codelab基于自適應(yīng)布局和響應(yīng)式布局,實(shí)現(xiàn)購物應(yīng)用在手機(jī)、折疊屏、平板不同屏幕尺寸設(shè)備上按不同設(shè)計(jì)顯示。通過三層工程結(jié)構(gòu)組織代碼,實(shí)現(xiàn)一次開發(fā),多端部署?。 手機(jī)運(yùn)行效果如圖所示: ? 折疊屏運(yùn)行效果圖: ? 平板運(yùn)行效果圖: 一次開發(fā),多端部署 :一

    2024年02月11日
    瀏覽(32)
  • 【C++風(fēng)云錄】融入虛擬現(xiàn)實(shí)的魅力:借助 C++ 庫打造沉浸式的游戲體驗(yàn)和交互效果

    在現(xiàn)代的游戲和虛擬現(xiàn)實(shí)應(yīng)用中,物理模擬和真實(shí)的交互體驗(yàn)是不可或缺的要素。為了實(shí)現(xiàn)逼真的物理效果和流暢的游戲體驗(yàn),開發(fā)人員需要依賴強(qiáng)大的物理模擬庫和游戲引擎。本文將介紹一些常用的 C++ 庫,包括 Bullet Physics Library、Unreal Engine API、ODE、Box2D、DirectX/OpenGL 和

    2024年04月17日
    瀏覽(27)
  • 【擴(kuò)散模型】1、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

    【擴(kuò)散模型】1、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

    參考論文:A Survey on Generative Diffusion Model github:https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model 1.1 現(xiàn)有生成模型簡介 已經(jīng)有大量的方法證明深度生成模型能夠模擬人類的想象思維,生成人類難以分辨真?zhèn)蔚膬?nèi)容,主要方法如下: 1、GAN:用神經(jīng)網(wǎng)絡(luò)訓(xùn)練生成器和判別器 G

    2024年02月09日
    瀏覽(31)
  • 生成模型(四):擴(kuò)散模型02【第一單元:擴(kuò)散模型簡介】

    生成模型(四):擴(kuò)散模型02【第一單元:擴(kuò)散模型簡介】

    歡迎來到 Hugging Face 擴(kuò)散模型課程第一單元!在本單元中,你將學(xué)習(xí)有關(guān)擴(kuò)散模型如何工作的基礎(chǔ)知識(shí),以及如何使用 ?? diffusers 庫。 擴(kuò)散模型是「生成模型」算法家族的新成員通過學(xué)習(xí)給定的訓(xùn)練樣本,生成模型可以學(xué)會(huì)如何? 生成 ?數(shù)據(jù),比如生成圖片或者聲音。一個(gè)好

    2024年02月13日
    瀏覽(53)
  • 【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

    【AIGC】2、擴(kuò)散模型 | 到底什么是擴(kuò)散模型?

    參考論文:A Survey on Generative Diffusion Model github:https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model 1.1 現(xiàn)有生成模型簡介 已經(jīng)有大量的方法證明深度生成模型能夠模擬人類的想象思維,生成人類難以分辨真?zhèn)蔚膬?nèi)容,主要方法如下: 1、GAN:用神經(jīng)網(wǎng)絡(luò)訓(xùn)練生成器和判別器 G

    2024年02月10日
    瀏覽(27)
  • 【擴(kuò)散模型】2、DDPM | 去噪擴(kuò)散概率模型開山之作

    【擴(kuò)散模型】2、DDPM | 去噪擴(kuò)散概率模型開山之作

    論文:Denoising Diffusion Probabilistic Models 代碼:https://github.com/hojonathanho/diffusion stable diffusion 代碼實(shí)現(xiàn):https://github.com/CompVis/stable-diffusion/blob/main/ldm/models/diffusion/ddpm.py 出處:伯克利 時(shí)間:2020.06 假設(shè)均值為 0,方差為 1 的高斯分布,則對應(yīng)的噪聲示例如下,就是在 0 附近分布的

    2024年02月07日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包