国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地

這篇具有很好參考價(jià)值的文章主要介紹了Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

如何更好、更快和更便宜地實(shí)現(xiàn)訓(xùn)練、微調(diào)AIGC模型,已成為AIGC商業(yè)化和應(yīng)用爆發(fā)的最大痛點(diǎn)。
Colossal-AI基于在大模型民主化的專業(yè)技術(shù)積累,開源完整Stable Diffusion預(yù)訓(xùn)練和個(gè)性化微調(diào)方案,預(yù)訓(xùn)練時(shí)間加速和經(jīng)濟(jì)成本降低6.5倍,個(gè)性化微調(diào)硬件成本降低7倍!在個(gè)人電腦的RTX 2070/3050上即可快速完成微調(diào)任務(wù)流程,讓Stable Diffusion等AIGC模型的觸手可及。

開源地址:https://github.com/hpcaitech/ColossalAI
?

火爆的AIGC賽道與高昂成本

AIGC(AI-Generated Content 人工智能生成內(nèi)容)是當(dāng)前AI領(lǐng)域最熱門的話題之一,尤其是伴隨著Stable Diffusion、Midjourney、NovelAI、DALL-E等為代表的文本生成圖像的跨模態(tài)應(yīng)用涌現(xiàn),AIGC更是火爆出圈,廣受關(guān)注。
?

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
Stable Diffusion生成圖像

由于AIGC激發(fā)了大量行業(yè)需求,它已被視為下一波AI浪潮的重要方向之一,業(yè)界廣泛期望出現(xiàn)基于AIGC在文本、音頻、圖像視頻、游戲、元宇宙等技術(shù)場(chǎng)景的新技術(shù)革命和殺手級(jí)應(yīng)用。AIGC在相關(guān)場(chǎng)景的成功商業(yè)化落地,潛在的數(shù)萬(wàn)億美元市場(chǎng),更是讓相關(guān)初創(chuàng)公司成為資本寵兒,如Stability AI、Jasper等成立僅一兩年便已獲得上億美元融資,晉升獨(dú)角獸行列。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
AI模型規(guī)模與性能的同步增長(zhǎng)

但高昂的硬件需求和訓(xùn)練成本仍嚴(yán)重阻礙著AIGC行業(yè)的快速發(fā)展。AIGC應(yīng)用的出色表現(xiàn)通常建立在GPT-3或Stable Diffusion等大模型之上,并針對(duì)特定下游任務(wù)和應(yīng)用進(jìn)行微調(diào)。以大火的Stable Diffusion為例,盡管其背后的Stability AI成立不久,卻維護(hù)了超過(guò)4000個(gè)英偉達(dá)A100的GPU集群,并已為此支出超過(guò)5000萬(wàn)美元的運(yùn)營(yíng)成本,僅Stable Diffusion v1 版本的模型單次訓(xùn)練便需要150000 個(gè) A100 GPU Hour。
?

  • Diffusion model

Diffusion model(擴(kuò)散模型)的想法最早在2015年的論文Deep Unsupervised Learning using Nonequilibrium Thermodynamics被提出,2020 的論文 Denoising Diffusion Probabilistic Models (DDPM)將其推到了一個(gè)新的高度,之后基于擴(kuò)散模型的DALL-E 2, Imagen, Stable Diffusion在生成任務(wù)上取得了遠(yuǎn)超生成對(duì)抗網(wǎng)絡(luò)(GAN)、變微分自動(dòng)編碼器(VAE)、自回歸模型(AR)等傳統(tǒng)生成模型的效果。

擴(kuò)散模型包含兩個(gè)過(guò)程:前向擴(kuò)散過(guò)程和反向生成過(guò)程,前向擴(kuò)散過(guò)程是對(duì)一張圖像逐漸添加高斯噪聲直至變成隨機(jī)噪音,而反向生成過(guò)程是去噪音過(guò)程,將一個(gè)隨機(jī)噪音使用多個(gè)U-Net進(jìn)行逐漸去噪音直至生成一張圖像,這也是擴(kuò)散模型訓(xùn)練的部分。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
Latent Diffusion model

?

對(duì)比傳統(tǒng)端到端的深度學(xué)習(xí)模型,擴(kuò)散模型的訓(xùn)練過(guò)程無(wú)疑更為復(fù)雜,以Stable Diffusion為例,除了擴(kuò)散模型本身,還有一個(gè)Frozen CLIP Textcoder 來(lái)輸入text prompts,以及一個(gè)Autoencoder實(shí)現(xiàn)將高分辨率圖像壓縮到潛在空間(Latent Space),并在每個(gè)time step計(jì)算loss。這對(duì)訓(xùn)練方案的顯存開銷,計(jì)算速度都提出了更大的挑戰(zhàn)。
?

更低成本——預(yù)訓(xùn)練加速與少資源微調(diào)

  • 預(yù)訓(xùn)練優(yōu)化

對(duì)于預(yù)訓(xùn)練而言,一般batch size越大,訓(xùn)練速度也越快,Diffusion model也是類似的。Colossal- AI 通過(guò)ZeRO,Gemini, Chunk-based內(nèi)存管理等策略以及Flash Attention模塊優(yōu)化Cross-attention計(jì)算,極大地降低了Diffusion model的訓(xùn)練的顯存開銷,使用戶在10G顯存的消費(fèi)級(jí)顯卡(如RTX3080)上就可以訓(xùn)練Diffusion model,在A100這樣的專用顯卡上最大可以直接支持單卡Batch Size 256的訓(xùn)練, 對(duì)比stable-diffusion-v1-1的FP32 的DistributedDataParallel (DDP) 訓(xùn)練可以提速6.5倍。這意味著數(shù)百萬(wàn)美元的訓(xùn)練成本可降低6.5倍,極大降低AIGC行業(yè)訓(xùn)練成本和入場(chǎng)門檻!

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地?

  • 個(gè)性化微調(diào)優(yōu)化

由于Stable Diffusion的預(yù)訓(xùn)練采用的LAION-5B數(shù)據(jù)集共5850億個(gè)圖片文本對(duì),需要240TB儲(chǔ)存空間,再結(jié)合模型的復(fù)雜性,顯然完整預(yù)訓(xùn)練的成本極高:Stable Diffusion的Stability團(tuán)隊(duì)花費(fèi)超過(guò)5000萬(wàn)美元部署了4,000塊A100 GPU。對(duì)于大多數(shù)AIGC玩家而言,更切實(shí)的選擇是使用開源的預(yù)訓(xùn)練模型權(quán)重來(lái)進(jìn)行微調(diào)個(gè)性化下游任務(wù)。

但其他現(xiàn)有的開源finetune方案中使用的訓(xùn)練并行方式主要為DDP,這導(dǎo)致訓(xùn)練過(guò)程中顯存占用極大,即使微調(diào)也需要至少使用RTX 3090或4090最高端的消費(fèi)級(jí)顯卡才能啟動(dòng)。同時(shí),現(xiàn)階段開源的很多訓(xùn)練框架并沒(méi)有給出完整的訓(xùn)練配置與腳本,需要用戶花費(fèi)額外時(shí)間進(jìn)行煩瑣的補(bǔ)全和調(diào)試

不同于其他解決方案,Colossal-AI是首個(gè)同時(shí)開源完整的訓(xùn)練配置參數(shù)和訓(xùn)練腳本的方案,讓用戶可以隨時(shí)訓(xùn)練出針對(duì)新下游任務(wù)的最新版細(xì)分模型,使用更加靈活且應(yīng)用范圍更廣。而且由于Colossal-AI引入顯存優(yōu)化等技術(shù),普通個(gè)人電腦的單張消費(fèi)級(jí)顯卡上(如GeForce RTX 2070/3050 8GB,即可快速完成微調(diào)任務(wù)流程,相比RTX 3090或4090可降低約7倍硬件成本,大大降低了使用Stable Diffusion等AIGC模型的門檻和成本,使用戶不再局限于現(xiàn)有的權(quán)重推理,方便快捷完成個(gè)性化定制服務(wù)。對(duì)于速度不敏感的任務(wù),還可以進(jìn)一步使用Colossal-AI NVMe,即利用低成本的硬盤空間降低顯存消耗。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地

背后優(yōu)化技術(shù)

  • ZeRO + Gemini

Colossal-AI支持使用零冗余優(yōu)化器 (ZeRO)的方法來(lái)消除內(nèi)存冗余,與經(jīng)典的數(shù)據(jù)并行性策略相比,可極大提高內(nèi)存使用效率,同時(shí)不犧牲計(jì)算粒度和通信效率。Colossal-AI 引入了Chunk機(jī)制,我們可以進(jìn)一步提升ZeRO的性能。運(yùn)算順序上連續(xù)的一組參數(shù)存入一個(gè)Chunk中(Chunk即一段連續(xù)的內(nèi)存空間),每個(gè)Chunk的大小相同。Chunk方式組織內(nèi)存可以保證PCI-e和GPU-GPU之間網(wǎng)絡(luò)帶寬的高效利用,減小了通信次數(shù),同時(shí)避免潛在的內(nèi)存碎片。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
Chunk機(jī)制

?

此外,Colossal-AI的異構(gòu)內(nèi)存空間管理器Gemini支持將優(yōu)化器狀態(tài)從 GPU 卸載到 CPU ,以節(jié)省 GPU 內(nèi)存占用??梢酝瑫r(shí)利用 GPU 內(nèi)存、CPU 內(nèi)存(由 CPU DRAM 或 NVMe SSD內(nèi)存組成)來(lái)突破單GPU內(nèi)存墻的限制,進(jìn)一步擴(kuò)展了可訓(xùn)練模型規(guī)模。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
通過(guò)ZeRO + Gemini提升硬件的模型容量
  • Flash Attention

LDM(Latent Diffusion Models)通過(guò)在模型架構(gòu)中引入cross-attention(交叉注意力層)來(lái)實(shí)現(xiàn)多模態(tài)訓(xùn)練,使得Diffusion model可以更靈活地實(shí)現(xiàn)對(duì)class-condition, text-to-image, layout-to-image的支持。然而cross-attention層對(duì)比原始Diffusion model的CNN層增加了額外的計(jì)算開銷,極大增加了訓(xùn)練成本。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地

?Colossal-AI通過(guò)引入Flash attention機(jī)制,成功將attention的速度提升104%,將端到端訓(xùn)練的峰值顯存減少23%。Flash attention是針對(duì)長(zhǎng)序列attention的加速版本,使用Flatten來(lái)減少GPU高帶寬內(nèi)存(HBM)之間的內(nèi)存讀/寫次數(shù), Flash attention同時(shí)針對(duì)塊狀稀疏的attention,設(shè)計(jì)了一個(gè)近似的注意力算法,比任何現(xiàn)有的近似attention方法都要快。

  • 其他優(yōu)化

Colossal-AI還集成了FP16、activation checkpoint等常見優(yōu)化技術(shù)。例如,activate checkpoint通過(guò)用計(jì)算換取內(nèi)存來(lái)工作。它避免存儲(chǔ)整個(gè)計(jì)算圖的所有中間激活用于反向計(jì)算,在檢查點(diǎn)部分不保存中間激活,而是在反向傳遞中重新計(jì)算它們,進(jìn)一步降低了顯存。而FP16在基本不影響精度前提下,將原本的32位浮點(diǎn)數(shù)運(yùn)算轉(zhuǎn)為16位,降低顯存使用,提升計(jì)算效率。

快速上手使用

不同于常見的PyTorch開源項(xiàng)目,當(dāng)前火熱的stable diffusion是基于PyTorch Lightning搭建的。PyTorch Lightning為流行的深度學(xué)習(xí)框架PyTorch提供了簡(jiǎn)潔易用、靈活高效的高級(jí)接口,為廣大AI研究人員提供了簡(jiǎn)潔易用的高層次抽象,從而使深度學(xué)習(xí)實(shí)驗(yàn)更易于閱讀和再現(xiàn),已在GitHub上收獲了20.5k顆Star。

受PyTorch Lightning的邀請(qǐng),Colossal-AI已集成作為PyTorch Lightning的官方大模型解決方案得益于兩者的強(qiáng)強(qiáng)聯(lián)合,現(xiàn)在AI研究者們可以更加高效地訓(xùn)練和使用diffusion模型。以訓(xùn)練stable diffusion model為例,僅需少量代碼即可快捷啟動(dòng)。

from colossalai.nn.optimizer import HybridAdam
from lightning.pytorch import trainer

class MyDiffuser(LightningModule):
    ...

    def configure_sharded_model(self) -> None:
        # create your model here
        self.model = construct_diffuser_model(...)
        ...

    def configure_optimizers(self):
        # use the specified optimizer
        optimizer = HybridAdam(self.model.parameters(), self.lr)
        ...

model = MyDiffuser()
trainer = Trainer(accelerator="gpu", devices=1, precision=16, strategy="colossalai")
trainer.fit(model)

Colossal-AI和PyTorch Lightning也對(duì)OPT、HuggingFace等熱門模型和社區(qū)提供了良好支持及優(yōu)化。

  • 低成本微調(diào)

Colossal-AI為了滿足用戶通過(guò)較少資源短時(shí)間訓(xùn)練出可以生成有自己風(fēng)格的模型的需求,提供了基于HuggingFace上開源的Stable Diffusion模型權(quán)重進(jìn)行微調(diào)的功能。用戶只需簡(jiǎn)單修改Dataloader載入自己的微調(diào)數(shù)據(jù)集并讀取預(yù)訓(xùn)練權(quán)重,簡(jiǎn)單修改參數(shù)配置yaml文件并運(yùn)行訓(xùn)練腳本,便可在個(gè)人電腦微調(diào)屬于自己的個(gè)性化模型。

model:
  target: ldm.models.diffusion.ddpm.LatentDiffusion
  params:
    your_sub_module_config:
      target: your.model.import.path
      params:
        from_pretrained: 'your_file_path/unet/diffusion_pytorch_model.bin'
        ...

lightning:
  trainer:
    strategy:
      target: pytorch_lightning.strategies.ColossalAIStrategy
      params:
        ...
 
 python main.py --logdir /your_log_dir -t -b config/train_colossalai.yaml 
  • 快速推理

Colossal-AI同時(shí)支持原生Stable Diffusion推理管道,在完成訓(xùn)練或精調(diào)后只需直接調(diào)用diffuser庫(kù)并加載自己保存的模型參數(shù)即可直接進(jìn)行推理,無(wú)需進(jìn)行其他改動(dòng),方便新用戶熟悉推理流程并可以讓習(xí)慣使用原版框架的用戶快速上手。

from diffusers import StableDiffusionPipeline

pipe = StableDiffusionPipeline.from_pretrained(
    "your_ColoDiffusion_checkpoint_path"
    ).to("cuda")
    
image = pipe('your prompt', num_inference_steps=50)["sample"][0]
image.save('file path')
Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
上述推理流程的生成作品

?

One More Thing

上述針對(duì)Diffusion為代表的AIGC訓(xùn)練優(yōu)化突破基于面向大模型時(shí)代的通用深度學(xué)習(xí)系統(tǒng) Colossal-AI,它通過(guò)高效多維自動(dòng)并行、異構(gòu)內(nèi)存管理、大規(guī)模優(yōu)化庫(kù)、自適應(yīng)任務(wù)調(diào)度等實(shí)現(xiàn)高效快速部署AI大模型訓(xùn)練和推理,降低AI大模型應(yīng)用成本。自開源以來(lái),Colossal-AI已經(jīng)多次在GitHub及Papers With Code熱榜位列世界第一,與眾多已有數(shù)萬(wàn)star的明星開源項(xiàng)目一起受到海內(nèi)外關(guān)注!經(jīng)國(guó)際專家的嚴(yán)格評(píng)審,Colossal-AI已成功入選為SC、AAAI、PPoPP等國(guó)際AI與HPC頂級(jí)會(huì)議的官方教程。

Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地
Colossal-AI應(yīng)用:更好的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)解決方案

Colossal-AI相關(guān)解決方案已成功在自動(dòng)駕駛、云計(jì)算、零售、醫(yī)藥、芯片等行業(yè)知名廠商落地應(yīng)用,廣受好評(píng)。例如,針對(duì)生物醫(yī)藥行業(yè)的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型AlphaFold,基于Colossal-AI的優(yōu)化方案FastFold成功將單張GPU可推理的最大氨基酸序列長(zhǎng)度突破至一萬(wàn),覆蓋了99.9999%的蛋白質(zhì),僅用筆記本電腦上的消費(fèi)級(jí)顯卡即可解析90%蛋白質(zhì)。還能進(jìn)一步對(duì)訓(xùn)練、推理進(jìn)行全流程并行加速,已助力多家新型藥物研發(fā)企業(yè)縮短開發(fā)流程,降低研發(fā)成本。

開源地址:https://github.com/hpcaitech/ColossalAI

參考鏈接:

https://github.com/CompVis/stable-diffusion

https://arxiv.org/abs/2205.14135

https://arxiv.org/abs/2112.10752

https://openai.com/blog/triton/文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-487291.html

到了這里,關(guān)于Diffusion預(yù)訓(xùn)練成本降低6.5倍,微調(diào)硬件成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產(chǎn)業(yè)落地的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 云計(jì)算的成本優(yōu)勢(shì):如何降低運(yùn)營(yíng)成本

    云計(jì)算是一種基于互聯(lián)網(wǎng)的計(jì)算資源共享和分布式處理模式,它能夠?qū)崿F(xiàn)計(jì)算資源的集中管理和集中調(diào)度,從而降低運(yùn)營(yíng)成本。在傳統(tǒng)的計(jì)算模式下,企業(yè)需要購(gòu)買和維護(hù)自己的硬件設(shè)備和軟件系統(tǒng),這會(huì)帶來(lái)很高的運(yùn)營(yíng)成本。而云計(jì)算則可以讓企業(yè)通過(guò)互聯(lián)網(wǎng)訪問(wèn)共享的計(jì)

    2024年04月09日
    瀏覽(22)
  • GPT系列訓(xùn)練與部署——Colossal-AI環(huán)境配置與測(cè)試驗(yàn)證

    GPT系列訓(xùn)練與部署——Colossal-AI環(huán)境配置與測(cè)試驗(yàn)證

    ????????Colossal-AI框架主要特色在于對(duì)模型進(jìn)行并行訓(xùn)練與推理(多GPU),從而提升模型訓(xùn)練效率,可快速實(shí)現(xiàn)分布式訓(xùn)練與推理。目前,該框架已集成很多計(jì)算機(jī)視覺(jué)(CV)和自然語(yǔ)言處理(NLP)方向的算法模型,特別是包括GPT和Stable Diffusion等系列大模型的訓(xùn)練和推理。

    2024年02月08日
    瀏覽(18)
  • 真實(shí)記錄阿里云實(shí)踐成本優(yōu)化,成本直接降低一半

    真實(shí)記錄阿里云實(shí)踐成本優(yōu)化,成本直接降低一半

    本文真實(shí)記錄3個(gè)月阿里云成本降低案例,先說(shuō)結(jié)論,核心服務(wù)性能更佳,成本優(yōu)化超一半,運(yùn)維管理更自動(dòng)化。 前言:本文不一定適合所有的阿里云使用者,其中優(yōu)化的手段大部分可以借鑒參考,同時(shí)不涉及到包年包月購(gòu)買方式的省錢方案,純粹為技術(shù)方面的優(yōu)化,比較合

    2024年02月10日
    瀏覽(19)
  • 如何降低云計(jì)算成本?

    降低云計(jì)算成本的方法有很多,以下是一些關(guān)鍵的策略和建議: 優(yōu)化資源使用 : 自動(dòng)縮放 :根據(jù)工作負(fù)載的需求自動(dòng)調(diào)整計(jì)算資源的大小。對(duì)于不需要大量擴(kuò)展的低優(yōu)先級(jí)工作負(fù)載,可以設(shè)置性能限制,并在適當(dāng)?shù)那闆r下配置自動(dòng)縮放設(shè)置以使用最少數(shù)量的必要資源來(lái)滿足

    2024年04月09日
    瀏覽(17)
  • 制圖成本降低80%,百度如何打造輕地圖?

    制圖成本降低80%,百度如何打造輕地圖?

    作者| HiEV 編輯| 張祥威 編者注: 本文是HiEV出品的系列直播「智駕地圖之變」第一期問(wèn)答環(huán)節(jié)內(nèi)容整理。百度智駕地圖業(yè)務(wù)部主任架構(gòu)師萬(wàn)聰與連線嘉賓鑒智機(jī)器人技術(shù)副總裁潘屹峰、領(lǐng)駿科技研發(fā)副總裁嚴(yán)晗、主持嘉賓周琳展開深度交流,并進(jìn)行了答疑。 本期百度分享內(nèi)容

    2024年02月11日
    瀏覽(24)
  • 情報(bào)與GPT技術(shù)大幅降低魚叉攻擊成本

    情報(bào)與GPT技術(shù)大幅降低魚叉攻擊成本

    郵件魚叉攻擊(spear phishing attack)是一種高度定制化的網(wǎng)絡(luò)詐騙手段,攻擊者通常假裝是受害人所熟知的公司或組織發(fā)送電子郵件,以騙取受害人的個(gè)人信息或企業(yè)機(jī)密。 以往郵件魚叉攻擊需要花費(fèi)較多的時(shí)間去采集情報(bào)、深入了解受害者,再訂制欺騙內(nèi)容,引導(dǎo)受害者進(jìn)入

    2024年02月11日
    瀏覽(19)
  • 低代碼技術(shù):提高效率降低成本的全新選擇

    低代碼技術(shù):提高效率降低成本的全新選擇

    企業(yè)想要獨(dú)立的應(yīng)用程序,開發(fā)者在尋求更快速、更高效、更靈活的開發(fā)方法,以適應(yīng)快速變化的市場(chǎng)需求。在這個(gè)背景下,低代碼技術(shù)以提高效率降低成本的方式走進(jìn)人們視野,成為了一種全新的應(yīng)用程序開發(fā)方式。 (1)提高開發(fā)效率: 低代碼技術(shù)可以將開發(fā)過(guò)程中的大

    2024年02月16日
    瀏覽(16)
  • 如何降低電動(dòng)汽車軟件的開發(fā)成本和風(fēng)險(xiǎn)?

    大多數(shù)的汽車制造商無(wú)法從銷售電動(dòng)汽車(EV)中獲得利潤(rùn),但計(jì)劃快速進(jìn)入市場(chǎng)的電動(dòng)汽車初創(chuàng)公司是無(wú)法承擔(dān)這樣的損失的。 由于飆升的電池價(jià)格、高昂的組件成本和低迷的銷量削弱了盈利能力,電動(dòng)汽車初創(chuàng)公司必須將視線轉(zhuǎn)到軟件開發(fā),從預(yù)算、進(jìn)度和人力投入水平

    2024年02月04日
    瀏覽(26)
  • 構(gòu)建完善的幫助中心,降低企業(yè)客戶服務(wù)成本

    構(gòu)建完善的幫助中心,降低企業(yè)客戶服務(wù)成本

    隨著信息技術(shù)的發(fā)展和應(yīng)用的普及,越來(lái)越多的企業(yè)已開始意識(shí)到,通過(guò)構(gòu)建完善的幫助中心,可以有效地降低企業(yè)客戶服務(wù)成本,提高客戶滿意度。一個(gè)完善的幫助中心不僅僅是企業(yè)用于回答客戶問(wèn)題的工具,更是客戶自主獲取和消化信息的重要途徑。 降低客戶服務(wù)成本

    2024年02月06日
    瀏覽(21)
  • 物聯(lián)網(wǎng)與智能物流:提高物流效率和降低成本

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 隨著經(jīng)濟(jì)全球化進(jìn)程的加速,物流業(yè)也在經(jīng)歷一個(gè)從供需雙方合作、互利共贏到互補(bǔ)競(jìng)爭(zhēng)的轉(zhuǎn)型過(guò)程。傳統(tǒng)的物流方式雖然保障了商品運(yùn)輸?shù)陌踩?,但是效率低下,使得公司生產(chǎn)效率成為瓶頸。而物聯(lián)網(wǎng)(IoT)的出現(xiàn)則改變了這一現(xiàn)狀。物聯(lián)網(wǎng)

    2024年02月07日
    瀏覽(16)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包