国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AIGC(生成式AI)試用 17 -- 續(xù)2,生成式AI是什么

這篇具有很好參考價值的文章主要介紹了AIGC(生成式AI)試用 17 -- 續(xù)2,生成式AI是什么。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

? ? 還是培訓(xùn)資料中的內(nèi)容,重讀一遍。
? ??列舉內(nèi)容,嘗試理解的多那么一點點。

1. 生成式AI

  • 生成式AI定義

    - Generative AI, GenAI
    - 一種人工智能技術(shù)
    - 對已經(jīng)數(shù)據(jù)分類、預(yù)測
    -?生成新的內(nèi)容,包括文本、圖像、音頻、視頻
    - 由大量數(shù)據(jù)語料庫預(yù)訓(xùn)練大模型提供動力(基礎(chǔ)模型,F(xiàn)oundation Model, FM)
    - 通過深度學習模型實現(xiàn)

    參考:
    生成式AI的歷史和發(fā)展(關(guān)鍵技術(shù)) - 知乎
    人工智能發(fā)展史(上) - 知乎
    人工智能發(fā)展史(下) - 知乎
  • 生成式AI相關(guān)

    - 人工智能,AI,允許計算機使用邏輯、if-then語句以及機器學習來模仿人類智能的技術(shù)
    - 機器學習,ML,人工智能的子集,利用機器搜索數(shù)據(jù)中的模式來自動建立邏輯模型
    - 深度學習,DL,由深度多層神經(jīng)網(wǎng)絡(luò)組成的機器學習的子集,執(zhí)行語音和圖像識別任務(wù)
    - 生成式人工智能
  • 生成式AI模型活動

    - 未標記數(shù)據(jù) -> 預(yù)訓(xùn)練 -> 基礎(chǔ)模型 -> 適配?-> 常規(guī)任務(wù):文本生成、文字摘要、信息提取、圖像生成、聊天機器人、問題回復(fù)答?
    - 預(yù)訓(xùn)練
    - 模型微調(diào)
    - 提示詞工程
  • 生成式AI基礎(chǔ)模型 -- 陌生領(lǐng)域。。。后續(xù)補充

    - GPT,generative pre-trained transformer,生成式預(yù)訓(xùn)練transformer,基于transformer的生成式語言模型,可以生成逼真的文本
    - GAN,generative adversarial network,生成式對抗網(wǎng)絡(luò),包含了生成器和判斷器的對抗網(wǎng)絡(luò),可以生成逼真的圖像
    - VAE,variatonal autoencoder,變分自動編碼器,基于概率編碼的生成模型,可以學習數(shù)據(jù)的潛在分布,并從中采樣生成新數(shù)據(jù),在無監(jiān)督學習中廣泛應(yīng)用
    - 自動編碼器,autoencoder,無監(jiān)督神經(jīng)網(wǎng)絡(luò),通過學習如何有效壓縮和解壓數(shù)據(jù)來得到數(shù)據(jù)的潛在表示,用于生成圖像、文本
    - WaveNet,生成原始音頻波形的神經(jīng)網(wǎng)絡(luò),生成人類語言
    - DALL-E,openAI研發(fā)的一種基于GPT和CLIP的圖像生成模型
    - AlphaFold,deepMind開發(fā)的蛋白質(zhì)結(jié)構(gòu)預(yù)測生成模型
    - 多模態(tài)模型
  • 生成式AI特點

    - 基礎(chǔ)模型包含大量參數(shù),能夠掌握復(fù)雜規(guī)律
    - 具有超強的泛化能力,在文泛的上下文中運用知識
    - 支持自定義,使用企業(yè)內(nèi)部數(shù)據(jù),執(zhí)行特定域的功能
    - 具有一定創(chuàng)造力

    因此生成式AI
    - 體驗,創(chuàng)造產(chǎn)品與客戶互動的全新、吸引人的、創(chuàng)新方式
    - 效率,從根本上提高業(yè)務(wù)效率
    - 總結(jié),從企業(yè)信息中提取見解和答案,快速做出決策
    - 創(chuàng)新,經(jīng)由訓(xùn)練和提示,創(chuàng)作新內(nèi)容和新想法
  • 生成式AI參與者

    - LLM,Large Language Model,大型語言模型,具有數(shù)十億參數(shù) (B+) 的預(yù)訓(xùn)練語言模型 (GPT-3, Bloom, LLaMa, GLM);用于各種自然語言處理任務(wù),如文 本生成、機器翻譯和自然語言理解等。
    -?P. Model Provider,從零開始預(yù)訓(xùn)練大型模型 (FM, LLM),供下游使用。專注于訓(xùn)練具有超過上億級別參數(shù)的Transformer和 Diffusion模型,如 (GPT 類,Stable Diffusion, Bloom, XLNet, LLaMa, OPT, GLM, etc.)
    - T. Model Tuner,從Model Providers 購買預(yù)訓(xùn)練模型或者使用開源模型 (LLM, FM) 并進行個性化定制 (Fine-Tune),結(jié)合特定行業(yè)或者細化市場為最終用戶構(gòu)建產(chǎn)品和解決方案,通常是 SaaS 類服務(wù)
    -?C. Model Consumer,直接使用預(yù)訓(xùn)練的模型 (LLM, FM, Fine-Tune model) 提升 Application 的使用體驗,提升業(yè)務(wù)價值。不對模型本身進行訓(xùn)練和定制,而是選擇現(xiàn)成的AI產(chǎn)品或者模型。
  • LLM,大語言模型 -- 陌生領(lǐng)域。。。后續(xù)補充

2. 生成式AI核心

  • Transformer

    - 轉(zhuǎn)換器
    - 一種神經(jīng)網(wǎng)絡(luò)架構(gòu)
    -?用于機器翻譯等自然語言處理任務(wù)
    -?設(shè)計之初用來解決機器翻譯問題
    - 由一個輸入序列轉(zhuǎn)換成一個輸出序列
    -?理論上能夠接受任意長度的句子輸入
  • Attention

    - 專注機制
    -?計算權(quán)重
    - Transformer架構(gòu)中的核心組件
    - 生成階段,讓模型能夠關(guān)注到輸入序列中最相關(guān)的部分
    - 對token在上下文中的語義做編碼,分別計算每個token對句子中的其他token的權(quán)重表示
    -?Self-Attention ???
    - Encoder-Decoder Atttention ???

3. 生成式AI存在的問題

  • 生成式AI產(chǎn)生的內(nèi)容引發(fā)的 著作權(quán) 和 知識產(chǎn)權(quán)問題
  • 安全問題

    - 提示詞注入 ???
    - 數(shù)據(jù)泄露
    - 不完善的沙盒隔離
    - 非授權(quán)代碼執(zhí)行
    - SSRF漏洞 ???
    - 過度依賴LLM生成內(nèi)容
    - 未充分對齊????
    - 訪問控制不足
    - 錯誤處置不當
    - 訓(xùn)練數(shù)據(jù)投毒
  • 數(shù)據(jù)操縱

    - 惡意用戶深度通過操作數(shù)據(jù)輸入,干擾AI模型的輸出
    ? * 通過數(shù)據(jù)驗證,確保輸入數(shù)據(jù)的完整性和真實性
    ? * 用戶身份驗證,防止惡意用戶干擾
    - 生成式AI輸出可信度不足
    ? * 輸出驗證,評估生成內(nèi)容可信度
    ? * 用戶反饋,改進輸出質(zhì)量
  • 惡意使用

    - 提示注入,誤導(dǎo) -> 對提示方法、敏感詞進行過濾
    - 提示泄露,挖坑、誘導(dǎo)性提示,導(dǎo)至敏感、安全信息泄露
    - 越獄 ???,利用漏洞,非法訪問

4.?遺留問題文章來源地址http://www.zghlxwxcb.cn/news/detail-816623.html

  • LSTM
  • Word Embedding
  • Self-Attention ???
  • Encoder-Decoder Atttention ???
  • 生成式AI模型分類
  • 生成式AI帶來的安全問題

到了這里,關(guān)于AIGC(生成式AI)試用 17 -- 續(xù)2,生成式AI是什么的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AIGC(生成式AI)試用 2 -- 胡言亂語

    ? ? 小時候曾希望做個科學家,才師笑著說:努力、加油,一定會實現(xiàn)的。 ? ? 也曾說要做個發(fā)明家,家人一笑了之:你那笨手笨腳的,想啥呢。 ? ? 也曾幻想自己要成為英雄,被朋友嘲笑:連架都不敢打,算了吧 ? ? 同樣的問題,生成式AI會怎么回答。 CSDN創(chuàng)作助手回復(fù)似

    2024年02月07日
    瀏覽(20)
  • AIGC(生成式AI)試用 7 -- 桌面小程序

    AIGC(生成式AI)試用 7 -- 桌面小程序

    ? ? 生成式AI,別人用來寫作,我先用來寫個桌面小程序。 ? ? 桌面小程序:計算器 ? ? 需求 Python開發(fā) 圖形界面,標題:計算器 + - * /?基本運算 計算范圍:-999999999 ~ 999999999 **?乘方計算(例,2**3=2*2*2=8) 記錄并顯示輸入及計算結(jié)果日志 - 文心一言的上下文繼承,可以對上

    2024年02月08日
    瀏覽(22)
  • AIGC(生成式AI)試用 13 -- 數(shù)據(jù)時效性

    ? ? 數(shù)據(jù)時效性? ? ? 最新的數(shù)據(jù),代表最新的狀態(tài),使用最新的數(shù)據(jù)也應(yīng)該最有說服力。 ? ? 學習需要時間,AIGC學習并接收最新數(shù)據(jù)的效果如何? ? ? 問題很簡單,如何驗證?這個需要找點更新快的對像進行驗證。。。。。。 抱歉無法處理,CSDN創(chuàng)作助手和文心一言均有

    2024年02月04日
    瀏覽(20)
  • AIGC(生成式AI)試用 6 -- 從簡單到復(fù)雜

    ? ??從簡單到復(fù)雜,這樣的一個用例該如何設(shè)計? ? ??之前淺嘗試用,每次嘗試也都是由淺至深、由簡單到復(fù)雜。 ? ??一點點的“喂”給生成式AI主題,以測試和驗證生成式AI的反饋。 ? ??AIGC(生成式AI)試用 1 -- 基本文本_Rolei_zl的博客-CSDN博客 ? ??AIGC(生成式AI)試用

    2024年02月08日
    瀏覽(16)
  • AIGC(生成式AI)試用 5 -- 從模糊到精確,再一步

    AIGC(生成式AI)試用 5 -- 從模糊到精確,再一步

    ? ? 參考?AIGC(生成式AI)試用 4 -- 從模糊到精確_Rolei_zl的博客-CSDN博客 ? ? 提問信息不足時,生成式AI有的會引導(dǎo)提問者給出更多信息,有的會按自己的理解給出一個在某些方面正確的答案 ? ? 隨著提供的信息越來越多,生成式AI給出的答案越來越接近想要的內(nèi)容,給出回復(fù)

    2024年02月06日
    瀏覽(52)
  • 什么是AIGC(AI Generated Content, 人工智能生成內(nèi)容)?

    AI生成內(nèi)容(AIGC,人工智能生成內(nèi)容)是一種新型的內(nèi)容創(chuàng)作方式,它繼承了專業(yè)生產(chǎn)內(nèi)容(PGC,Professional-generated Content)和用戶生成內(nèi)容(UGC,User-generated Content)的優(yōu)點,并充分發(fā)揮技術(shù)優(yōu)勢,打造了全新的數(shù)字內(nèi)容生成與交互形態(tài)。隨著科技的不斷發(fā)展,AI寫作、AI配樂

    2024年02月11日
    瀏覽(102)
  • 【AIGC】8、BLIP | 統(tǒng)一理解與生成任務(wù) 為圖像生成更高質(zhì)量的文本描述

    【AIGC】8、BLIP | 統(tǒng)一理解與生成任務(wù) 為圖像生成更高質(zhì)量的文本描述

    論文:BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation 代碼:https://github.com/salesforce/BLIP 線上體驗:https://huggingface.co/spaces/Salesforce/BLIP 出處:ICML 2022 | Salesforce Research 時間:2022.02 貢獻: 提出了一個可以聯(lián)合訓(xùn)練理解和生成任務(wù)的多模態(tài)混合模

    2024年02月09日
    瀏覽(233)
  • 【AIGC核心技術(shù)剖析】用于高效 3D 內(nèi)容創(chuàng)建生成(從單視圖圖像生成高質(zhì)量的紋理網(wǎng)格)

    【AIGC核心技術(shù)剖析】用于高效 3D 內(nèi)容創(chuàng)建生成(從單視圖圖像生成高質(zhì)量的紋理網(wǎng)格)

    3D 內(nèi)容創(chuàng)建的最新進展主要利用通過分數(shù)蒸餾抽樣 (SDS) 生成的基于優(yōu)化的 3D 生成。盡管已經(jīng)顯示出有希望的結(jié)果,但這些方法通常存在每個樣本優(yōu)化緩慢的問題,限制了它們的實際應(yīng)用。在本文中,我們提出了DreamGaussian,這是一種新穎的3D內(nèi)容生成框架,可以同時實現(xiàn)效

    2024年02月07日
    瀏覽(96)
  • 如何使用 Mokker AI快速生成高質(zhì)量的產(chǎn)品圖片

    如何使用 Mokker AI快速生成高質(zhì)量的產(chǎn)品圖片

    如果你是一名電商從業(yè)者,你可能會遇到這樣的問題:如何為你的產(chǎn)品拍攝出吸引人的圖片?你可能需要花費大量的時間和金錢,尋找合適的拍攝場地、道具、燈光等,或者委托專業(yè)的攝影師來完成這項工作。但是,有沒有一種更簡單、更便捷、更經(jīng)濟的方法呢? 答案是有的

    2024年02月21日
    瀏覽(27)
  • 用擴散AI生成的合成數(shù)據(jù)的質(zhì)量評估方法【4個指標】

    用擴散AI生成的合成數(shù)據(jù)的質(zhì)量評估方法【4個指標】

    在線工具推薦: Three.js AI紋理開發(fā)包 - YOLO合成數(shù)據(jù)生成器 - GLTF/GLB在線編輯 - 3D模型格式在線轉(zhuǎn)換 - 3D場景編輯器 為了生成有用的圖像數(shù)據(jù)集,我們使用真實世界的照片數(shù)據(jù)集作為指南針,探索即時工程的藝術(shù)。 我們的穩(wěn)定擴散(Stable Diffusion)實驗顯示了生成模仿現(xiàn)實世界場

    2024年04月15日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包