国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

生成式AI和大語言模型 Generative AI & LLMs

這篇具有很好參考價值的文章主要介紹了生成式AI和大語言模型 Generative AI & LLMs。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理
在“使用大型語言模型(LLMs)的生成性AI”中,您將學習生成性AI的基本工作原理,以及如何在實際應用中部署它。

通過參加這門課程,您將學會:

  • 深入了解生成性AI,描述基于LLM的典型生成性AI生命周期中的關鍵步驟,從數(shù)據(jù)收集和模型選擇,到性能評估和部署
  • 詳細描述為LLMs提供動力的變換器架構,它們是如何被訓練的,以及微調如何使LLMs能夠適應各種特定的用例
  • 使用經(jīng)驗性的縮放法則來優(yōu)化模型的目標函數(shù),跨數(shù)據(jù)集大小、計算預算和推斷要求
  • 應用最先進的訓練、調整、推斷、工具和部署方法,以在項目的特定約束條件下最大化模型的性能
  • 在聽取行業(yè)研究人員和從業(yè)者的故事后,討論生成性AI為企業(yè)帶來的挑戰(zhàn)和機會

對于那些對LLMs的工作原理有良好基礎理解的開發(fā)者,以及了解訓練和部署它們背后的最佳實踐的人,他們將能夠為公司做出明智的決策,并更快地構建工作原型。這門課程將幫助學習者建立關于如何最好地利用這一令人興奮的新技術的實用直覺。

這是一門中級課程,所以您應該有一些Python編碼的經(jīng)驗,以便從中獲得最大的收益。您還應該熟悉機器學習的基礎知識,如有監(jiān)督和無監(jiān)督學習、損失函數(shù)、以及將數(shù)據(jù)分為訓練、驗證和測試集。如果您已經(jīng)參加了DeepLearning.AI的機器學習專項課程或深度學習專項課程,那么您將準備好參加這門課程,并深入探討生成性AI的基礎知識。

我們將討論大型語言模型、它們的使用案例、模型如何工作、提示工程、如何生成創(chuàng)意文本輸出,并為生成性AI項目概述一個項目生命周期。
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理

考慮到您對這門課程的興趣,可以肯定地說,您已經(jīng)有機會嘗試一個生成性AI工具或希望這樣做。無論是聊天機器人、
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理
從文本生成圖像,
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理

還是使用插件幫助您開發(fā)代碼,
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理

您在這些工具中看到的都是一臺能夠創(chuàng)建模仿或接近人類能力的內容的機器。

生成性AI是傳統(tǒng)機器學習的一個子集。支撐生成性AI的機器學習模型通過在由人類最初生成的大量內容數(shù)據(jù)集中找到統(tǒng)計模式來學習這些能力。大型語言模型經(jīng)過數(shù)周和數(shù)月的時間,在數(shù)萬億的詞上進行了訓練,并使用了大量的計算能力。我們稱之為基礎模型的這些模型,擁有數(shù)十億的參數(shù),展現(xiàn)出超越語言本身的突現(xiàn)性質,研究人員正在解鎖它們分解復雜任務、推理和解決問題的能力。
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理

這里是一系列基礎模型的集合,有時被稱為基礎模型,以及它們在參數(shù)方面的相對大小。稍后您將更詳細地了解這些參數(shù),但現(xiàn)在,請將它們視為模型的記憶。模型的參數(shù)越多,記憶就越多,事實證明,它可以執(zhí)行的任務也越復雜。在整個課程中,我們將用這些紫色的圓圈代表LLM,在實驗室中,您將使用一個特定的開源模型,flan-T5,來執(zhí)行語言任務。通過直接使用這些模型或應用微調技術將它們適應您的特定用例,您可以迅速構建定制解決方案,而無需從頭開始訓練新模型。

現(xiàn)在,雖然為多種模式創(chuàng)建了生成性AI模型,包括圖像、視頻、音頻和語音,但在這門課程中,您將重點關注大型語言模型及其在自然語言生成中的用途。您將了解它們是如何構建和訓練的,如何通過文本與它們互動,這些文本被稱為提示。以及如何為您的用例和數(shù)據(jù)微調模型,以及如何與應用程序一起部署它們來解決您的商業(yè)和社會任務。

與語言模型互動的方式與其他機器學習和編程范式大不相同。在那些情況下,您使用正式化的語法編寫計算機代碼與庫和API互動。相反,大型語言模型能夠接受自然語言或人類編寫的指令,并像人類一樣執(zhí)行任務。您傳遞給LLM的文本被稱為提示??捎糜谔崾镜目臻g或記憶稱為上下文窗口,這通常足夠容納幾千個詞,但因模型而異。
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理

在這個例子中,您要求模型確定Ganymede在太陽系中的位置。提示傳遞給模型,模型然后預測下一個詞,因為您的提示包含了一個問題,這個模型生成了一個答案。模型的輸出稱為完成,使用模型生成文本的行為稱為推斷。完成包括原始提示中包含的文本,后跟生成的文本。您可以看到這個模型很好地回答了您的問題。它正確地識別出Ganymede是木星的一顆衛(wèi)星,并為您的問題生成了一個合理的答案,說明這顆衛(wèi)星位于木星的軌道內。

在整個課程中,您將看到許多這種風格的提示和完成的示例。
生成式AI和大語言模型 Generative AI & LLMs,LLM-Large Language Models,人工智能,語言模型,自然語言處理文章來源地址http://www.zghlxwxcb.cn/news/detail-658912.html

參考

  • https://www.coursera.org/programs/hsbc-finance-people-and-personal-development-dnger/learn/generative-ai-with-llms
  • https://www.coursera.org/learn/generative-ai-with-llms/lecture/IrsEw/generative-ai-llms

到了這里,關于生成式AI和大語言模型 Generative AI & LLMs的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Hugging Face 的文本生成和大語言模型的開源生態(tài)

    Hugging Face 的文本生成和大語言模型的開源生態(tài)

    [更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和對話技術已經(jīng)出現(xiàn)多年了。早期的挑戰(zhàn)在于通過設置參數(shù)和分辨偏差,同時控制好文本忠實性和多樣性。更忠實的輸出一般更缺少創(chuàng)造性,并且和原始訓練數(shù)據(jù)更加接近,也更不像人話。最近的研究克服了這些困難,并且友

    2024年02月13日
    瀏覽(19)
  • 【AI實戰(zhàn)】開源大語言模型LLMs匯總

    【AI實戰(zhàn)】開源大語言模型LLMs匯總

    大語言模型(LLM)是指使用大量文本數(shù)據(jù)訓練的深度學習模型,可以生成自然語言文本或理解語言文本的含義。大語言模型可以處理多種自然語言任務,如文本分類、問答、對話等,是通向人工智能的一條重要途徑。來自百度百科 發(fā)展歷史 2020年9月,OpenAI授權微軟使用GPT-3模

    2024年02月12日
    瀏覽(55)
  • 【LLM】金融大模型場景和大模型Lora微調實戰(zhàn)

    【LLM】金融大模型場景和大模型Lora微調實戰(zhàn)

    金融行業(yè)需要垂直領域LLM,因為存在金融安全和數(shù)據(jù)大多數(shù)存儲在本地,在風控、精度、實時性有要求 (1)500億參數(shù)的BloombergGPT BloombergGPT金融大模型也是用transformer架構,用decoder路線, 構建目前規(guī)模最大的金融數(shù)據(jù)集FINPILE,對通用文本+金融知識的混合訓練。 用了512塊40

    2024年02月12日
    瀏覽(17)
  • [AI]如何讓語言模型LLMs流式輸出:HuggingFace Transformers實現(xiàn)

    HugginFace Transforms是一個非常方便的庫,集成了非常多SOTA的模型,包含:LLAMA, GPT, ChatGLM Moss,等。目前基本上主流的方案都是基于HugginFace Transforms這個框架實現(xiàn)的。以前如果要流式輸出需要自己去改模型底層的推理邏輯。 如ChatGLM,自己實現(xiàn)的流式輸出如下: hugging face也注意到

    2024年02月16日
    瀏覽(25)
  • AI:大語言模型LLM

    LLM 大語言模型(Large Language Model,LLM)是一種利用大量文本數(shù)據(jù)進行訓練的自然語言處理模型,其評價可以從多個方面進行。 以下是一些主要的評價方面: 語言理解和生成能力: 評價大語言模型在自然語言理解(如語義理解、實體識別、情感分析等)和自然語言生成(如文

    2024年02月05日
    瀏覽(21)
  • 3個控制LLM生成隨機性的語言模型參數(shù)

    你可能已經(jīng)使用 ChatGPT 或任何其他主要的LLM來構建系統(tǒng)、執(zhí)行分類任務、回答問題或將其用作各種創(chuàng)造性和信息性任務的輔助。 然而,控制這些模型的輸出以滿足特定要求或匹配所需的風格至關重要。 在本文中,我們將重點關注影響語言模型輸出的三個基本參數(shù):top-k、to

    2024年01月17日
    瀏覽(20)
  • LLM(大語言模型)解碼時是怎么生成文本的?

    transformers==4.28.1 源碼地址:transformers/configuration_utils.py at v4.28.1 · huggingface/transformers (github.com) 文檔地址:Generation (huggingface.co) 對于生成任務而言:text-decoder, text-to-text, speech-to-text, and vision-to-text models,有以下幾種生成的方法: greedy decoding by calling [ ~generation.GenerationMixin.gre

    2023年04月25日
    瀏覽(31)
  • AI和軟件測試結合-使用LLM將自然語言生成TestCase

    曾在工作之余,設想過一個能提升測試流程左側效率的點子,結合人工智能,將自然語言自動轉化為通用的功能用例、接口用例、代碼單元測試用例等一系列用例,碰上這2年LLM模型大爆發(fā),遂有自己煉一個用例生成的專用模型的想法。 用戶需求: 用戶能夠以自然語言形式描

    2024年02月02日
    瀏覽(18)
  • LLM大語言模型算法特訓,帶你轉型AI大語言模型算法工程師

    LLM大語言模型算法特訓,帶你轉型AI大語言模型算法工程師

    LLM(大語言模型)是指大型的語言模型,如GPT(Generative Pre-trained Transformer)系列模型。以下是《LLM大語言模型算法特訓,帶你轉型AI大語言模型算法工程師》課程可能包含的內容: 課程可能會介紹大語言模型的原理、架構和訓練方法,包括Transformer架構、自注意力機制、預訓

    2024年04月22日
    瀏覽(61)
  • LLM-Blender: 用成對排序和生成融合集成大型語言模型

    LLM-Blender: 用成對排序和生成融合集成大型語言模型

    LLM-Blender: Ensembling Large Language Models with Pairwise Ranking and Generative Fusion Dongfu Jiang, Xiang Ren, Bill Yuchen Lin [Zhejiang University University of Southern California Allen Institute for Artificial Intelligence] LLM-Blender: 用成對排序和生成融合集成大型語言模型 動機:大型語言模型(LLM)在多種任務中表現(xiàn)出了令

    2024年02月11日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包