葉梓,上海交通大學計算機專業(yè)博士畢業(yè),高級工程師。主研方向:數(shù)據挖掘、機器學習、人工智能。歷任國內知名上市IT企業(yè)的AI技術總監(jiān)、資深技術專家,市級行業(yè)大數(shù)據平臺技術負責人。
長期負責城市信息化智能平臺的建設工作,開展行業(yè)數(shù)據的智能化應用研發(fā)工作,牽頭多個省級、市級行業(yè)智能化信息系統(tǒng)的建設,主持設計并搭建多個省級、市級行業(yè)大數(shù)據平臺。參與國家級人工智能課題,牽頭上海市級人工智能示范應用課題研究。
帶領團隊在相關行業(yè)領域研發(fā)多款人工智能創(chuàng)新產品,成功落地多項大數(shù)據、人工智能前沿項目,其中信息化智能平臺項目曾榮獲:“上海市信息技術優(yōu)秀應用成果獎”。帶領團隊在參加國際NLP算法大賽,獲得Top1%的成績。參與國家級、省級大數(shù)據技術標準的制定,曾獲省部級以上的科技創(chuàng)新一等獎。
大語言模型技術原理與實踐
【課程簡介】
本課程旨在通過實際案例展示ChatGPT、ChatGLM、Langchain等相關大語言模型的具體應用場景及實踐技巧,從而幫助學習者深入了解和掌握大語言模型的概念和更廣泛的應用,深入理解其工作方式,包括其基礎知識、核心算法和實現(xiàn)方式,掌握其在各行業(yè)領域中的應用情況等。
該課程適合于對大語言模型技術感興趣的學習者,從初學者到進階者均可受益。經過本課程的學習,獲得相關技術實戰(zhàn)經驗,通過一系列的實踐案例提高利用大模型解決實際問題能力。
【課程時長】
3天(6小時/天)
【課程對象】
理工科本科及以上,且至少了解一門編程語言。
【課程大綱】(培訓內容可根據客戶需求調整)
Day1下午 |
強化學習基礎
chatGPT的原理介紹 1、指示學習與InstructGPT 2、相關數(shù)據集 3、有監(jiān)督微調(SFT) 4、從人類反饋中RL的思路 5、獎勵建模(RM) 6、運用PPO改進 |
Day2上午 |
ChatGLM部署 1、ChatGLM3-6B介紹 2、ChatGLM3搭建流程 3、應用場景(工具調用、代碼執(zhí)行) 4、權重量化 ChatGLM3原理 1、Code Interpreter 2、多模態(tài)CogVLM 3、WebGLM搜索增強 微調大模型 1、基于chatGLM的微調 2、LoRA 3、Prefix Tuning 4、P-Tuning 5、Prompt Tuning 6、freeze 7、構建訓練數(shù)據集 |
Day2下午 |
其他開源大模型 1、LLaMA系列 2、通義千問(qwen) 3、零一萬物(Yi) llama-factory微調大模型 1、工具的主要功能 2、支持的模型 3、數(shù)據集準備 4、微調策略(LoRA, QLoRA, PEFT) |
Day3上午 |
學習LangChain所需的知識儲備 1、詞嵌入與語義空間 2、高維向量的快速模糊匹配 3、局部敏感哈希(LSH) 4、向量數(shù)據庫 LangChain的原理 1、大模型利用的難點與痛點 2、Langchain的基本思路 3、關鍵組件 |
Day3下午 |
LangChain的實操 1、環(huán)境搭建 2、知識庫向量化與存儲 3、問句向量化與初步匹配 4、合成prompt(提示詞) 5、提交給LLM生成答案 大語言模型的其他應用 1、kimi chat 2、coze文章來源:http://www.zghlxwxcb.cn/news/detail-835959.html 3、文心一格與通義萬相文章來源地址http://www.zghlxwxcb.cn/news/detail-835959.html |
到了這里,關于人工智能講師AI講師大模型講師葉梓介紹及大語言模型技術原理與實踐提綱的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!