
??日?qǐng)?bào)&周刊合集 | ??生產(chǎn)力工具與行業(yè)應(yīng)用大全 | ?? 點(diǎn)贊關(guān)注評(píng)論拜托啦!

?? 哈佛神課 CS50 「AI課堂」經(jīng)驗(yàn)分享,讓萬(wàn)能的AI僅僅授之以漁

課程官網(wǎng) https://cs50.harvard.edu/x/2024/
雙語(yǔ)字幕 https://www.bilibili.com/video/BV16k4y1X7KZ
哈佛大學(xué) CS50 全稱(chēng)是 Introduction to Computer Science (計(jì)算機(jī)科學(xué)導(dǎo)論),是一門(mén)非常知名的計(jì)算機(jī)入門(mén)課程,在 David J. Malan 教授的講解下,課堂妙趣橫生。
本學(xué)期已經(jīng)結(jié)束,官方將視頻、Note、作業(yè)、項(xiàng)目、社區(qū)、常見(jiàn)問(wèn)題等課程相關(guān)資料,都發(fā)布在了 ?? 上方官網(wǎng),無(wú)需注冊(cè)就可以直接下載~

https://cs50.ai/
補(bǔ)充一份背景:幾個(gè)月前,ChatGPT 風(fēng)靡全球、勢(shì)頭正勁的時(shí)候,諸多高校對(duì)其「嚴(yán)防死守」,防止學(xué)生借助AI偷工減料。哈佛卻宣布在 CS50 課堂引入最近技術(shù),探討生成式AI與教育的結(jié)合。
作為探索AI與課堂融合的產(chǎn)品之一,CS50 Duck (CS50.ai 和 VS 插件) 是 CS50 課程推出的一個(gè)編程輔助工具。CS50.ai 網(wǎng)站可以通過(guò) GitHub 賬號(hào)授權(quán)登錄并免費(fèi)使用。
不同于 ChatGPT 或 GitHub Copilot 直接給大段代碼,CS50 Duck 更像是一位循循善誘的助教,嘗試引導(dǎo)你去尋找答案。
如 ?? 上圖所示,CS50.ai 的使用限制機(jī)制是 ? 的數(shù)量,每次開(kāi)始有10個(gè) ?,每次互動(dòng)消耗一個(gè),每三分鐘恢復(fù)一個(gè)
課程明確規(guī)定,學(xué)習(xí)過(guò)程中只允許使用 CS50 課內(nèi)提供的AI工具,不能借助其他的生成式AI工具,有效避免了AI帶來(lái)的學(xué)術(shù)誠(chéng)信危機(jī)。學(xué)生們的正向反饋也表明,謹(jǐn)慎地將AI整合到教育環(huán)境中,通過(guò)提供持續(xù)的、定制化的支持來(lái)增強(qiáng)學(xué)習(xí)體驗(yàn),是一種更科學(xué)的教育方式。

https://cs.harvard.edu/malan/publications/V1fp0567-liu.pdf
ShowMeAI知識(shí)星球資源編碼:R226
課程助教和講師團(tuán)隊(duì)發(fā)布報(bào)告「Teaching CS50 with AI: Leveraging Generative Artificial Intelligence in Computer Science Education (在計(jì)算機(jī)科學(xué)教育中利用生成式人工智能)」,完整闡述了這次探索的背景、動(dòng)機(jī)、解決方案、實(shí)施細(xì)節(jié),以及下一步開(kāi)發(fā)規(guī)劃。

?? 一站式「音視頻 ? 文字」處理軟件 MemoAI,好用到停不下來(lái) (內(nèi)測(cè)免費(fèi))

https://memo.ac/
補(bǔ)充一份背景:Memo AI 是一款音視頻轉(zhuǎn)文字的AI工具,目前內(nèi)測(cè)中,非常好用!!
Memo AI 可以根據(jù)上傳的音視頻文件/鏈接,生成帶時(shí)間軸的字幕,還支持字幕的細(xì)顆粒度翻譯、編輯和導(dǎo)出。而且,如 ?? 上圖所示,Memo AI 還能直接生成思維導(dǎo)圖、對(duì)話(huà)和筆記,快速 get 內(nèi)容要點(diǎn) (視頻&播客必備功能項(xiàng))!以及,還可以根據(jù)字幕合成語(yǔ)音??!支持模型、語(yǔ)言、發(fā)言人、語(yǔ)速等設(shè)置~
整體來(lái)說(shuō),我們「音視頻 → 文字 → 音視頻」的處理需求,可以在這里一站式完成,而且體驗(yàn)和效果都很不錯(cuò)!
Memo AI 目前是內(nèi)測(cè)狀態(tài),訪(fǎng)問(wèn)上方網(wǎng)址并點(diǎn)擊「內(nèi)測(cè)碼申請(qǐng)」,可以免費(fèi)獲取內(nèi)測(cè)碼
跟隨教程頁(yè)下載 windows / macOS 應(yīng)用,本地安裝后輸入上方領(lǐng)取的內(nèi)測(cè)碼,就可以立即開(kāi)啟使用啦~
![]()
上傳本地音/視頻文件,或者上傳 YouTube / Apple Podcast 鏈接,就可以開(kāi)始轉(zhuǎn)寫(xiě),并等待系統(tǒng)生成帶時(shí)間軸的字幕
![]()
Memo AI 提供了豐富的設(shè)置選項(xiàng),基本可以滿(mǎn)足從簡(jiǎn)單到高精度定制的各種需求
例如,在「翻譯設(shè)置」選項(xiàng)中可以從微軟、谷歌、百度、騰訊、智譜、火山、DeepL、OpenAI 等集成的第三方服務(wù)中進(jìn)行選擇,并完成對(duì)應(yīng)的 API Key 的配置。
![]()
以及,「模型管理」部分提供了豐富的候選模型,有支持多種語(yǔ)言、僅支持英語(yǔ)兩大類(lèi),可以自由選擇所需要的類(lèi)型。
更多功能可以下載后自行探索呀 (* ̄3 ̄)╭

?? 24小時(shí) / 60萬(wàn)用戶(hù) / 2000萬(wàn)次對(duì)話(huà),哄哄模擬器火了,開(kāi)發(fā)者卻想哭

https://hong.greatdk.com/ (鏈接在瀏覽器中打開(kāi),因?yàn)闀r(shí)不時(shí)會(huì)被騰訊封)
上周五,一款A(yù)I應(yīng)用「哄哄模擬器」突然就火了。
玩法很簡(jiǎn)單:用戶(hù)選擇題目后,在限定次數(shù)內(nèi)哄好對(duì)方,獲得原諒就算成功。但是!應(yīng)用設(shè)置了數(shù)值系統(tǒng),回答正確就加分,回答錯(cuò)誤則減分,所以還是很有挑戰(zhàn)的~
與 C.AI 這些角色扮演的聊天類(lèi)應(yīng)用相比,哄哄模擬器設(shè)計(jì)了更具體的場(chǎng)景,因此有了更多「要完成任務(wù)」的緊迫感,和「終于哄好了」的勝利體驗(yàn) ??
為了增加體驗(yàn)感,網(wǎng)頁(yè)還支持上傳對(duì)方和自己的頭像?。∫幌伦诱鎸?shí)感就撲面而來(lái)~ 已經(jīng)開(kāi)始嚴(yán)陣以待 (??????)??

https://web.okjike.com/originalPost/65a62359a922aa28d01d07c6
補(bǔ)充一份背景:突然的爆火把開(kāi)發(fā)者都給搞懵了,到處找這么大的流量是哪里來(lái)的,以及 token 真的好貴…
流量暴增 → token賬單爆炸 → 尋找外部支持 → 鏈接被騰訊封鎖 → 流量迅速減少 → 鏈接恢復(fù)訪(fǎng)問(wèn) → …… 開(kāi)發(fā)者 @王登科 度過(guò)了跌宕起伏的三天。
這款「哄哄模擬器」的誕生和爆火都非常意外,由此導(dǎo)致的大模型 token 消耗更是一度刷報(bào)賬單 ?? 幸好找到了外部支持,有效支撐住了這波流量。開(kāi)發(fā)者在這篇文章中 ? 詳細(xì)復(fù)盤(pán)了完整始末
值得一提的是,這次 月之暗面 又出手了,給開(kāi)發(fā)者提供了最亟需的支持 ? 讓我們說(shuō):感謝Kimi!
為什么說(shuō)「又」呢?因?yàn)樯弦豢钜馔獗鸬男∮螒?? 完蛋!我被LLM包圍了! 也是短時(shí)間內(nèi)巨量 token 消耗給開(kāi)發(fā)者帶來(lái)巨大的壓力,最終也是由 Kimi 提供的支持~
嘶… 好像發(fā)現(xiàn)了什么規(guī)律…

?? 以 Perplexity 為例,講解AI應(yīng)用的「UX 設(shè)計(jì)」要達(dá)到什么水準(zhǔn)

https://mttmr.com/2024/01/10/perplexitys-high-bar-for-ux-in-the-age-of-ai/
補(bǔ)充一份背景:Perplexity 是目前首屈一指的AI搜索引擎,可以根據(jù)用戶(hù)輸入的問(wèn)題,直接輸出結(jié)構(gòu)化的結(jié)果,包括來(lái)源鏈接、明確答案和相關(guān)問(wèn)題等 。往期這篇日?qǐng)?bào)詳細(xì)介紹了 ? Perplexity的發(fā)展歷程
當(dāng)前生成式AI產(chǎn)品與用戶(hù)的交互方式,還停留在對(duì)話(huà)框這種早期階段,但是各產(chǎn)品之間已經(jīng)拉開(kāi)身位。Perplexity 的用戶(hù)體驗(yàn) (UX) 設(shè)計(jì),值得被點(diǎn)名表?yè)P(yáng),簡(jiǎn)約清晰、可用性強(qiáng),而且極富新時(shí)代的AI感!
這篇文章就對(duì)照 Jakob Nielsen 提出的十大可用性原則,詳細(xì)拆解了 Perplexity 的 UX 設(shè)計(jì)細(xì)節(jié),開(kāi)發(fā)者們可以學(xué)起來(lái)了!!
Jakob Nielsen,人機(jī)交互學(xué)博士,1994年4月24日發(fā)表的「十大可用性原則」對(duì)于交互設(shè)計(jì)來(lái)說(shuō)意義重大,可以提升整個(gè)產(chǎn)品的可用性
![]()
- 系統(tǒng)狀態(tài)的可見(jiàn)性 (Visibility of System Status):設(shè)計(jì)應(yīng)始終讓用戶(hù)了解正在發(fā)生什么,通過(guò)適當(dāng)?shù)姆答佋诤侠淼臅r(shí)間內(nèi)告知用戶(hù)
![]()
- 用戶(hù)語(yǔ)言的設(shè)計(jì) (Match Between System and the Real World):使用用戶(hù)熟悉的詞匯、短語(yǔ)和概念,而不是內(nèi)部行話(huà)
![]()
- 用戶(hù)控制和自由 (User Control and Freedom):用戶(hù)經(jīng)常因誤操作而執(zhí)行某些動(dòng)作,他們需要一個(gè)明確標(biāo)記的「緊急出口」,以便在不經(jīng)過(guò)延長(zhǎng)過(guò)程的情況下離開(kāi)不希望的動(dòng)作
![]()
- 一致性和標(biāo)準(zhǔn) (Consistency and Standards):用戶(hù)不應(yīng)懷疑不同的詞語(yǔ)、情況或動(dòng)作是否意味著相同的事情
![]()
- 錯(cuò)誤預(yù)防 (Error Prevention):良好的錯(cuò)誤消息很重要,但最好的設(shè)計(jì)是首先防止問(wèn)題發(fā)生;要么消除易出錯(cuò)的條件,要么在用戶(hù)承諾行動(dòng)之前檢查它們,并呈現(xiàn)確認(rèn)選項(xiàng)
![]()
- 識(shí)別而非回憶 (Recognition Rather than Recall):通過(guò)使元素、動(dòng)作和選項(xiàng)可見(jiàn),最小化用戶(hù)的記憶力負(fù)擔(dān)
![]()
- 靈活性和效率的利用 (Flexibility and Efficiency of Use):對(duì)于新手用戶(hù)隱藏的快捷方式可以加快專(zhuān)家用戶(hù)的交互速度,這樣設(shè)計(jì)就可以同時(shí)滿(mǎn)足新手和經(jīng)驗(yàn)豐富的用戶(hù)
美學(xué)和極簡(jiǎn)設(shè)計(jì) (Aesthetic and Minimalist Design):界面不應(yīng)包含無(wú)關(guān)或很少需要的信息,界面中的每個(gè)額外信息單元都會(huì)與相關(guān)信息單元競(jìng)爭(zhēng),并降低它們的相對(duì)可見(jiàn)性
幫助用戶(hù)識(shí)別、診斷和恢復(fù)錯(cuò)誤 (Help Users Recognize, Diagnose, and Recover from Errors):錯(cuò)誤消息應(yīng)以平實(shí)的語(yǔ)言(沒(méi)有錯(cuò)誤代碼)表達(dá),準(zhǔn)確指出問(wèn)題,并建設(shè)性地提出解決方案
幫助和文檔 (Help and Documentation):最好是系統(tǒng)不需要任何額外的解釋?zhuān)欢赡苄枰峁┪臋n來(lái)幫助用戶(hù)了解如何完成任務(wù)
?? AI大模型購(gòu)買(mǎi)指南:教你挑選「性?xún)r(jià)比最高」的模型和供應(yīng)商

https://artificialanalysis.ai/
這個(gè)網(wǎng)站很實(shí)用哇!基于數(shù)據(jù)進(jìn)行了大量分析和可視化呈現(xiàn),幫你搞懂各個(gè)大模型的性能排名和價(jià)格數(shù)據(jù),并給出了詳細(xì)的解釋。以下是頁(yè)面的模型亮點(diǎn)比較,感興趣可以訪(fǎng)問(wèn) ?? 上方鏈接了解詳情!
![]()
質(zhì)量 vs. 吞吐量,價(jià)格 (Quality vs. Throughput, Price)
![]()
能力比較 (Quality comparison by ability)
![]()
托管提供商亮點(diǎn)比較 (Host comparison highlights)
![]()
定價(jià):輸入和輸出價(jià)格 (Pricing: Input and Output prices)
![]()
所有模型列表,以及每個(gè)模型的具體信息呈現(xiàn)頁(yè)面

?? 技術(shù)科普短文:大模型微調(diào) (LLM fine-tuning) 概述

https://modal.com/blog/llm-fine-tuning-overview
這是一篇「技術(shù)科普」小短文,非常清晰地介紹了大語(yǔ)言模型微調(diào) (fine-tuning) 的基本概念和主要步驟~
簡(jiǎn)單來(lái)說(shuō),微調(diào)就是調(diào)整預(yù)訓(xùn)練模型的權(quán)重,使其更好地適應(yīng)特定任務(wù)或領(lǐng)域,從而提高模型性能。
為什么要微調(diào) LLM
成本效益:微調(diào)比簡(jiǎn)單的提示工程更有效、更高效,可以減少輸入 token 的使用,降低成本和延遲
常見(jiàn)用例:微調(diào)適用于強(qiáng)調(diào)基礎(chǔ)模型的固有知識(shí)、定制響應(yīng)的結(jié)構(gòu)或風(fēng)格,教授模型領(lǐng)域特定指令
微調(diào)步驟
選擇基礎(chǔ)模型:選擇適合的開(kāi)源 LLM,如 Llama 2、Pythia、Mistral 等
準(zhǔn)備數(shù)據(jù)集:創(chuàng)建與任務(wù)相關(guān)的數(shù)據(jù)集,包括輸入和輸出對(duì),并將其格式化為 JSONL 或 CSV 文件
訓(xùn)練:加載預(yù)訓(xùn)練模型,使用數(shù)據(jù)集進(jìn)行訓(xùn)練,并調(diào)整超參數(shù),如學(xué)習(xí)率、批大小和訓(xùn)練周期
使用高級(jí)微調(diào)策略:如 Parameter-Efficient Fine-Tuning (PEFT)、量化(Quantization)和分布式訓(xùn)練
使用額外的微調(diào)庫(kù)
trl:允許實(shí)現(xiàn)強(qiáng)化學(xué)習(xí)循環(huán),根據(jù)生成的輸出獎(jiǎng)勵(lì)模型
accelerate:簡(jiǎn)化了在多個(gè) GPU 或 CPU 上運(yùn)行模型的過(guò)程
?? 我和AI并肩作戰(zhàn)后,總結(jié)了一份新手戰(zhàn)地生存手冊(cè)

https://medium.com/unintended-purposes/the-ai-operators-handbook-0fa3f4d387f8
這是一份如何與AI合作的操作指南,可以幫助人類(lèi)理解AI的運(yùn)作方式,避免在各種危險(xiǎn)情況犯錯(cuò)或者支付高昂代價(jià)。
AI是聽(tīng)人類(lèi)指令的戰(zhàn)友。為了保持職場(chǎng)和社會(huì)競(jìng)爭(zhēng)力,我們應(yīng)該更快速地切換到AI指令長(zhǎng)、AI操作員的角色。
你是駕駛員,而非修車(chē)工:不要對(duì)AI的工作原理或訓(xùn)練過(guò)程做無(wú)根據(jù)的假設(shè),調(diào)試AI與駕駛它不是一回事
癥狀與根源大相徑庭:AI系統(tǒng)中的錯(cuò)誤可能在系統(tǒng)的另一端才能被診斷出來(lái),癥狀與根源往往相距甚遠(yuǎn)
別給你的模型賦予人格:不要給模型強(qiáng)加個(gè)性,這會(huì)導(dǎo)致對(duì)模型行為的錯(cuò)誤假設(shè)
模型也有保質(zhì)期:如果不定期重新訓(xùn)練,模型的性能會(huì)下降,這種現(xiàn)象稱(chēng)為「漂移」
外推并非易事:機(jī)器學(xué)習(xí)模型在未見(jiàn)過(guò)的數(shù)據(jù)區(qū)域往往表現(xiàn)不佳,因?yàn)樗鼈儧](méi)有被訓(xùn)練來(lái)處理這些情況
區(qū)分定性與定量錯(cuò)誤:AI的失敗與人類(lèi)的失敗截然不同,AI擅長(zhǎng)處理數(shù)字,而人類(lèi)則依賴(lài)經(jīng)驗(yàn)
AI嚴(yán)格按照訓(xùn)練執(zhí)行:如果模型在訓(xùn)練中表現(xiàn)優(yōu)異,但在實(shí)際預(yù)測(cè)中表現(xiàn)不佳,可能是因?yàn)橛?xùn)練目標(biāo)與預(yù)測(cè)目標(biāo)不一致
數(shù)據(jù)中的偏見(jiàn)會(huì)反映在A(yíng)I上:模型會(huì)復(fù)制數(shù)據(jù)中的偏見(jiàn),需要平衡數(shù)據(jù)中的各類(lèi)別比例
不要篡改輸入或輸出:篡改輸入或輸出可能導(dǎo)致不良后果,尤其是輸入,因?yàn)槟P椭徽J(rèn)識(shí)它見(jiàn)過(guò)的輸入模式
模型串聯(lián)的風(fēng)險(xiǎn):串聯(lián)多個(gè)模型會(huì)增加系統(tǒng)故障的風(fēng)險(xiǎn)
串聯(lián)模型的錯(cuò)誤會(huì)指數(shù)級(jí)增長(zhǎng):即使單個(gè)模型準(zhǔn)確率很高,串聯(lián)使用時(shí)準(zhǔn)確率會(huì)大幅下降
保持模型間合同的一致性:在使用串聯(lián)模型時(shí),確保模型間的合同得到妥善記錄和執(zhí)行
對(duì)AI負(fù)責(zé):AI不會(huì)自我監(jiān)管,使用AI并不意味著可以逃避責(zé)任
關(guān)注訓(xùn)練頻率和數(shù)據(jù)延遲:AI通常有「訓(xùn)練」和「推理」兩種模式,新數(shù)據(jù)需要經(jīng)過(guò)訓(xùn)練才能影響模型的預(yù)測(cè)
建立防護(hù)措施:不要讓AI在無(wú)人監(jiān)督的情況下做決策,設(shè)定合理的預(yù)期結(jié)果界限
在流程中設(shè)置理智檢查:不要僅依賴(lài)單一的性能指標(biāo),確保流程中的每個(gè)組件都正常運(yùn)作

?? OneFlow 大模型技術(shù)年貨:60+精選文章,800頁(yè)電子手冊(cè)

ShowMeAI知識(shí)星球資源編碼:R219
補(bǔ)充一份背景:OneFlow (一流科技) 是袁進(jìn)輝在2017年創(chuàng)立的深度學(xué)習(xí)框架公司,2023年被光年之外收購(gòu),后并入美團(tuán)
最近一年,OneFlow 一直在公眾號(hào)發(fā)布大模型「硬核」技術(shù)文章,近期將這些文章整理為一本電子書(shū)合集,并開(kāi)放下載。以下是文章標(biāo)題,如果有感興趣的內(nèi)容,可以?huà)呙枭戏蕉S碼,前往星球下載完整版。
一、揭秘 ChatGPT 的技術(shù)原理
語(yǔ)言大模型的進(jìn)化軌跡
揭秘編碼器與解碼器語(yǔ)言模型
通俗解構(gòu)語(yǔ)言大模型的工作原理
揭示 GPT Tokenizer 的工作原理
ChatGPT 數(shù)據(jù)集之謎
ChatGPT 訓(xùn)練三階段與 RLHF 的威力
向量嵌入:AutoGPT 的幻覺(jué)解法?
GPT-3/ChatGPT 復(fù)現(xiàn)的經(jīng)驗(yàn)教訓(xùn)
為什么 ChatGPT 用強(qiáng)化學(xué)習(xí)而非監(jiān)督學(xué)習(xí)?
谷歌研究科學(xué)家:ChatGPT 秘密武器的演進(jìn)與局限
ChatGPT 作者 John Shulman:我們成功的秘密武器
ChatGPT 背后的經(jīng)濟(jì)賬 154
二、語(yǔ)言大模型的演進(jìn)
語(yǔ)言大模型 100K 上下文窗口的秘訣
大模型的無(wú)限上下文與數(shù)據(jù)集組合藝術(shù)
大模型長(zhǎng)上下文運(yùn)行的關(guān)鍵問(wèn)題
關(guān)于大型語(yǔ)言模型的爭(zhēng)論和局限
關(guān)于語(yǔ)言大模型的八大論斷
復(fù)雜推理:語(yǔ)言大模型的"北極星"能力
超越 ChatGPT:大模型的智能極限
ChatGPT 架構(gòu)師:語(yǔ)言大模型的多模態(tài)能力、幻覺(jué)與研究經(jīng)驗(yàn)
John Schulman:強(qiáng)化學(xué)習(xí)與真實(shí)性,通往 TruthGPT 之路
AI 教父 Geoffrey Hinton:智能進(jìn)化的下一個(gè)階段
三、開(kāi)源語(yǔ)言大模型的崛起
ChatGPT 一周年:開(kāi)源語(yǔ)言大模型的沖擊
開(kāi)源語(yǔ)言大模型演進(jìn)史 (1):早期革新
開(kāi)源語(yǔ)言大模型演進(jìn)史 (2):高質(zhì)量基礎(chǔ)模型競(jìng)賽
開(kāi)源語(yǔ)言大模型演進(jìn)史 (3):向 LLaMA 2 看齊
為什么開(kāi)源語(yǔ)言大模型很重要?
開(kāi)源語(yǔ)言大模型的正確姿勢(shì)
四、語(yǔ)言大模型的預(yù)訓(xùn)練、微調(diào)、推理
語(yǔ)言大模型的分布式訓(xùn)練與高效微調(diào)指南
全面對(duì)比 GPT-3.5 與 LLaMA 2 微調(diào)
微調(diào)語(yǔ)言大模型選 LoRA 還是全參數(shù)?基于 LLaMA 2 的深度分析
LoRA 和 QLoRA 微調(diào)語(yǔ)言大模型:數(shù)百次實(shí)驗(yàn)后的見(jiàn)解
LoRA 微調(diào)語(yǔ)言大模型的實(shí)用技巧
推演語(yǔ)言模型的大小與計(jì)算開(kāi)銷(xiāo)
Transformer 模型的基礎(chǔ)演算
大型語(yǔ)言模型的推理演算
語(yǔ)言大模型的推理技巧
邁向 100 倍加速:全棧 Transformer 推理優(yōu)化
語(yǔ)言大模型推理性能工程:最佳實(shí)踐
可復(fù)現(xiàn)的語(yǔ)言大模型推理性能指標(biāo)
ChatGPT 規(guī)?;?wù)的經(jīng)驗(yàn)與教訓(xùn)
OpenAI 的規(guī)模化經(jīng)濟(jì)效益與第二護(hù)城河
五、AI 底層軟硬件協(xié)同優(yōu)化
GPU 架構(gòu)與計(jì)算入門(mén)指南
機(jī)器學(xué)習(xí)硬件十年:性能變遷與趨勢(shì)
編譯器技術(shù)的演進(jìn)與變革
AI 算力碎片化:矩陣乘法的啟示
AI 算力反碎片化:世界上最快的統(tǒng)一矩陣乘法
LLVM 之父 Chris Lattner:我的 AI 基礎(chǔ)設(shè)施軟件構(gòu)建理念
PyTorch 創(chuàng)始人:開(kāi)源成功的方法論
英偉達(dá)的 AI 霸主地位會(huì)持久嗎?
六、OpenAI 的通用人工智能洞察
從 0 到 1,OpenAI 的創(chuàng)立之路
GPT-4 首席科學(xué)家:第二次改變 AI 浪潮的方向
OpenAI 聯(lián)合創(chuàng)始人:GPT 的研究起源和構(gòu)建心法
OpenAI 首席科學(xué)家:通向無(wú)監(jiān)督學(xué)習(xí)之路
GPT 總設(shè)計(jì)師:大型語(yǔ)言模型的未來(lái)
OpenAI 首席科學(xué)家:直面 AGI 的可能性
Sam Altman 的成功學(xué)
七、AI 的應(yīng)用與未來(lái)
Transformer 作者:指令型智能體的構(gòu)建之法
GPT-4.5 前瞻:代碼解釋器,編程新紀(jì)元
ChatGPT 們的淘金時(shí)代
ChatGPT,大增長(zhǎng)時(shí)代的序幕
感謝貢獻(xiàn)一手資訊、資料與使用體驗(yàn)的 ShowMeAI 社區(qū)同學(xué)們!

? 點(diǎn)擊 ??日?qǐng)?bào)&周刊合集,訂閱話(huà)題 #ShowMeAI日?qǐng)?bào),一覽AI領(lǐng)域發(fā)展前沿,抓住最新發(fā)展機(jī)會(huì)!文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-830952.html
? 點(diǎn)擊 ??生產(chǎn)力工具與行業(yè)應(yīng)用大全,一起在信息浪潮里撲騰起來(lái)吧!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-830952.html
到了這里,關(guān)于哄哄模擬器:現(xiàn)象級(jí)爆款+1;音視頻轉(zhuǎn)錄翻譯神器MemoAI;AI新手戰(zhàn)地生存手冊(cè);LLM技術(shù)年貨下載;大模型微調(diào)概述;AI大模型挑選指南 | ShowMeAI日?qǐng)?bào)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!