GPT-4o 可以讀懂代碼,學(xué)會(huì)“看臉色行事”,判斷出人的情緒
OpenAI 最近推出了一款名為 GPT-4o 的新型多模態(tài)人工智能模型,該模型代表了人工智能領(lǐng)域的一個(gè)重大進(jìn)步。GPT-4o("o" 代表 "omni")能夠?qū)崟r(shí)處理音頻、視覺和文本數(shù)據(jù),極大地提升了人機(jī)交互的自然性。
性能方面,GPT-4o 的處理速度是前代模型的五倍,語音延遲顯著降低,平均延遲僅為 320 毫秒,最短可達(dá) 232 毫秒,幾乎與人類反應(yīng)時(shí)間相當(dāng)。此外,GPT-4o 還具備了圖像理解能力,能夠提供翻譯、解釋和建議等服務(wù)。
OpenAI 發(fā)布 GPT-4o
OpenAI 首席技術(shù)官 Mira Murati 在直播演示中宣布,推出新的 OpenAI 旗艦 AI 模型,名為 GPT-4o,稱它面向所有人,包括免費(fèi)用戶。
GPT-4o 同時(shí)具備文本、圖片、視頻、音頻多方面的能力,即可以接受任何文本、音頻等形式及其組合的輸入,并生成同樣媒介形式的回答。
GPT-4o 的速度是上一代的5倍,語音延遲大幅改善,平均為 320 毫秒,甚至可以短至 232 毫秒,達(dá)到了人類的反應(yīng)級別,它能夠理解和討論用戶共享的圖像,提供翻譯、解釋和建議等功能。
GPT-4o 實(shí)時(shí)翻譯現(xiàn)場演示:
OpenAI 計(jì)劃優(yōu)化 GPT-4o 以實(shí)現(xiàn)更自然、實(shí)時(shí)的語音對話,并計(jì)劃通過實(shí)時(shí)視頻與 ChatGPT 進(jìn)行對話。此外,GPT-4o 的語言功能在質(zhì)量和速度方面得到了提高,支持 50 多種語言。
OpenAI 還推出了適用于 macOS 的新版 ChatGPT 桌面應(yīng)用,以及為 ChatGPT 引入了新的外觀和感覺,更加友好和具有對話性。
GPT-4o 編碼助手和桌面應(yīng)用程序的現(xiàn)場演示:
這個(gè)功能對我們開發(fā)人員來說已經(jīng)迫不及待想上手使用了:
GPT4-o 語音變體的現(xiàn)場演示:
OpenAI 稱,GPT-4o 還可以檢測人的情緒。文章來源:http://www.zghlxwxcb.cn/article/770.html
GPT-4o 視覺功能的現(xiàn)場演示,Zoph將手機(jī)舉到自己面前正對著臉,要求 ChatGPT 告訴他自己長什么樣子:文章來源地址http://www.zghlxwxcb.cn/article/770.html
到此這篇關(guān)于OpenAI 發(fā)布 GPT-4o:多模態(tài)AI模型,實(shí)現(xiàn)自然人機(jī)交互的文章就介紹到這了,更多相關(guān)內(nèi)容可以在右上角搜索或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!