国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍

這篇具有很好參考價(jià)值的文章主要介紹了探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

世界正處于數(shù)字化的浪潮中,為了更好理解和分析大量數(shù)據(jù),人們對(duì)于人工智能(AI)解決方案的需求呈爆炸式增長(zhǎng)。

此前,OpenAI 推出基于 GPT-3.5 模型的智能對(duì)話(huà)機(jī)器人 ChatGPT,在自然語(yǔ)言處理(NLP)領(lǐng)域掀起了新一輪的技術(shù)革命,引發(fā)了大家對(duì)大語(yǔ)言模型(LLM)的關(guān)注。同時(shí),越來(lái)越多人希望使用大模型處理多模態(tài)數(shù)據(jù),大家對(duì)于更高級(jí)的大型 AI 模型的呼聲越來(lái)越高。

根據(jù) OpenAI 發(fā)布的信息,科技界萬(wàn)眾期待的 GPT-4 模型支持視覺(jué)輸入,能夠?qū)崿F(xiàn)更強(qiáng)大的功能,將 GPT-4(https://openai.com/gpt-4) 與圖像生成模型相結(jié)合可發(fā)揮巨大潛力。為了幫助大家更好地為這場(chǎng)科技革命做好準(zhǔn)備,Zilliz 隆重推出 GPTCache——基于 Milvus 向量數(shù)據(jù)庫(kù)的語(yǔ)義緩存,旨在幫助企業(yè)在搭建創(chuàng)新型多模態(tài) AI 應(yīng)用過(guò)程中降本增效。

多模態(tài) AI 應(yīng)用通過(guò)整合多種感知和通信模式,例如語(yǔ)音、視覺(jué)、語(yǔ)言和手勢(shì)等,能夠更智能地理解人類(lèi)交互和環(huán)境,從而生成更準(zhǔn)確細(xì)致的響應(yīng)。多模態(tài) AI 應(yīng)用領(lǐng)域和行業(yè)包括:醫(yī)療保健、教育、娛樂(lè)、交通等,具體應(yīng)用場(chǎng)景包括:Siri 和 Alexa 等虛擬助手、自動(dòng)駕駛汽車(chē)、分析醫(yī)學(xué)圖像和患者數(shù)據(jù)的醫(yī)療診斷工具等。

本文將深入介紹 GPTCache,并探討如何使用 GPTCache 與 Milvus 提供更好的多模態(tài)場(chǎng)景用戶(hù)體驗(yàn)。

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

01.

多模態(tài) AI 應(yīng)用的語(yǔ)義緩存

在大多數(shù)情況下,實(shí)現(xiàn)多模態(tài) AI 應(yīng)用需要使用大模型。但是處理和調(diào)用模型耗時(shí)耗錢(qián),這時(shí)候我們就可以使用 GPTCache:在請(qǐng)求大模型之前,先嘗試在緩存中尋找答案。GPTCache 能夠加速整個(gè)問(wèn)答過(guò)程,并有助于降低運(yùn)行大模型時(shí)的成本。

  • 探索 GPTCache 語(yǔ)義緩存

語(yǔ)義緩存以結(jié)構(gòu)化的方式存儲(chǔ)和檢索特定語(yǔ)義信息、概念和知識(shí),使用語(yǔ)義緩存可以幫助 AI 系統(tǒng)更好理解和響應(yīng)查詢(xún)或請(qǐng)求。語(yǔ)義緩存的使用原理就是在緩存中預(yù)先獲取常見(jiàn)或歷史問(wèn)題的答案。這樣一來(lái),信息訪(fǎng)問(wèn)會(huì)更快速,也有助于提高 AI 應(yīng)用的性能和效率。

GPTCache 項(xiàng)目專(zhuān)為大模型相關(guān)的應(yīng)用開(kāi)發(fā),可減少大模型的請(qǐng)求次數(shù)和響應(yīng)時(shí)間,從而降低開(kāi)銷(xiāo)和提高效率。GPTCache 是基于語(yǔ)義緩存的理念設(shè)計(jì)的,用于存儲(chǔ)歷史提問(wèn)和對(duì)應(yīng)的模型回復(fù),同時(shí)還接入了 Milvus 用于相似向量檢索。GPTCache 包含以下幾個(gè)重要組件:

  • LLM 適配器:負(fù)責(zé)確保 GPTCache 能夠與各種大模型無(wú)縫協(xié)作。

  • 上下文管理器:使系統(tǒng)能夠在不同階段靈活處理各種數(shù)據(jù)。

  • 向量生成器:將數(shù)據(jù)轉(zhuǎn)換為向量,以便支持更高效的數(shù)據(jù)存儲(chǔ)和語(yǔ)義搜索。

  • 緩存管理器:存儲(chǔ)所有向量和其他有價(jià)值的數(shù)據(jù)。其中,Milvus 不僅能夠支持大規(guī)模數(shù)據(jù)的存儲(chǔ),還有助于加速和提高向量相似性搜索的性能。

  • 相似度評(píng)估器:負(fù)責(zé)評(píng)估從緩存中檢索獲得的潛在答案是否能夠滿(mǎn)足用戶(hù)需求。

  • 預(yù)處理器及后置處理器:幫助處理輸入或輸出的數(shù)據(jù)。

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

GPTCache 架構(gòu)

以下代碼片段展示了如何在 GPTCache 中配置不同模塊和初始化緩存。

from?gptcache?import?cache
from?gptcache.manager?import?get_data_manager,?CacheBase,?VectorBase,?ObjectBase
from?gptcache.processor.pre?import?get_prompt
from?gptcache.processor.post?import?temperature_softmax
from?gptcache.embedding?import?Onnx
from?gptcache.similarity_evaluation.distance?import?SearchDistanceEvaluation

onnx?=?Onnx()
cache_base?=?CacheBase('sqlite')
vector_base?=?VectorBase(
????'milvus',
????host='localhost',
????port='19530',
????dimension=onnx.dimension
????)
object_base?=?ObjectBase('local',?path='./objects')
data_manager?=?get_data_manager(cache_base,?vector_base,?object_base)

cache.init(
????pre_embedding_func=get_prompt,??#?Pre-process
????embedding_func=onnx.to_embeddings,??#?Embedding?generator
????data_manager=data_manager,??#?Cache?manager
????similarity_evaluation=SearchDistanceEvaluation()??#?Evaluator
????post_process_messages_func=temperature_softmax??#?Post-process
????)
  • 使用向量數(shù)據(jù)庫(kù)緩存語(yǔ)義數(shù)據(jù)

語(yǔ)義緩存中最重要的組成部分就是向量數(shù)據(jù)庫(kù)。具體而言,GPTCache 的向量生成器將數(shù)據(jù)轉(zhuǎn)換為 向量以進(jìn)行向量存儲(chǔ)和語(yǔ)義搜索。向量數(shù)據(jù)庫(kù)(如:Milvus)不僅支持大規(guī)模數(shù)據(jù)存儲(chǔ),還有助于加速和提高向量相似性檢索的性能。

預(yù)訓(xùn)練的多模態(tài)模型通過(guò)學(xué)習(xí),能夠在同一特征空間中以向量的形式代表各種類(lèi)型的輸入數(shù)據(jù)。多模態(tài)模型還可以捕捉其他數(shù)據(jù)模態(tài)所提供的互補(bǔ)信息。這種模式使系統(tǒng)能夠以統(tǒng)一的方式分析不同模態(tài)的數(shù)據(jù),并通過(guò)語(yǔ)義搜索實(shí)現(xiàn)更精確和高效的數(shù)據(jù)處理。向量數(shù)據(jù)庫(kù)借助向量相似性算法實(shí)現(xiàn)對(duì)多模態(tài)輸入數(shù)據(jù)的語(yǔ)義檢索。與傳統(tǒng)的數(shù)據(jù)庫(kù)存儲(chǔ)原生數(shù)據(jù)不同,向量數(shù)據(jù)庫(kù)能夠管理由非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)化而來(lái)的高維向量數(shù)據(jù)。因此,向量數(shù)據(jù)庫(kù)非常適合處理?yè)碛卸喾N數(shù)據(jù)類(lèi)型的多模態(tài) AI 應(yīng)用。

  • 使用 Milvus 的好處

Milvus 生態(tài)系統(tǒng)提供了有效的數(shù)據(jù)庫(kù)監(jiān)控、數(shù)據(jù)遷移和數(shù)據(jù)量估算工具。如果不想要花時(shí)間和精力維護(hù) Milvus,也可以選擇 Milvus 的云原生服務(wù)——Zilliz Cloud。以下是一些選擇 Milvus 向量數(shù)據(jù)庫(kù)的好處:

  • 高效存儲(chǔ)和檢索

Milvus 專(zhuān)為存儲(chǔ)和檢索大規(guī)模向量數(shù)據(jù)而設(shè)計(jì)。此外,向量是深度學(xué)習(xí)模型所使用的“通用語(yǔ)言”。Milvus 可以輕松處理向量,提升多模態(tài)應(yīng)用數(shù)據(jù)訪(fǎng)問(wèn)效率,縮短回答響應(yīng)時(shí)間,優(yōu)化用戶(hù)體驗(yàn)。

  • 高度靈活、可擴(kuò)展

隨著 AI 應(yīng)用處理的數(shù)據(jù)量爆炸式增長(zhǎng),我們需要可擴(kuò)展的解決方案。通過(guò)整合 Milvus,系統(tǒng)可以無(wú)縫地?cái)U(kuò)展以滿(mǎn)足日益增長(zhǎng)的需求。此外,Milvus 還提供了廣泛的功能,可以提高多模態(tài) AI 應(yīng)用的整體靈活性和功能性。

  • 高性能、高可用

Milvus 同時(shí)支持向量與標(biāo)量數(shù)據(jù),擁有多種索引選擇,還提供了混合搜索等功能,能夠滿(mǎn)足多種業(yè)務(wù)需求。使用 Milvus,多模態(tài) AI 應(yīng)用可以更快速、更方便地處理各種類(lèi)型的輸入數(shù)據(jù)。Milvus 超高的檢索性能可以幫助確保AI應(yīng)用的效果和性能。

  • 易用性

Milvus 提供多樣的本地部署選項(xiàng),包括使用?pip?快速啟動(dòng) Milvus。您甚至還可以選擇 Zilliz Cloud 云服務(wù),快速啟動(dòng)和擴(kuò)展 Milvus 實(shí)例。此外,Milvus 支持多種語(yǔ)言的 SDK,包括 Python、Java 和 Go(其他更多語(yǔ)言正在開(kāi)發(fā)中),方便用戶(hù)集成到現(xiàn)有的應(yīng)用中。Milvus 還提供 Restful API,用戶(hù)可以更輕松地與服務(wù)器進(jìn)行交互。

  • 可靠性

因出色的性能和高度可擴(kuò)展性,Milvus 成為了最受歡迎的向量數(shù)據(jù)庫(kù)。Milvus 擁有 1000 多家企業(yè)級(jí)用戶(hù),且配備活躍的開(kāi)源社區(qū)。作為 LF AI&Data 基金會(huì)的畢業(yè)項(xiàng)目,Milvus 的可靠性也具備極大的保障,因此,Milvus 是高效管理大規(guī)模結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的首選解決方案

  • 打破緩存限制,增加輸出多樣性

想要提供全面有效的解決方案,滿(mǎn)足廣泛的用戶(hù)需求,就需要多模態(tài) AI 應(yīng)用能夠生成多種不同類(lèi)型輸出數(shù)據(jù)。多樣的輸出數(shù)據(jù)有助于提升用戶(hù)體驗(yàn)、加強(qiáng) AI 系統(tǒng)的整體功能性,如虛擬助手、聊天機(jī)器人、語(yǔ)音識(shí)別系統(tǒng)等應(yīng)用就更依賴(lài)輸出數(shù)據(jù)的多樣性了。

雖然語(yǔ)義緩存是檢索數(shù)據(jù)的有效方式,但它可能會(huì)限制響應(yīng)的多樣性。這是因?yàn)檎Z(yǔ)義緩存會(huì)優(yōu)先考慮緩存中的答案,而減少?gòu)拇竽P椭猩尚碌捻憫?yīng)。所以,使用語(yǔ)義緩存的 AI 系統(tǒng)會(huì)十分依賴(lài)先前已經(jīng)存儲(chǔ)在緩存中的數(shù)據(jù)和信息,很有可能會(huì)不斷召回并輸出相同或十分類(lèi)似的答案,有損于內(nèi)容生成的創(chuàng)造性。

為了解決這個(gè)問(wèn)題,我們可以利用機(jī)器學(xué)習(xí)中的溫度(temperature)參數(shù)。溫度參數(shù)可以控制響應(yīng)的隨機(jī)性和多樣性。溫度參數(shù)值設(shè)置得越高,生成的答案越隨機(jī)。參數(shù)值設(shè)置得越低,生成內(nèi)容越一致。我們可以通過(guò)調(diào)節(jié)溫度參數(shù)值來(lái)打破緩存限制,從而使我們的 AI 應(yīng)用提供更全面有效的解決方案,滿(mǎn)足更廣泛的用戶(hù)需求。

  • GPTCache 中的溫度參數(shù)

為了平衡響應(yīng)的隨機(jī)性和一致性,并滿(mǎn)足用戶(hù)偏好或應(yīng)用需求,在多模態(tài) AI 應(yīng)用中選擇適當(dāng)?shù)臏囟葏?shù)值至關(guān)重要。GPTCache 保留了機(jī)器學(xué)習(xí)中溫度參數(shù)的概念,在使用 GPTCache 時(shí),可以選擇以下 3 個(gè)選項(xiàng)來(lái)調(diào)節(jié)溫度:

a. 從多個(gè)候選答案中隨機(jī)選擇

在深度學(xué)習(xí)中,對(duì)模型最后全連接層的輸出使用 softmax 激活函數(shù)是一種常見(jiàn)的技術(shù),其中涉及到了溫度參數(shù)。GPTCache 類(lèi)似地使用 softmax 函數(shù)將候選答案的相似性得分轉(zhuǎn)換為概率列表。得分越高,被選為最終答案的可能性就越大。溫度控制可能性分布的尖銳度,更高的溫度意味著得分較高的答案更可能被選中。GPTCache 中的后處理器 “temperature_softmax” 遵循此算法,給定候選答案與相應(yīng)的得分或置信度,選擇一個(gè)最終答案。

from?gptcache.processor.post?import?temperature_softmax

messages?=?["message?1",?"message?2",?"message?3"]
scores?=?[0.9,?0.5,?0.1]
answer?=?temperature_softmax(messages,?scores,?temperature=0.5)

b. 調(diào)整概率跳過(guò)緩存,直接調(diào)用模型

第 2 種選項(xiàng)是通過(guò)溫度參數(shù),調(diào)整以下行為的概率:直接調(diào)用大模型而不搜索緩存。溫度越高,越有可能跳過(guò)緩存,反之亦然。以下示例展示了如何使用?temperature_softmax?參數(shù)來(lái)通過(guò)溫度控制是否跳過(guò)搜索緩存。

from?gptcache.processor.post?import?temperature_softmax

def?skip_cache(temperature):
????if?0?<?temperature?<?2:
????????cache_skip_options?=?[True,?False]
????????prob_cache_skip?=?[0,?1]
????????cache_skip?=?temperature_softmax(
????????????messages=cache_skip_options,
????????????scores=prob_cache_skip,
????????????temperature=temperature)
????????????)
????elif?temperature?>=?2:
????????cache_skip?=?Trueelse:??#?temperature?<=?0
????????cache_skip?=?Falsereturn?cache_skip

c. 編輯緩存結(jié)果

使用小模型或一些工具來(lái)編輯回答。選擇這個(gè)選項(xiàng)的前提是需要有一個(gè)編輯器,具備轉(zhuǎn)換輸出數(shù)據(jù)的能力。

02.

多模態(tài)應(yīng)用

越來(lái)越多人已經(jīng)不滿(mǎn)足于僅依賴(lài) GPT-3.5 驅(qū)動(dòng)的 ChatGPT,大家希望通過(guò) GPT-4 搭建自己的多模態(tài)應(yīng)用——與多種數(shù)據(jù)模態(tài)交互,包括文本、視覺(jué)圖片和音頻等。隨著 AI 技術(shù)的發(fā)展,GPTCache 和 Milvus 成為了構(gòu)建創(chuàng)新型智能多模態(tài)系統(tǒng)的解決方案。以下幾個(gè)例子展示了不同場(chǎng)景中如何使用 GPTCache 和 Milvus 搭建多模態(tài) AI 應(yīng)用。

  • 文本到圖像:生成圖像

AI 生成圖像一直是熱門(mén)話(huà)題,指的是使用預(yù)訓(xùn)練的文本-圖像多模態(tài)模型,基于文本描述或說(shuō)明生成圖像。近年來(lái),這項(xiàng)技術(shù)取得了長(zhǎng)足的進(jìn)步。圖像生成模型已經(jīng)可以生成栩栩如生的圖像,甚至肉眼很難與人類(lèi)拍攝的照片區(qū)分開(kāi)來(lái)。

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

文本提示:一只白色暹羅貓

生成圖像需要使用文本提示作為輸入,而借助 GPTCache 和 Milvus 的語(yǔ)義搜索功能,圖像生成會(huì)變得更加容易。系統(tǒng)可以使用 Milvus 檢測(cè)緩存中存儲(chǔ)的相似提示文本,并從緩存中獲得相應(yīng)的圖像。如果緩存中沒(méi)有令人滿(mǎn)意的結(jié)果,GPTCache 則會(huì)調(diào)用圖像生成模型。隨后,模型生成的圖像和文本將保存在 GPTCache,從而豐富緩存的數(shù)據(jù)庫(kù)。其中,向量生成器會(huì)將文本提示轉(zhuǎn)換為向量,并存儲(chǔ)在 Milvus 中,以便于檢索。

下面的示例代碼調(diào)用了 GPTCache 適配的 OpenAI 服務(wù),并要求系統(tǒng)根據(jù)給定的文本“一只白色暹羅貓”生成圖像。我們可以通過(guò)?temperature?和?top_k兩個(gè)參數(shù)來(lái)控制生成圖像的多樣性。temperature?參數(shù)的默認(rèn)值是?0.0,如果將其調(diào)整到0.8,那么每次即使輸入同樣的文本,但是獲得不同生成圖像的可能性會(huì)增加。

from?gptcache.adapter?import?openai

cache.set_openai_key()

response?=?openai.Image.create(
????prompt="a?white?siamese?cat",
????temperature=0.8,??#?optional,?defaults?to?0.0.
????top_k=10??#?optional,?defaults?to?5?if?temperature>0.0?else?1.
????)

GPTCache 目前已經(jīng)內(nèi)置了適配器,可以接入大多數(shù)流行的圖像生成模型或服務(wù),包括 OpenAI 圖像生成服務(wù)(https://platform.openai.com/docs/guides/images/introduction)、Stability.AI API(https://stability.ai/blog/api-platform-for-stability-ai)、HuggingFace Stable Diffusions(https://huggingface.co/spaces/stabilityai/stable-diffusion)。

  • 圖像到文本:圖像描述生成

圖像描述生成是指為圖像生成文本描述,這一過(guò)程通常會(huì)使用預(yù)訓(xùn)練的圖像-文本多模態(tài)模型。通過(guò)這種技術(shù),機(jī)器能夠理解圖像的內(nèi)容并用自然語(yǔ)言描述和解釋圖像。我們還可以在聊天機(jī)器人中加入圖像描述生成的能力,從而優(yōu)化用戶(hù)體驗(yàn),將視覺(jué)交互和對(duì)話(huà)無(wú)縫銜接起來(lái)。

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

圖像描述:棕色的大狗躺在床上

在圖像描述生成的應(yīng)用中,GPTCache 會(huì)先在緩存中掃描一遍,查找與輸入圖像相似的圖像。然后,為了保證返回的文本描述質(zhì)量,評(píng)估器會(huì)額外判斷輸入圖像和從緩存中檢索的圖像或文本描述之間的相關(guān)性或相似性。評(píng)估圖像相似性時(shí),系統(tǒng)會(huì)使用預(yù)訓(xùn)練的視覺(jué)模型,如 ResNet 或ViT 等將圖像轉(zhuǎn)換成向量。

此外,像 CLIP 這樣的文本-圖像多模態(tài)模型,也可以用于直接衡量圖像和文本之間的相似性。如果緩存中沒(méi)有匹配項(xiàng),那么系統(tǒng)會(huì)利用多模態(tài)模型為輸入的圖像生成新的文本描述。隨后,GPTCache 會(huì)將生成的文本及相應(yīng)的圖像存儲(chǔ)在緩存中。其中,圖像和文本都會(huì)被轉(zhuǎn)化為向量保存在 Milvus 中。

GPTCache 目前已經(jīng)適配了主流的圖像描述生成服務(wù),例如 Replicate BLIP(https://replicate.com/salesforce/blip)和 MiniGPT-4(https://minigpt-4.github.io/)等。后續(xù),GPTCache 將支持更多圖像-文本模型和服務(wù)以及本地多模態(tài)模型。

  • 音頻到文本:語(yǔ)音轉(zhuǎn)錄

音頻到文本,也稱(chēng)為語(yǔ)音轉(zhuǎn)錄,是指將音頻內(nèi)容(如錄制的對(duì)話(huà)、會(huì)議或講座)轉(zhuǎn)換為書(shū)面形式的文本。這種技術(shù)能夠幫助聽(tīng)障人士或者更喜歡閱讀文字的人理解信息。用戶(hù)可以將轉(zhuǎn)錄成文字的音頻內(nèi)容放入 ChatGPT 進(jìn)行提問(wèn),或者嘗試用其他方式更好利用語(yǔ)音轉(zhuǎn)錄的文本!

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

音頻文件:一杯波本威士忌,一杯蘇格蘭威士忌,一份賬單(One bourbon, one scotch, one bill)

語(yǔ)音轉(zhuǎn)錄的初始輸入數(shù)據(jù)通常是音頻文件。語(yǔ)音轉(zhuǎn)錄的第一步是將每個(gè)輸入的音頻文件轉(zhuǎn)化為音頻向量 。第二步,系統(tǒng)利用 Milvus 進(jìn)行相似性搜索,從緩存中檢索潛在的相似音頻。如果在評(píng)估后找不到相似的答案時(shí),系統(tǒng)會(huì)調(diào)用自動(dòng)語(yǔ)音識(shí)別(ASR)模型或服務(wù)。ASR 模型生成的音頻和轉(zhuǎn)錄文本都會(huì)存儲(chǔ)在 GPTCache 緩存中。其中,音頻數(shù)據(jù)會(huì)轉(zhuǎn)化為向量存儲(chǔ)在 Milvus 中。由于 Milvus 具有高擴(kuò)展性,如果音頻數(shù)量不斷增加,Milvus 也能夠靈活擴(kuò)展以適應(yīng)需求。

使用 GPTCache 和 Milvus 后,ASR 調(diào)用次數(shù)大幅降低,很大程度提高了音頻轉(zhuǎn)路的速度和效率。GPTCache 教程中的語(yǔ)音到文本教程https://gptcache.readthedocs.io/en/latest/bootcamp/openai/speech_to_text.html)提供了實(shí)例代碼,展示如何使用 GPTCache、Milvus 和 OpenAI 的 Speech to text 模型進(jìn)行語(yǔ)音轉(zhuǎn)錄。

03.

總結(jié)

多模態(tài) AI 模型越來(lái)越受歡迎,可以更全面地分析和理解復(fù)雜數(shù)據(jù)。Milvus 可以處理非結(jié)構(gòu)化數(shù)據(jù),因此是構(gòu)建和擴(kuò)展多模態(tài) AI 應(yīng)用的理想解決方案。在 GPTCache 中添加更多功能,例如會(huì)話(huà)管理、上下文感知和服務(wù)器,能夠進(jìn)一步增強(qiáng)多模態(tài) AI 應(yīng)用的能力,使多模態(tài) AI 模型發(fā)揮更多潛在作用,滿(mǎn)足更多場(chǎng)景需求。更多關(guān)于多模態(tài) AI 應(yīng)用的文章,請(qǐng)關(guān)注 GPTCache Bootcamphttps://github.com/zilliztech/GPTCache/tree/main/docs/bootcamp)。

??「尋找 AIGC 時(shí)代的 CVP 實(shí)踐之星」 專(zhuān)題活動(dòng)即將啟動(dòng)!

Zilliz 將聯(lián)合國(guó)內(nèi)頭部大模型廠(chǎng)商一同甄選應(yīng)用場(chǎng)景,?由雙方提供向量數(shù)據(jù)庫(kù)與大模型頂級(jí)技術(shù)專(zhuān)家為用戶(hù)賦能,一同打磨應(yīng)用,提升落地效果,賦能業(yè)務(wù)本身。

如果你的應(yīng)用也適合 CVP 框架,且正為應(yīng)用落地和實(shí)際效果發(fā)愁,可直接申請(qǐng)參與活動(dòng),獲得最專(zhuān)業(yè)的幫助和指導(dǎo)!聯(lián)系郵箱為?business@zilliz.com。

本文作者

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

顧夢(mèng)佳
Zilliz 高級(jí)算法工程師

推薦閱讀

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus

《我決定給 ChatGPT 做個(gè)緩存層 >>> Hello GPTCache》

探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍,人工智能,milvus文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-626104.html

《GPTCache:LLM 應(yīng)用必備的【省省省】利器》

到了這里,關(guān)于探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 探索 WebAssembly:開(kāi)啟網(wǎng)頁(yè)高性能應(yīng)用的新時(shí)代

    探索 WebAssembly:開(kāi)啟網(wǎng)頁(yè)高性能應(yīng)用的新時(shí)代

    關(guān)于作者: 還是大劍師蘭特 :曾是美國(guó)某知名大學(xué)計(jì)算機(jī)專(zhuān)業(yè)研究生,現(xiàn)為航空航海領(lǐng)域高級(jí)前端工程師;CSDN知名博主,GIS領(lǐng)域優(yōu)質(zhì)創(chuàng)作者,深耕openlayers、leaflet、mapbox、cesium,canvas,webgl,echarts等技術(shù)開(kāi)發(fā),歡迎加底部微信(gis-dajianshi),一起交流。 熱門(mén)專(zhuān)欄 精彩推薦

    2024年03月21日
    瀏覽(29)
  • GPT-4開(kāi)啟人工智能賦能教育的新時(shí)代

    GPT-4開(kāi)啟人工智能賦能教育的新時(shí)代

    2022年11月30日,美國(guó) OpenAI公司發(fā)布了一款最新研發(fā)的生成式人工智能產(chǎn)品——ChatGPT(Chat Generative Pre-trained Transformer)。ChatGPT的推出,僅用了短短兩個(gè)月時(shí)間就快速占領(lǐng)了人工智能領(lǐng)域的主導(dǎo)地位,成為歷史上用戶(hù)數(shù)量增長(zhǎng)最快的應(yīng)用之一。ChatGPT基于GPT-3.5架構(gòu)的大型語(yǔ)言模型

    2024年01月20日
    瀏覽(28)
  • 開(kāi)啟AI高效辦公時(shí)代,成為AI時(shí)代的先行者

    開(kāi)啟AI高效辦公時(shí)代,成為AI時(shí)代的先行者

    隨著人工智能技術(shù)的飛速發(fā)展,AI已經(jīng)深入到各個(gè)領(lǐng)域,為人們的工作和生活帶來(lái)了巨大的變革。其中,AI智能化辦公更是成為未來(lái)辦公的新模式,為企業(yè)和個(gè)人提供了更加高效、智能和便捷的辦公體驗(yàn)。 AI智能化辦公通過(guò)自動(dòng)化處理、智能分析和預(yù)測(cè)等功能,能夠顯著提高工

    2024年02月05日
    瀏覽(18)
  • GPT有什么用?對(duì)哪些行業(yè)幫助比較大?無(wú)際Ai帶來(lái)介紹

    GPT有什么用?對(duì)哪些行業(yè)幫助比較大?無(wú)際Ai帶來(lái)介紹

    GPT 是“Generative Pre-trained Transformer”的縮寫(xiě)。這是一種由 OpenAI 開(kāi)發(fā)的人工智能語(yǔ)言模型,它采用了變壓器(Transformer)架構(gòu),并且在大規(guī)模文本數(shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練。GPT 系列模型的目標(biāo)是生成具有高度連貫性和語(yǔ)義合理性的文本。這意味著它可以理解輸入的文本并產(chǎn)生相關(guān)的

    2024年01月16日
    瀏覽(23)
  • AI+手機(jī)專(zhuān)題:AI開(kāi)啟智能手機(jī)新時(shí)代

    AI+手機(jī)專(zhuān)題:AI開(kāi)啟智能手機(jī)新時(shí)代

    今天分享的是 AI+手機(jī)專(zhuān)題系列 深度研究報(bào)告:《 AI+手機(jī)專(zhuān)題:AI開(kāi)啟智能手機(jī)新時(shí)代 》。 (報(bào)告出品方: 中信建投證券 ) 報(bào)告共計(jì): 63 頁(yè) 全球智能手機(jī)市場(chǎng)有望觸底反彈,生成式A|將對(duì)智能手機(jī)帶來(lái)革命性影響,催化新一輪換機(jī)高峰,帶動(dòng)手機(jī)市場(chǎng)量?jī)r(jià)齊升并迎來(lái)生態(tài)

    2024年04月17日
    瀏覽(19)
  • AI與語(yǔ)音識(shí)別合成:開(kāi)啟智能交互新時(shí)代

    AI與語(yǔ)音識(shí)別合成:開(kāi)啟智能交互新時(shí)代

    引言: 隨著人工智能(AI)技術(shù)的不斷發(fā)展,語(yǔ)音識(shí)別和語(yǔ)音合成成為了人機(jī)交互領(lǐng)域的重要組成部分。語(yǔ)音識(shí)別技術(shù)使得機(jī)器能夠理解人類(lèi)的語(yǔ)言,而語(yǔ)音合成則使得機(jī)器能夠以人類(lèi)自然的語(yǔ)音形式進(jìn)行回應(yīng)。本文將深入探討AI與語(yǔ)音識(shí)別合成的技術(shù)原理、應(yīng)用場(chǎng)景以及未

    2024年04月23日
    瀏覽(18)
  • AI+時(shí)代開(kāi)啟,算力模組成為推動(dòng)AI應(yīng)用落地的動(dòng)力之源

    AI+時(shí)代開(kāi)啟,算力模組成為推動(dòng)AI應(yīng)用落地的動(dòng)力之源

    人工智能是第四次技術(shù)革命中的重要技術(shù)。近期ChatGPT不斷出圈,OpenAI隨即又推出了新一代大語(yǔ)言模型GPT-4,再次引發(fā)了全球?qū)θ斯ぶ悄芗夹g(shù)發(fā)展的關(guān)注。微軟宣布正式把GPT-4模型裝進(jìn)Office套件,推出全新的AI功能Copliot。在國(guó)內(nèi),百度率先推出生成式對(duì)話(huà)產(chǎn)品“文心一言”,金

    2023年04月11日
    瀏覽(23)
  • AI+低代碼:開(kāi)啟普惠人工智能時(shí)代的新篇章

    AI+低代碼:開(kāi)啟普惠人工智能時(shí)代的新篇章

    ???? 博主貓頭虎 帶您 Go to New World.??? ?? 博客首頁(yè)——貓頭虎的博客?? ??《面試題大全專(zhuān)欄》 文章圖文并茂??生動(dòng)形象??簡(jiǎn)單易學(xué)!歡迎大家來(lái)踩踩~?? ?? 《IDEA開(kāi)發(fā)秘籍專(zhuān)欄》學(xué)會(huì)IDEA常用操作,工作效率翻倍~?? ?? 《100天精通Golang(基礎(chǔ)入門(mén)篇)》學(xué)會(huì)Golang語(yǔ)言

    2024年02月15日
    瀏覽(26)
  • AI百科:一個(gè)開(kāi)啟人工智能時(shí)代的綜合性平臺(tái)

    AI百科:一個(gè)開(kāi)啟人工智能時(shí)代的綜合性平臺(tái)

    無(wú)論是人工智能的快速發(fā)展還是AI技術(shù)在各個(gè)領(lǐng)域的廣泛應(yīng)用,都讓我們對(duì)智能未來(lái)充滿(mǎn)了期待和好奇。隨著科技的進(jìn)步,發(fā)現(xiàn)了一個(gè)好網(wǎng)站,一個(gè)集合了豐富AI工具和產(chǎn)品介紹的綜合性網(wǎng)站—— AI百科。 在人工智能(AI)領(lǐng)域的快速發(fā)展中,AI百科作為一個(gè)全面介紹AI工具、

    2024年02月06日
    瀏覽(54)
  • ChatGPT和Midjourney王炸組合,開(kāi)啟AI新時(shí)代

    ChatGPT和Midjourney王炸組合,開(kāi)啟AI新時(shí)代

    目錄 序言 一:使用ChatGPT進(jìn)行對(duì)話(huà) 二:調(diào)用newbies robot 三:舉例說(shuō)明 四:付費(fèi)和使用限制 隨著人工智能技術(shù)的不斷發(fā)展,越來(lái)越多的人開(kāi)始使用人工智能工具來(lái)創(chuàng)作圖畫(huà)。在這里,我將分享如何結(jié)合ChatGPT和Midjourney,讓你可以輕松創(chuàng)作出令人驚艷的圖畫(huà)。 首先,我們需要使

    2024年02月11日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包