世界正處于數(shù)字化的浪潮中,為了更好理解和分析大量數(shù)據(jù),人們對(duì)于人工智能(AI)解決方案的需求呈爆炸式增長(zhǎng)。
此前,OpenAI 推出基于 GPT-3.5 模型的智能對(duì)話(huà)機(jī)器人 ChatGPT,在自然語(yǔ)言處理(NLP)領(lǐng)域掀起了新一輪的技術(shù)革命,引發(fā)了大家對(duì)大語(yǔ)言模型(LLM)的關(guān)注。同時(shí),越來(lái)越多人希望使用大模型處理多模態(tài)數(shù)據(jù),大家對(duì)于更高級(jí)的大型 AI 模型的呼聲越來(lái)越高。
根據(jù) OpenAI 發(fā)布的信息,科技界萬(wàn)眾期待的 GPT-4 模型支持視覺(jué)輸入,能夠?qū)崿F(xiàn)更強(qiáng)大的功能,將 GPT-4(https://openai.com/gpt-4) 與圖像生成模型相結(jié)合可發(fā)揮巨大潛力。為了幫助大家更好地為這場(chǎng)科技革命做好準(zhǔn)備,Zilliz 隆重推出 GPTCache——基于 Milvus 向量數(shù)據(jù)庫(kù)的語(yǔ)義緩存,旨在幫助企業(yè)在搭建創(chuàng)新型多模態(tài) AI 應(yīng)用過(guò)程中降本增效。
多模態(tài) AI 應(yīng)用通過(guò)整合多種感知和通信模式,例如語(yǔ)音、視覺(jué)、語(yǔ)言和手勢(shì)等,能夠更智能地理解人類(lèi)交互和環(huán)境,從而生成更準(zhǔn)確細(xì)致的響應(yīng)。多模態(tài) AI 應(yīng)用領(lǐng)域和行業(yè)包括:醫(yī)療保健、教育、娛樂(lè)、交通等,具體應(yīng)用場(chǎng)景包括:Siri 和 Alexa 等虛擬助手、自動(dòng)駕駛汽車(chē)、分析醫(yī)學(xué)圖像和患者數(shù)據(jù)的醫(yī)療診斷工具等。
本文將深入介紹 GPTCache,并探討如何使用 GPTCache 與 Milvus 提供更好的多模態(tài)場(chǎng)景用戶(hù)體驗(yàn)。
01.
多模態(tài) AI 應(yīng)用的語(yǔ)義緩存
在大多數(shù)情況下,實(shí)現(xiàn)多模態(tài) AI 應(yīng)用需要使用大模型。但是處理和調(diào)用模型耗時(shí)耗錢(qián),這時(shí)候我們就可以使用 GPTCache:在請(qǐng)求大模型之前,先嘗試在緩存中尋找答案。GPTCache 能夠加速整個(gè)問(wèn)答過(guò)程,并有助于降低運(yùn)行大模型時(shí)的成本。
探索 GPTCache 語(yǔ)義緩存
語(yǔ)義緩存以結(jié)構(gòu)化的方式存儲(chǔ)和檢索特定語(yǔ)義信息、概念和知識(shí),使用語(yǔ)義緩存可以幫助 AI 系統(tǒng)更好理解和響應(yīng)查詢(xún)或請(qǐng)求。語(yǔ)義緩存的使用原理就是在緩存中預(yù)先獲取常見(jiàn)或歷史問(wèn)題的答案。這樣一來(lái),信息訪(fǎng)問(wèn)會(huì)更快速,也有助于提高 AI 應(yīng)用的性能和效率。
GPTCache 項(xiàng)目專(zhuān)為大模型相關(guān)的應(yīng)用開(kāi)發(fā),可減少大模型的請(qǐng)求次數(shù)和響應(yīng)時(shí)間,從而降低開(kāi)銷(xiāo)和提高效率。GPTCache 是基于語(yǔ)義緩存的理念設(shè)計(jì)的,用于存儲(chǔ)歷史提問(wèn)和對(duì)應(yīng)的模型回復(fù),同時(shí)還接入了 Milvus 用于相似向量檢索。GPTCache 包含以下幾個(gè)重要組件:
LLM 適配器:負(fù)責(zé)確保 GPTCache 能夠與各種大模型無(wú)縫協(xié)作。
上下文管理器:使系統(tǒng)能夠在不同階段靈活處理各種數(shù)據(jù)。
向量生成器:將數(shù)據(jù)轉(zhuǎn)換為向量,以便支持更高效的數(shù)據(jù)存儲(chǔ)和語(yǔ)義搜索。
緩存管理器:存儲(chǔ)所有向量和其他有價(jià)值的數(shù)據(jù)。其中,Milvus 不僅能夠支持大規(guī)模數(shù)據(jù)的存儲(chǔ),還有助于加速和提高向量相似性搜索的性能。
相似度評(píng)估器:負(fù)責(zé)評(píng)估從緩存中檢索獲得的潛在答案是否能夠滿(mǎn)足用戶(hù)需求。
預(yù)處理器及后置處理器:幫助處理輸入或輸出的數(shù)據(jù)。
GPTCache 架構(gòu)
以下代碼片段展示了如何在 GPTCache 中配置不同模塊和初始化緩存。
from?gptcache?import?cache
from?gptcache.manager?import?get_data_manager,?CacheBase,?VectorBase,?ObjectBase
from?gptcache.processor.pre?import?get_prompt
from?gptcache.processor.post?import?temperature_softmax
from?gptcache.embedding?import?Onnx
from?gptcache.similarity_evaluation.distance?import?SearchDistanceEvaluation
onnx?=?Onnx()
cache_base?=?CacheBase('sqlite')
vector_base?=?VectorBase(
????'milvus',
????host='localhost',
????port='19530',
????dimension=onnx.dimension
????)
object_base?=?ObjectBase('local',?path='./objects')
data_manager?=?get_data_manager(cache_base,?vector_base,?object_base)
cache.init(
????pre_embedding_func=get_prompt,??#?Pre-process
????embedding_func=onnx.to_embeddings,??#?Embedding?generator
????data_manager=data_manager,??#?Cache?manager
????similarity_evaluation=SearchDistanceEvaluation()??#?Evaluator
????post_process_messages_func=temperature_softmax??#?Post-process
????)
使用向量數(shù)據(jù)庫(kù)緩存語(yǔ)義數(shù)據(jù)
語(yǔ)義緩存中最重要的組成部分就是向量數(shù)據(jù)庫(kù)。具體而言,GPTCache 的向量生成器將數(shù)據(jù)轉(zhuǎn)換為 向量以進(jìn)行向量存儲(chǔ)和語(yǔ)義搜索。向量數(shù)據(jù)庫(kù)(如:Milvus)不僅支持大規(guī)模數(shù)據(jù)存儲(chǔ),還有助于加速和提高向量相似性檢索的性能。
預(yù)訓(xùn)練的多模態(tài)模型通過(guò)學(xué)習(xí),能夠在同一特征空間中以向量的形式代表各種類(lèi)型的輸入數(shù)據(jù)。多模態(tài)模型還可以捕捉其他數(shù)據(jù)模態(tài)所提供的互補(bǔ)信息。這種模式使系統(tǒng)能夠以統(tǒng)一的方式分析不同模態(tài)的數(shù)據(jù),并通過(guò)語(yǔ)義搜索實(shí)現(xiàn)更精確和高效的數(shù)據(jù)處理。向量數(shù)據(jù)庫(kù)借助向量相似性算法實(shí)現(xiàn)對(duì)多模態(tài)輸入數(shù)據(jù)的語(yǔ)義檢索。與傳統(tǒng)的數(shù)據(jù)庫(kù)存儲(chǔ)原生數(shù)據(jù)不同,向量數(shù)據(jù)庫(kù)能夠管理由非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)化而來(lái)的高維向量數(shù)據(jù)。因此,向量數(shù)據(jù)庫(kù)非常適合處理?yè)碛卸喾N數(shù)據(jù)類(lèi)型的多模態(tài) AI 應(yīng)用。
使用 Milvus 的好處
Milvus 生態(tài)系統(tǒng)提供了有效的數(shù)據(jù)庫(kù)監(jiān)控、數(shù)據(jù)遷移和數(shù)據(jù)量估算工具。如果不想要花時(shí)間和精力維護(hù) Milvus,也可以選擇 Milvus 的云原生服務(wù)——Zilliz Cloud。以下是一些選擇 Milvus 向量數(shù)據(jù)庫(kù)的好處:
高效存儲(chǔ)和檢索
Milvus 專(zhuān)為存儲(chǔ)和檢索大規(guī)模向量數(shù)據(jù)而設(shè)計(jì)。此外,向量是深度學(xué)習(xí)模型所使用的“通用語(yǔ)言”。Milvus 可以輕松處理向量,提升多模態(tài)應(yīng)用數(shù)據(jù)訪(fǎng)問(wèn)效率,縮短回答響應(yīng)時(shí)間,優(yōu)化用戶(hù)體驗(yàn)。
高度靈活、可擴(kuò)展
隨著 AI 應(yīng)用處理的數(shù)據(jù)量爆炸式增長(zhǎng),我們需要可擴(kuò)展的解決方案。通過(guò)整合 Milvus,系統(tǒng)可以無(wú)縫地?cái)U(kuò)展以滿(mǎn)足日益增長(zhǎng)的需求。此外,Milvus 還提供了廣泛的功能,可以提高多模態(tài) AI 應(yīng)用的整體靈活性和功能性。
高性能、高可用
Milvus 同時(shí)支持向量與標(biāo)量數(shù)據(jù),擁有多種索引選擇,還提供了混合搜索等功能,能夠滿(mǎn)足多種業(yè)務(wù)需求。使用 Milvus,多模態(tài) AI 應(yīng)用可以更快速、更方便地處理各種類(lèi)型的輸入數(shù)據(jù)。Milvus 超高的檢索性能可以幫助確保AI應(yīng)用的效果和性能。
易用性
Milvus 提供多樣的本地部署選項(xiàng),包括使用?pip
?快速啟動(dòng) Milvus。您甚至還可以選擇 Zilliz Cloud 云服務(wù),快速啟動(dòng)和擴(kuò)展 Milvus 實(shí)例。此外,Milvus 支持多種語(yǔ)言的 SDK,包括 Python、Java 和 Go(其他更多語(yǔ)言正在開(kāi)發(fā)中),方便用戶(hù)集成到現(xiàn)有的應(yīng)用中。Milvus 還提供 Restful API,用戶(hù)可以更輕松地與服務(wù)器進(jìn)行交互。
可靠性
因出色的性能和高度可擴(kuò)展性,Milvus 成為了最受歡迎的向量數(shù)據(jù)庫(kù)。Milvus 擁有 1000 多家企業(yè)級(jí)用戶(hù),且配備活躍的開(kāi)源社區(qū)。作為 LF AI&Data 基金會(huì)的畢業(yè)項(xiàng)目,Milvus 的可靠性也具備極大的保障,因此,Milvus 是高效管理大規(guī)模結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的首選解決方案。
打破緩存限制,增加輸出多樣性
想要提供全面有效的解決方案,滿(mǎn)足廣泛的用戶(hù)需求,就需要多模態(tài) AI 應(yīng)用能夠生成多種不同類(lèi)型輸出數(shù)據(jù)。多樣的輸出數(shù)據(jù)有助于提升用戶(hù)體驗(yàn)、加強(qiáng) AI 系統(tǒng)的整體功能性,如虛擬助手、聊天機(jī)器人、語(yǔ)音識(shí)別系統(tǒng)等應(yīng)用就更依賴(lài)輸出數(shù)據(jù)的多樣性了。
雖然語(yǔ)義緩存是檢索數(shù)據(jù)的有效方式,但它可能會(huì)限制響應(yīng)的多樣性。這是因?yàn)檎Z(yǔ)義緩存會(huì)優(yōu)先考慮緩存中的答案,而減少?gòu)拇竽P椭猩尚碌捻憫?yīng)。所以,使用語(yǔ)義緩存的 AI 系統(tǒng)會(huì)十分依賴(lài)先前已經(jīng)存儲(chǔ)在緩存中的數(shù)據(jù)和信息,很有可能會(huì)不斷召回并輸出相同或十分類(lèi)似的答案,有損于內(nèi)容生成的創(chuàng)造性。
為了解決這個(gè)問(wèn)題,我們可以利用機(jī)器學(xué)習(xí)中的溫度(temperature)參數(shù)。溫度參數(shù)可以控制響應(yīng)的隨機(jī)性和多樣性。溫度參數(shù)值設(shè)置得越高,生成的答案越隨機(jī)。參數(shù)值設(shè)置得越低,生成內(nèi)容越一致。我們可以通過(guò)調(diào)節(jié)溫度參數(shù)值來(lái)打破緩存限制,從而使我們的 AI 應(yīng)用提供更全面有效的解決方案,滿(mǎn)足更廣泛的用戶(hù)需求。
GPTCache 中的溫度參數(shù)
為了平衡響應(yīng)的隨機(jī)性和一致性,并滿(mǎn)足用戶(hù)偏好或應(yīng)用需求,在多模態(tài) AI 應(yīng)用中選擇適當(dāng)?shù)臏囟葏?shù)值至關(guān)重要。GPTCache 保留了機(jī)器學(xué)習(xí)中溫度參數(shù)的概念,在使用 GPTCache 時(shí),可以選擇以下 3 個(gè)選項(xiàng)來(lái)調(diào)節(jié)溫度:
a. 從多個(gè)候選答案中隨機(jī)選擇
在深度學(xué)習(xí)中,對(duì)模型最后全連接層的輸出使用 softmax 激活函數(shù)是一種常見(jiàn)的技術(shù),其中涉及到了溫度參數(shù)。GPTCache 類(lèi)似地使用 softmax 函數(shù)將候選答案的相似性得分轉(zhuǎn)換為概率列表。得分越高,被選為最終答案的可能性就越大。溫度控制可能性分布的尖銳度,更高的溫度意味著得分較高的答案更可能被選中。GPTCache 中的后處理器 “temperature_softmax” 遵循此算法,給定候選答案與相應(yīng)的得分或置信度,選擇一個(gè)最終答案。
from?gptcache.processor.post?import?temperature_softmax
messages?=?["message?1",?"message?2",?"message?3"]
scores?=?[0.9,?0.5,?0.1]
answer?=?temperature_softmax(messages,?scores,?temperature=0.5)
b. 調(diào)整概率跳過(guò)緩存,直接調(diào)用模型
第 2 種選項(xiàng)是通過(guò)溫度參數(shù),調(diào)整以下行為的概率:直接調(diào)用大模型而不搜索緩存。溫度越高,越有可能跳過(guò)緩存,反之亦然。以下示例展示了如何使用?temperature_softmax?
參數(shù)來(lái)通過(guò)溫度控制是否跳過(guò)搜索緩存。
from?gptcache.processor.post?import?temperature_softmax
def?skip_cache(temperature):
????if?0?<?temperature?<?2:
????????cache_skip_options?=?[True,?False]
????????prob_cache_skip?=?[0,?1]
????????cache_skip?=?temperature_softmax(
????????????messages=cache_skip_options,
????????????scores=prob_cache_skip,
????????????temperature=temperature)
????????????)
????elif?temperature?>=?2:
????????cache_skip?=?Trueelse:??#?temperature?<=?0
????????cache_skip?=?Falsereturn?cache_skip
c. 編輯緩存結(jié)果
使用小模型或一些工具來(lái)編輯回答。選擇這個(gè)選項(xiàng)的前提是需要有一個(gè)編輯器,具備轉(zhuǎn)換輸出數(shù)據(jù)的能力。
02.
多模態(tài)應(yīng)用
越來(lái)越多人已經(jīng)不滿(mǎn)足于僅依賴(lài) GPT-3.5 驅(qū)動(dòng)的 ChatGPT,大家希望通過(guò) GPT-4 搭建自己的多模態(tài)應(yīng)用——與多種數(shù)據(jù)模態(tài)交互,包括文本、視覺(jué)圖片和音頻等。隨著 AI 技術(shù)的發(fā)展,GPTCache 和 Milvus 成為了構(gòu)建創(chuàng)新型智能多模態(tài)系統(tǒng)的解決方案。以下幾個(gè)例子展示了不同場(chǎng)景中如何使用 GPTCache 和 Milvus 搭建多模態(tài) AI 應(yīng)用。
文本到圖像:生成圖像
AI 生成圖像一直是熱門(mén)話(huà)題,指的是使用預(yù)訓(xùn)練的文本-圖像多模態(tài)模型,基于文本描述或說(shuō)明生成圖像。近年來(lái),這項(xiàng)技術(shù)取得了長(zhǎng)足的進(jìn)步。圖像生成模型已經(jīng)可以生成栩栩如生的圖像,甚至肉眼很難與人類(lèi)拍攝的照片區(qū)分開(kāi)來(lái)。
文本提示:一只白色暹羅貓
生成圖像需要使用文本提示作為輸入,而借助 GPTCache 和 Milvus 的語(yǔ)義搜索功能,圖像生成會(huì)變得更加容易。系統(tǒng)可以使用 Milvus 檢測(cè)緩存中存儲(chǔ)的相似提示文本,并從緩存中獲得相應(yīng)的圖像。如果緩存中沒(méi)有令人滿(mǎn)意的結(jié)果,GPTCache 則會(huì)調(diào)用圖像生成模型。隨后,模型生成的圖像和文本將保存在 GPTCache,從而豐富緩存的數(shù)據(jù)庫(kù)。其中,向量生成器會(huì)將文本提示轉(zhuǎn)換為向量,并存儲(chǔ)在 Milvus 中,以便于檢索。
下面的示例代碼調(diào)用了 GPTCache 適配的 OpenAI 服務(wù),并要求系統(tǒng)根據(jù)給定的文本“一只白色暹羅貓”生成圖像。我們可以通過(guò)?temperature?
和?top_k
兩個(gè)參數(shù)來(lái)控制生成圖像的多樣性。temperature?
參數(shù)的默認(rèn)值是?0.0
,如果將其調(diào)整到0.8
,那么每次即使輸入同樣的文本,但是獲得不同生成圖像的可能性會(huì)增加。
from?gptcache.adapter?import?openai
cache.set_openai_key()
response?=?openai.Image.create(
????prompt="a?white?siamese?cat",
????temperature=0.8,??#?optional,?defaults?to?0.0.
????top_k=10??#?optional,?defaults?to?5?if?temperature>0.0?else?1.
????)
GPTCache 目前已經(jīng)內(nèi)置了適配器,可以接入大多數(shù)流行的圖像生成模型或服務(wù),包括 OpenAI 圖像生成服務(wù)(https://platform.openai.com/docs/guides/images/introduction)、Stability.AI API(https://stability.ai/blog/api-platform-for-stability-ai)、HuggingFace Stable Diffusions(https://huggingface.co/spaces/stabilityai/stable-diffusion)。
圖像到文本:圖像描述生成
圖像描述生成是指為圖像生成文本描述,這一過(guò)程通常會(huì)使用預(yù)訓(xùn)練的圖像-文本多模態(tài)模型。通過(guò)這種技術(shù),機(jī)器能夠理解圖像的內(nèi)容并用自然語(yǔ)言描述和解釋圖像。我們還可以在聊天機(jī)器人中加入圖像描述生成的能力,從而優(yōu)化用戶(hù)體驗(yàn),將視覺(jué)交互和對(duì)話(huà)無(wú)縫銜接起來(lái)。
圖像描述:棕色的大狗躺在床上
在圖像描述生成的應(yīng)用中,GPTCache 會(huì)先在緩存中掃描一遍,查找與輸入圖像相似的圖像。然后,為了保證返回的文本描述質(zhì)量,評(píng)估器會(huì)額外判斷輸入圖像和從緩存中檢索的圖像或文本描述之間的相關(guān)性或相似性。評(píng)估圖像相似性時(shí),系統(tǒng)會(huì)使用預(yù)訓(xùn)練的視覺(jué)模型,如 ResNet 或ViT 等將圖像轉(zhuǎn)換成向量。
此外,像 CLIP 這樣的文本-圖像多模態(tài)模型,也可以用于直接衡量圖像和文本之間的相似性。如果緩存中沒(méi)有匹配項(xiàng),那么系統(tǒng)會(huì)利用多模態(tài)模型為輸入的圖像生成新的文本描述。隨后,GPTCache 會(huì)將生成的文本及相應(yīng)的圖像存儲(chǔ)在緩存中。其中,圖像和文本都會(huì)被轉(zhuǎn)化為向量保存在 Milvus 中。
GPTCache 目前已經(jīng)適配了主流的圖像描述生成服務(wù),例如 Replicate BLIP(https://replicate.com/salesforce/blip)和 MiniGPT-4(https://minigpt-4.github.io/)等。后續(xù),GPTCache 將支持更多圖像-文本模型和服務(wù)以及本地多模態(tài)模型。
音頻到文本:語(yǔ)音轉(zhuǎn)錄
音頻到文本,也稱(chēng)為語(yǔ)音轉(zhuǎn)錄,是指將音頻內(nèi)容(如錄制的對(duì)話(huà)、會(huì)議或講座)轉(zhuǎn)換為書(shū)面形式的文本。這種技術(shù)能夠幫助聽(tīng)障人士或者更喜歡閱讀文字的人理解信息。用戶(hù)可以將轉(zhuǎn)錄成文字的音頻內(nèi)容放入 ChatGPT 進(jìn)行提問(wèn),或者嘗試用其他方式更好利用語(yǔ)音轉(zhuǎn)錄的文本!
音頻文件:一杯波本威士忌,一杯蘇格蘭威士忌,一份賬單(One bourbon, one scotch, one bill)
語(yǔ)音轉(zhuǎn)錄的初始輸入數(shù)據(jù)通常是音頻文件。語(yǔ)音轉(zhuǎn)錄的第一步是將每個(gè)輸入的音頻文件轉(zhuǎn)化為音頻向量 。第二步,系統(tǒng)利用 Milvus 進(jìn)行相似性搜索,從緩存中檢索潛在的相似音頻。如果在評(píng)估后找不到相似的答案時(shí),系統(tǒng)會(huì)調(diào)用自動(dòng)語(yǔ)音識(shí)別(ASR)模型或服務(wù)。ASR 模型生成的音頻和轉(zhuǎn)錄文本都會(huì)存儲(chǔ)在 GPTCache 緩存中。其中,音頻數(shù)據(jù)會(huì)轉(zhuǎn)化為向量存儲(chǔ)在 Milvus 中。由于 Milvus 具有高擴(kuò)展性,如果音頻數(shù)量不斷增加,Milvus 也能夠靈活擴(kuò)展以適應(yīng)需求。
使用 GPTCache 和 Milvus 后,ASR 調(diào)用次數(shù)大幅降低,很大程度提高了音頻轉(zhuǎn)路的速度和效率。GPTCache 教程中的語(yǔ)音到文本教程(https://gptcache.readthedocs.io/en/latest/bootcamp/openai/speech_to_text.html)提供了實(shí)例代碼,展示如何使用 GPTCache、Milvus 和 OpenAI 的 Speech to text 模型進(jìn)行語(yǔ)音轉(zhuǎn)錄。
03.
總結(jié)
多模態(tài) AI 模型越來(lái)越受歡迎,可以更全面地分析和理解復(fù)雜數(shù)據(jù)。Milvus 可以處理非結(jié)構(gòu)化數(shù)據(jù),因此是構(gòu)建和擴(kuò)展多模態(tài) AI 應(yīng)用的理想解決方案。在 GPTCache 中添加更多功能,例如會(huì)話(huà)管理、上下文感知和服務(wù)器,能夠進(jìn)一步增強(qiáng)多模態(tài) AI 應(yīng)用的能力,使多模態(tài) AI 模型發(fā)揮更多潛在作用,滿(mǎn)足更多場(chǎng)景需求。更多關(guān)于多模態(tài) AI 應(yīng)用的文章,請(qǐng)關(guān)注 GPTCache Bootcamp(https://github.com/zilliztech/GPTCache/tree/main/docs/bootcamp)。
??「尋找 AIGC 時(shí)代的 CVP 實(shí)踐之星」 專(zhuān)題活動(dòng)即將啟動(dòng)!
Zilliz 將聯(lián)合國(guó)內(nèi)頭部大模型廠(chǎng)商一同甄選應(yīng)用場(chǎng)景,?由雙方提供向量數(shù)據(jù)庫(kù)與大模型頂級(jí)技術(shù)專(zhuān)家為用戶(hù)賦能,一同打磨應(yīng)用,提升落地效果,賦能業(yè)務(wù)本身。
如果你的應(yīng)用也適合 CVP 框架,且正為應(yīng)用落地和實(shí)際效果發(fā)愁,可直接申請(qǐng)參與活動(dòng),獲得最專(zhuān)業(yè)的幫助和指導(dǎo)!聯(lián)系郵箱為?business@zilliz.com。
本文作者
顧夢(mèng)佳
Zilliz 高級(jí)算法工程師
推薦閱讀
文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-626104.html
《我決定給 ChatGPT 做個(gè)緩存層 >>> Hello GPTCache》
文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-626104.html
《GPTCache:LLM 應(yīng)用必備的【省省省】利器》
到了這里,關(guān)于探索 GPTCache|GPT-4 將開(kāi)啟多模態(tài) AI 時(shí)代,GPTCache + Milvus 帶來(lái)省錢(qián)秘籍的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!