国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu)

這篇具有很好參考價(jià)值的文章主要介紹了向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

這是關(guān)于向量數(shù)據(jù)庫的系列文章中的第二篇。正如本系列的第一篇所提到的,2023年上半年關(guān)于向量數(shù)據(jù)庫的營(yíng)銷(不幸的是,有些是炒作)非常多,如果你正在閱讀這篇文章,你可能對(duì)向量數(shù)據(jù)庫在底層是如何工作的,以及如何在高效的向量存儲(chǔ)之上構(gòu)建搜索功能感興趣。

為什么現(xiàn)在大家都在談?wù)撓蛄繑?shù)據(jù)庫呢?在深入探討向量數(shù)據(jù)庫是什么之前,有什么可以解釋這個(gè)領(lǐng)域的活動(dòng)和投資熱潮嗎?

大型語言模型(LLM)的時(shí)代

在2022年11月,OpenAI發(fā)布了ChatGPT的早期演示(它是GPT 3.5及以上版本的OpenAI接口),隨后它迅速成為歷史上增長(zhǎng)最快的應(yīng)用程序,在僅僅5天內(nèi)就獲得了一百萬用戶??!事實(shí)上,如果你查看一些主要的開源向量數(shù)據(jù)庫存儲(chǔ)庫在GitHub上的歷史記錄,可以清楚地看到在2022年11月發(fā)布ChatGPT以及隨后在2023年3月發(fā)布ChatGPT插件后,其中一些存儲(chǔ)庫的星標(biāo)計(jì)數(shù)出現(xiàn)了明顯的增長(zhǎng)。這些因素以及它們?cè)贖acker News和流行媒體等網(wǎng)站上的相關(guān)帖子,是為什么在這個(gè)領(lǐng)域出現(xiàn)了如此多的活動(dòng)的重要原因之一。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

依賴大型語言模型的問題

大型語言模型(LLMs)是生成型的,意味著它們根據(jù)用戶的提示以順序方式生成有意義、連貫的文本。然而,當(dāng)使用LLMs回答人類的問題時(shí),它們經(jīng)常會(huì)產(chǎn)生與問題無關(guān)或事實(shí)上不正確的結(jié)果。

  • LLMs經(jīng)常會(huì)產(chǎn)生幻覺,即虛構(gòu)信息,例如指向不存在的URL或編造不存在的數(shù)字。

  • LLMs學(xué)習(xí)/記憶其訓(xùn)練數(shù)據(jù)的壓縮版本,雖然它們學(xué)習(xí)得很好,但并不完美—模型對(duì)數(shù)據(jù)的內(nèi)部表示總是會(huì)“丟失”一些信息。

  • LLMs無法知道其訓(xùn)練完成后發(fā)生的事實(shí)。

向量數(shù)據(jù)庫有助于解決這些問題,它們作為底層存儲(chǔ)層,可以被LLMs高效地查詢以檢索事實(shí)。與傳統(tǒng)數(shù)據(jù)庫不同,向量數(shù)據(jù)庫專門將數(shù)據(jù)以向量的形式進(jìn)行本地表示。因此,我們現(xiàn)在可以構(gòu)建應(yīng)用程序,讓LLMs位于包含最新、最新的事實(shí)數(shù)據(jù)(遠(yuǎn)遠(yuǎn)超過LLMs的訓(xùn)練日期)的向量存儲(chǔ)層之上,并使用它們來“基于事實(shí)”地約束模型,緩解幻覺問題。?盡管向量數(shù)據(jù)庫(如Vespa、Weaviate、Milvus)在LLMs之前就已經(jīng)存在,但自ChatGPT發(fā)布以來,開源社區(qū)以及向量數(shù)據(jù)庫供應(yīng)商的營(yíng)銷團(tuán)隊(duì)迅速意識(shí)到它們?cè)谒阉骱蜋z索等主流用例中與高質(zhì)量文本生成的結(jié)合中的潛力。這解釋了為什么在向量數(shù)據(jù)庫領(lǐng)域出現(xiàn)了絕對(duì)的風(fēng)投資金熱潮!

什么是嵌入?

向量數(shù)據(jù)庫不僅存儲(chǔ)原始數(shù)據(jù)(可以是圖像、音頻或文本),還存儲(chǔ)其編碼形式:嵌入(embeddings)。這些嵌入實(shí)質(zhì)上是存儲(chǔ)數(shù)據(jù)的上下文表示的數(shù)字列表(即向量)。直觀地說,當(dāng)我們提到“嵌入”時(shí),我們指的是實(shí)際存在于更高維度中的數(shù)據(jù)(圖像、文本、音頻)的壓縮、低維表示。?在存儲(chǔ)層內(nèi),數(shù)據(jù)庫以m個(gè)向量堆棧的形式存儲(chǔ),每個(gè)向量使用n個(gè)維度表示一個(gè)數(shù)據(jù)點(diǎn),總大小為m×n。為了查詢性能的原因,這些堆棧通常通過分片進(jìn)行劃分。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

嵌入是如何生成的?

在自然語言處理(NLP)中,Transformer的革命為工程師們提供了高效且可擴(kuò)展地生成這些壓縮表示或嵌入的豐富手段。

  • 一種流行的方法是使用開源庫Sentence Transformers,可以通過Hugging Face模型中心或直接從源代碼的reposentence-transformers獲取。

  • 另一種(更昂貴的)方法是使用許多API服務(wù):OpenAI嵌入API或者Cohere嵌入API

需要記住的是,底層向量的維度越低,嵌入空間中的表示就越緊湊,這可能會(huì)影響下游任務(wù)的質(zhì)量。Sentence Transformers(sbert)提供了維度在384、512和768范圍內(nèi)的嵌入模型,而且這些模型完全免費(fèi)且開源。OpenAI和Cohere嵌入則需要付費(fèi)的API調(diào)用來生成,由于維度在幾千維,因此可以認(rèn)為它們具有更高的質(zhì)量。使用付費(fèi)API生成嵌入的一個(gè)合理原因是如果數(shù)據(jù)是多語言的(Cohere被認(rèn)為擁有高質(zhì)量的多語言嵌入模型,其性能優(yōu)于開源變體)。注:選擇嵌入模型通常是在質(zhì)量和成本之間進(jìn)行權(quán)衡。在大多數(shù)情況下,對(duì)于英文文本數(shù)據(jù),可以直接使用開源模型,適用于不太長(zhǎng)的文本(文本序列約300-400個(gè)詞)。對(duì)于超過模型上下文長(zhǎng)度的文本,可以使用更多的外部工具來處理,但這個(gè)話題將在另一篇文章中討論!

將嵌入存儲(chǔ)在矢量數(shù)據(jù)庫中

由于向量數(shù)據(jù)庫在嵌入空間中的可操作性,它們對(duì)于多種形式的數(shù)據(jù)(文本、圖像、音頻)的語義或相似性搜索非常有用。在語義搜索中,用戶發(fā)送的輸入查詢(通常是自然語言)被轉(zhuǎn)換為向量形式,與數(shù)據(jù)本身在相同的嵌入空間中,以便返回與輸入查詢最相似的前k個(gè)結(jié)果。下面是這個(gè)過程的可視化示例。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

如何計(jì)算相似度?

不同的向量數(shù)據(jù)庫提供不同的相似度計(jì)算指標(biāo),但對(duì)于文本數(shù)據(jù),最常用的兩個(gè)指標(biāo)如下:

  • 點(diǎn)積(Dot product):產(chǎn)生一個(gè)非歸一化的任意大小的值。
  • 余弦距離(Cosine distance):產(chǎn)生一個(gè)歸一化的值(介于-1和1之間)。

考慮一個(gè)簡(jiǎn)化的例子,我們將紅葡萄酒和白葡萄酒的標(biāo)題在二維空間中進(jìn)行向量化,其中水平軸表示紅葡萄酒,垂直軸表示白葡萄酒。在這個(gè)空間中,距離較近的點(diǎn)表示具有相似單詞或概念的葡萄酒,而距離較遠(yuǎn)的點(diǎn)則沒有太多共同之處。余弦距離被定義為連接每個(gè)葡萄酒在嵌入空間中位置與原點(diǎn)之間的線之間的夾角的余弦值。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

一幅可視化圖將使這更加直觀。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

在左邊,兩種葡萄酒(Reserve White和Toscana Red)在詞匯和概念上幾乎沒有共同之處,因此它們的余弦距離接近零(在向量空間中它們是正交的)。在右邊,來自納帕谷的兩種Zinfandel葡萄酒有更多的共同之處,因此它們的余弦相似度更接近1。極限情況下,余弦距離為1;當(dāng)然,在實(shí)際情況中,實(shí)際數(shù)據(jù)存在于更高維的向量空間中(除了葡萄酒的品種之外還有許多其他軸),無法在二維平面上可視化,但余弦相似度的原理仍然適用。

可擴(kuò)展的最近鄰搜索

一旦向量被生成并存儲(chǔ),當(dāng)用戶提交一個(gè)搜索查詢時(shí),相似性搜索的目標(biāo)是提供與輸入查詢向量最相似的前k個(gè)向量。再次,我們可以在簡(jiǎn)化的二維空間中可視化這一過程。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

最簡(jiǎn)單的方法是使用所謂的k最近鄰(kNN)方法,將查詢向量與數(shù)據(jù)庫中的每個(gè)向量進(jìn)行比較。然而,隨著數(shù)據(jù)規(guī)模擴(kuò)大到數(shù)百萬(甚至數(shù)十億)個(gè)數(shù)據(jù)點(diǎn),這種方法很快變得過于昂貴,因?yàn)樗璧谋容^次數(shù)與數(shù)據(jù)呈線性增長(zhǎng)關(guān)系。

近似最近鄰(ANN)

每個(gè)現(xiàn)有的向量數(shù)據(jù)庫都專注于通過一類稱為近似最近鄰(ANN)搜索的算法,使搜索在數(shù)據(jù)集的大小上高效無論如何。與在數(shù)據(jù)庫中的每個(gè)向量之間進(jìn)行詳盡比較不同,近似搜索會(huì)尋找最近鄰,從而在結(jié)果的準(zhǔn)確性上有一定的損失(可能并不總是返回真正的最近鄰),但使用ANN算法可以獲得巨大的性能提升。

索引

通過索引將數(shù)據(jù)存儲(chǔ)在向量數(shù)據(jù)庫中,索引是指創(chuàng)建稱為索引的數(shù)據(jù)結(jié)構(gòu),通過快速縮小搜索空間來實(shí)現(xiàn)對(duì)向量的高效查找。通常使用的嵌入模型將向量存儲(chǔ)在維度約為102到103的范圍內(nèi),而ANN算法則盡可能高效地在時(shí)間和空間上捕捉數(shù)據(jù)的實(shí)際復(fù)雜性。?在各種可用的向量數(shù)據(jù)庫中使用了許多索引算法,它們的詳細(xì)信息超出了本文的范圍(我將在以后的文章中學(xué)習(xí)這些)。但是為了參考,下面列出了其中一些算法。

  • 倒排文件索引(IVF)

  • 分層可導(dǎo)航小世界(HNSW)圖

  • Vamana(在DiskANN實(shí)現(xiàn)中使用)

簡(jiǎn)而言之,最先進(jìn)的索引技術(shù)是由HNSW和Vamana等新算法實(shí)現(xiàn)的,但只有少數(shù)數(shù)據(jù)庫供應(yīng)商提供了Vamana的DiskANN實(shí)現(xiàn)(截至2023年)。

  • Milvus

  • Weaviate(正在進(jìn)行中…)

  • LanceDB(正在進(jìn)行中…)

把它們放在一起

我們可以將上述所有想法結(jié)合起來,形成一個(gè)關(guān)于向量數(shù)據(jù)庫實(shí)際是什么的概念圖 。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

對(duì)于從業(yè)者來說,每個(gè)數(shù)據(jù)庫供應(yīng)商如何實(shí)現(xiàn)可擴(kuò)展性(通過Kubernetes、分片、流式處理等)的具體細(xì)節(jié)并不重要 - 這取決于每個(gè)供應(yīng)商在延遲、成本和可擴(kuò)展性之間權(quán)衡的系統(tǒng)架構(gòu)。

存儲(chǔ)層和數(shù)據(jù)攝入

  • 數(shù)據(jù)(存儲(chǔ)在本地或云端)經(jīng)過嵌入模型轉(zhuǎn)換為向量形式,并通過API網(wǎng)關(guān)攝入到向量數(shù)據(jù)庫的存儲(chǔ)層中。

  • 數(shù)據(jù)在索引過程中進(jìn)行分區(qū)/分片,以實(shí)現(xiàn)可擴(kuò)展性和更快的查找。

  • 查詢引擎與存儲(chǔ)層緊密集成,通過數(shù)據(jù)庫的ANN實(shí)現(xiàn)快速檢索最近鄰。

應(yīng)用程序?qū)?/strong>

  • 用戶通過應(yīng)用程序的用戶界面向嵌入模型發(fā)送查詢,該模型將輸入查詢轉(zhuǎn)換為與數(shù)據(jù)處于相同嵌入空間的向量。
  • 向量化的查詢通過API網(wǎng)關(guān)發(fā)送到查詢引擎:多個(gè)傳入的查詢被異步處理,并將前k個(gè)結(jié)果發(fā)送回用戶。

擴(kuò)展矢量數(shù)據(jù)庫以服務(wù)其他功能

上述用例展示了向量數(shù)據(jù)庫如何在規(guī)模上實(shí)現(xiàn)了語義搜索,這在幾年前是不可能的,除非你是一家擁有龐大資源的大型科技公司。然而,這只是冰山一角:向量數(shù)據(jù)庫用于支持許多下游功能。

混合搜索系統(tǒng)

在Colin Harman的優(yōu)秀評(píng)論文章中,他描述了許多公司由于當(dāng)前存在大量的向量數(shù)據(jù)庫營(yíng)銷材料,對(duì)于搜索和檢索領(lǐng)域存在“隧道視野”。作為從業(yè)者,我們必須記住,向量數(shù)據(jù)庫并不是搜索的萬靈藥 ,它們?cè)谡Z義搜索方面非常出色,但在許多情況下,傳統(tǒng)的關(guān)鍵字搜索可以產(chǎn)生更相關(guān)的結(jié)果并提高用戶滿意度。為什么會(huì)這樣?這主要是因?yàn)榛谟嘞蚁嗨贫鹊戎笜?biāo)進(jìn)行排名會(huì)導(dǎo)致具有更高相似度分?jǐn)?shù)的結(jié)果出現(xiàn)在可能包含特定輸入關(guān)鍵字的部分匹配之上,從而降低了它們對(duì)最終用戶的相關(guān)性。?然而,純關(guān)鍵字搜索也有其局限性 ,?如果用戶輸入的術(shù)語在語義上與存儲(chǔ)的數(shù)據(jù)相似(但不完全相同),則可能有用和相關(guān)的結(jié)果將不會(huì)返回。由于這種權(quán)衡,搜索和檢索的實(shí)際應(yīng)用案例需要關(guān)鍵字和向量搜索的結(jié)合,其中向量數(shù)據(jù)庫是關(guān)鍵組成部分(因?yàn)樗鼈兇鎯?chǔ)了嵌入向量,實(shí)現(xiàn)了語義相似性搜索,并能夠擴(kuò)展到非常大的數(shù)據(jù)集)。?總結(jié)以上觀點(diǎn):

  • 關(guān)鍵字搜索:當(dāng)用戶知道自己在尋找什么并期望結(jié)果與搜索詞中的確切短語匹配時(shí),可以找到相關(guān)、有用的結(jié)果。不需要向量數(shù)據(jù)庫。

  • 向量搜索:當(dāng)用戶不確定自己在尋找什么時(shí),可以找到相關(guān)的結(jié)果。需要向量數(shù)據(jù)庫。

  • 混合關(guān)鍵字+向量搜索:通常結(jié)合全文關(guān)鍵字搜索和向量搜索的候選結(jié)果,并使用交叉編碼器模型重新排序它們(見下文)。需要文檔數(shù)據(jù)庫和向量數(shù)據(jù)庫。

可以通過下面的圖表有效地進(jìn)行可視化:

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

BM25是某些數(shù)據(jù)庫(如Elasticsearch、Opensearch、MongoDB)中用于關(guān)鍵字搜索的最常見的索引算法。它通過考慮關(guān)鍵字詞頻與其逆文檔頻率(IDF)的關(guān)系來生成稀疏向量。相比之下,向量數(shù)據(jù)庫通常使用稠密向量來編碼和存儲(chǔ)文本嵌入(與BM25不同,向量中的所有術(shù)語都不為零),通常通過類似BERT的雙編碼器模型來實(shí)現(xiàn),該模型為一對(duì)文檔生成一個(gè)句子嵌入,然后可以進(jìn)行比較以生成余弦相似度分?jǐn)?shù)。

理解雙編碼器和交叉編碼器之間的區(qū)別

為了有效地進(jìn)行混合搜索,需要通過BM25(關(guān)鍵字搜索)和余弦相似度(向量搜索)獲得的搜索結(jié)果候選項(xiàng)進(jìn)行組合,這需要使用交叉編碼器。如下圖所示,這是一個(gè)下游步驟,允許將兩個(gè)句子同時(shí)傳遞給像BERT這樣的編碼器模型。與用于生成句子嵌入的雙編碼器不同,交叉編碼器不會(huì)生成嵌入向量,而是通過softmax層為一對(duì)句子分配一個(gè)介于0和1之間的分?jǐn)?shù),從而對(duì)其進(jìn)行分類。這被稱為重新排序,是一種非常強(qiáng)大的方法,可以獲得結(jié)合了關(guān)鍵字搜索和向量搜索優(yōu)勢(shì)的結(jié)果。

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

需要注意的是:通過交叉編碼器進(jìn)行重新排序是一個(gè)昂貴的步驟,因?yàn)樗诓樵儠r(shí)需要使用一個(gè)Transformer模型。這種方法在搜索質(zhì)量對(duì)于使用案例至關(guān)重要時(shí)使用,并且需要更多的計(jì)算資源(通常是GPU)和調(diào)優(yōu)時(shí)間,以確保應(yīng)用程序按預(yù)期運(yùn)行。

生成式問答:“與數(shù)據(jù)聊天”

隨著強(qiáng)大的語言模型(如GPT-4)的出現(xiàn),我們可以有效地將應(yīng)用程序的用戶體驗(yàn)與存儲(chǔ)在向量數(shù)據(jù)庫中的干凈、事實(shí)性信息進(jìn)行整合,使用戶能夠通過自然語言查詢他們的數(shù)據(jù)。因?yàn)閱柎鹂赡苌婕暗牟粌H僅是信息檢索(可能需要對(duì)數(shù)據(jù)的部分進(jìn)行分析,而不僅僅是查詢),在應(yīng)用程序界面和向量數(shù)據(jù)庫之間包含一個(gè)基于代理的框架(如LangChain7)可能比直接連接向量數(shù)據(jù)庫更加強(qiáng)大。****

向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu),數(shù)據(jù)庫,大數(shù)據(jù)

由于向量數(shù)據(jù)庫將要查詢的數(shù)據(jù)存儲(chǔ)為嵌入向量,并且語言模型(LLM)也將其內(nèi)部的知識(shí)編碼為嵌入向量,因此它們?cè)谏墒絾柎饝?yīng)用中是天然的配對(duì)。向量數(shù)據(jù)庫充當(dāng)知識(shí)庫的功能,而LLM可以直接在嵌入空間中查詢數(shù)據(jù)的子集??梢允褂靡韵路椒ㄟM(jìn)行操作:

  • 用戶通過界面用自然語言提出問題。

  • 問題的文本被傳遞給嵌入模型(雙編碼器),然后返回一個(gè)句子嵌入向量。

  • 問題向量被傳遞給向量數(shù)據(jù)庫,通過ANN搜索返回與之最相似的前k個(gè)結(jié)果。這一步非常關(guān)鍵,因?yàn)樗蟠罂s小了LLM在下一步中的搜索空間。

  • 構(gòu)建一個(gè)LLM提示(基于開發(fā)者預(yù)定義的模板),將其轉(zhuǎn)換為嵌入向量,并傳遞給LLM。使用類似LangChain的框架可以方便地執(zhí)行此步驟,因?yàn)榭梢詣?dòng)態(tài)構(gòu)建提示,并調(diào)用LLM的本地嵌入模塊,而無需為每個(gè)工作流編寫大量自定義代碼。

  • LLM在前k個(gè)結(jié)果中搜索信息,并生成問題的答案。

  • 答案發(fā)送回用戶。

上述工作流程可以以許多方式進(jìn)行擴(kuò)展。例如,如果用戶的問題涉及從數(shù)據(jù)庫中獲取的數(shù)字進(jìn)行一些算術(shù)運(yùn)算(LLM在這方面的表現(xiàn)往往不好),LangChain代理可以確定首先需要進(jìn)行算術(shù)運(yùn)算。然后,它將從前k個(gè)結(jié)果中提取的數(shù)值信息傳遞給計(jì)算器API,執(zhí)行計(jì)算,然后將答案發(fā)送回用戶。通過這種可組合的工作流程,可以看到向量數(shù)據(jù)庫為生成式問答聊天界面提供了強(qiáng)大的支持。

結(jié)論

結(jié)合LLM和向量數(shù)據(jù)庫可以構(gòu)建許多其他有用的應(yīng)用程序。然而,了解向量數(shù)據(jù)庫的一些潛在限制是很重要的:

  • 在搜索應(yīng)用程序中,它們不一定優(yōu)先考慮關(guān)鍵詞短語的精確匹配來確定相關(guān)性。

  • 存儲(chǔ)和查詢的數(shù)據(jù)必須適應(yīng)所使用的嵌入模型的最大序列長(zhǎng)度(對(duì)于類似BERT的模型,這個(gè)長(zhǎng)度不超過幾百個(gè)詞)。目前,最好的方法是利用像LangChain和LlamaIndex這樣的框架,將數(shù)據(jù)分塊或壓縮成適合底層模型上下文的固定大小的向量。

向量數(shù)據(jù)庫非常強(qiáng)大,但正如Harman所說,最重要的是:如果您對(duì)向量數(shù)據(jù)庫以及搜索和信息檢索領(lǐng)域不太了解,以下材料不應(yīng)成為您選擇技術(shù)棧進(jìn)行決策的主要信息來源:

  • 來自超級(jí)聰明的風(fēng)險(xiǎn)投資公司的基礎(chǔ)設(shè)施堆棧。

  • 流行的LLM應(yīng)用程序框架的教程。

就像在任何其他領(lǐng)域一樣,明確定義業(yè)務(wù)案例并研究手頭的工具,可以有效地將它們結(jié)合起來解決現(xiàn)實(shí)世界的問題。在這方面,希望這個(gè)關(guān)于向量數(shù)據(jù)庫的系列有所幫助!

作者:Prashanth Rao

更多技術(shù)干貨請(qǐng)關(guān)注公眾號(hào)“云原生數(shù)據(jù)庫

squids.cn,目前可體驗(yàn)全網(wǎng)zui低價(jià)RDS,免費(fèi)的遷移工具DBMotion、SQL開發(fā)工具等。文章來源地址http://www.zghlxwxcb.cn/news/detail-670978.html

到了這里,關(guān)于向量數(shù)據(jù)庫(第 2 部分):了解其內(nèi)部結(jié)構(gòu)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包