国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Semantic Kernel 入門系列:?突破提示詞的限制

這篇具有很好參考價(jià)值的文章主要介紹了Semantic Kernel 入門系列:?突破提示詞的限制。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Semantic Kernel 入門系列:?突破提示詞的限制

無盡的上下文

LLM對自然語言的理解和掌握在知識內(nèi)容的解讀和總結(jié)方面提供了強(qiáng)大的能力。

但是由于訓(xùn)練數(shù)據(jù)本身來自于公共領(lǐng)域,也就注定了無法在一些小眾或者私有的領(lǐng)域能夠足夠的好的應(yīng)答。

因此如何給LLM 提供足夠多的信息上下文,就是如今的LLM AI應(yīng)用可以充分發(fā)揮能力的地方了。

我們默認(rèn)可以想到的是在提示詞中提供足夠的上下文信息,然而像OpenAI的模型總是有一個(gè)Max Tokens 的限制,也就意味著不可能一次性將所有的相關(guān)信息都可以放在提示詞中,即便是最大的gpt-4-32k,目前也只有32,768 tokens,雖然看起來挺多的,但是相比較動(dòng)則成百上千頁的內(nèi)部文檔,或者專業(yè)資料,也不大可能將所有的內(nèi)容都塞進(jìn)prompt。

Semantic Kernel 入門系列:?突破提示詞的限制

即便說不遠(yuǎn)未來MaxTokens的上限提升到了可以輕輕松松塞下一本書了,還需要考慮的就是成本問題,以目前GPT4 的價(jià)格,0.06美元/1K tokens(32K context),光是把Prompt 塞滿,不指望做出回復(fù),一次調(diào)用成本就 1.97美元了。所以在Prompt中放置大量的信息怎么算都是不劃算的。

通常情況下,我們回答一個(gè)問題,并不總是需要采用所有的信息的,例如講某本書的某個(gè)知識點(diǎn),基本不會(huì)說要一次性將全書翻一遍,然后才回答問題。除非已經(jīng)將書中的內(nèi)容記得滾瓜爛熟了,否則通常都是根據(jù)書中關(guān)于這個(gè)知識點(diǎn)相關(guān)的章節(jié)或者段落,就可以得到對應(yīng)的答案了。

這種方法也常常應(yīng)用于搜索領(lǐng)域,人們所需要的答案往往僅僅在問題所涉及的很小的范圍之內(nèi)。搜索引擎一直在做的事情就是找到最符合你預(yù)期的相關(guān)結(jié)果。對應(yīng)的結(jié)果就是,我們總是能在搜索結(jié)果的前兩頁,甚至前兩個(gè)條目中獲得答案。

所以解決LLM有限Prompt下的上下文的基本方法也是這樣,提前根據(jù)問題搜索找到相關(guān)的內(nèi)容信息,再將內(nèi)容信息和問題都是提供給LLM,讓LLM做出對應(yīng)的總結(jié)和回答。

找到有用的信息

借助于 Native Function的功能,我們可以通過一些簡單的方法,例如關(guān)鍵詞等,匹配到一些相關(guān)信息,也可以對接搜索引擎(全網(wǎng)的或者私域的),獲取一些的相關(guān)的訊息。

但是傳統(tǒng)的方法還是傳統(tǒng)的問題,就比如搜索引擎所采用的索引方法,也都是基于關(guān)鍵詞,能匹配上的自然找得到,匹配不上的就很難說了。尤其是有些專用詞匯無法描述清楚的時(shí)候,還有一些比較多的同義詞的時(shí)候,都很難得到合適的答案。

這里就需要應(yīng)用到LLM另外一個(gè)神器,Embedding。

簡單地說,Embedding可以將文本進(jìn)行一些轉(zhuǎn)化高維向量,作為向量就有了計(jì)算的可能性,就可以的進(jìn)行相似性和差異性的判斷。只需要計(jì)算一下兩段文本之間的距離,就可以判斷是否具有相似性,這種相似性是基于語義的,也就完全突破了字面上的相似性。如此以來,將所有的信息分段或者創(chuàng)建摘要進(jìn)行轉(zhuǎn)化,將問題和所有信息進(jìn)行匹配,找到距離最近的或者符合距離需求的,就都是相關(guān)的信息了。這樣就可以無須關(guān)心關(guān)鍵詞是否匹配,不用煞費(fèi)苦心的提取相關(guān)關(guān)鍵詞了。

不過也有一個(gè)問題需要注意的,那就是這種向量的映射方式?jīng)Q定了相關(guān)內(nèi)容查找的準(zhǔn)確性是由LLM決定的,也并不是所有的時(shí)候都能找到最合適的內(nèi)容。了解LLM的脾性也是使用它的重要一環(huán)。

了解了基本原理之后,后面就可以看看Semantic Kernel在這方面做了什么。


參考資料:文章來源地址http://www.zghlxwxcb.cn/news/detail-411804.html

  1. https://learn.microsoft.com/en-us/semantic-kernel/concepts-sk/memories
  2. https://platform.openai.com/docs/models/overview
  3. https://openai.com/pricing
  4. https://learn.microsoft.com/en-us/semantic-kernel/concepts-ai/embeddings

到了這里,關(guān)于Semantic Kernel 入門系列:?突破提示詞的限制的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Semantic Kernel 入門系列:?LLM的魔法

    Semantic Kernel 入門系列:?LLM的魔法

    ChatGPT 只是LLM 的小試牛刀,讓人類能夠看到的是機(jī)器智能對于語言系統(tǒng)的理解和掌握。 如果只是用來閑聊,而且只不過是將OpenAI的接口封裝一下,那么市面上所有的ChatGPT的換皮應(yīng)用都差不多。這就像是買了個(gè)徠卡鏡頭的手機(jī),卻只用來掃二維碼一樣。 由于微軟的財(cái)大氣粗,

    2023年04月09日
    瀏覽(23)
  • Semantic Kernel 入門系列:?Native Function

    Semantic Kernel 入門系列:?Native Function

    語義的歸語義,語法的歸語法。 最基本的Native Function定義只需要在方法上添加 SKFunction 的特性即可。 默認(rèn)情況下只需要傳遞一個(gè)string 參數(shù)就行,如果需要多個(gè)參數(shù)的話,和Semantic Function一樣,也是使用Context,不過這里傳進(jìn)去是 SKContext 。在方法上使用 SKFunctionContextParameter 聲

    2023年04月11日
    瀏覽(16)
  • Semantic Kernel 入門系列:? Planner 計(jì)劃管理

    Semantic Kernel 入門系列:? Planner 計(jì)劃管理

    Semantic Kernel 的一個(gè)核心能力就是實(shí)現(xiàn)“目標(biāo)導(dǎo)向”的AI應(yīng)用。 “目標(biāo)導(dǎo)向”聽起來是一個(gè)比較高大的詞,但是卻是實(shí)際生活中我們處理問題的基本方法和原則。 顧名思義,這種方法的核心就是先確定目標(biāo),然后再尋找實(shí)現(xiàn)目標(biāo)的方法和步驟。這對于人來說的是很自然的事情

    2023年04月16日
    瀏覽(23)
  • Semantic Kernel 入門系列:?LLM降臨的時(shí)代

    Semantic Kernel 入門系列:?LLM降臨的時(shí)代

    不論你是否關(guān)心,不可否認(rèn),AGI的時(shí)代即將到來了。 在這個(gè)突如其來的時(shí)代中,OpenAI的ChatGPT無疑處于浪潮之巔。而在ChatGPT背后,我們不能忽視的是LLM(Large Language Model)大型語言模型。 一夜之間所有的大廠商都在搞LLM,雖然很難有誰能和OpenAI相匹敵,但是隨著AI領(lǐng)域的新摩

    2023年04月08日
    瀏覽(20)
  • Semantic Kernel 入門系列:?Connector連接器

    Semantic Kernel 入門系列:?Connector連接器

    當(dāng)我們使用Native Function的時(shí)候,除了處理一些基本的邏輯操作之外,更多的還是需要進(jìn)行外部數(shù)據(jù)源和服務(wù)的對接,要么是獲取相關(guān)的數(shù)據(jù),要么是保存輸出結(jié)果。這一過程在Semantic Kernel中可以被歸類為Connector。 Connector更像是一種設(shè)計(jì)模式,并不像Function和Memory 一樣有強(qiáng)制和

    2023年04月15日
    瀏覽(26)
  • LangChain vs Semantic Kernel

    LangChain vs Semantic Kernel

    每當(dāng)向他人介紹 Semantic Kernel, 會(huì)得到的第一個(gè)問題就是 Semantic Kernel 類似于LangChain嗎,或者是c# 版本的LangChain嗎? 為了全面而不想重復(fù)的回答這個(gè)問題,因此我寫下這篇文章。 在 ChatGPT 之前,構(gòu)建 集成AI的應(yīng)用程序的主要分為兩個(gè)步驟: 機(jī)器學(xué)習(xí)工程師/數(shù)據(jù)科學(xué)家創(chuàng)建模

    2023年04月20日
    瀏覽(29)
  • 體驗(yàn)Semantic Kernel圖片內(nèi)容識別

    體驗(yàn)Semantic Kernel圖片內(nèi)容識別

    ????前幾日在瀏覽devblogs.microsoft.com的時(shí)候,看到了一篇名為Image to Text with Semantic Kernel and HuggingFace的文章。這篇文章大致的內(nèi)容講的是,使用 Semantic Kernel 結(jié)合 HuggingFace 來實(shí)現(xiàn)圖片內(nèi)容識別。注意,這里說的是圖片內(nèi)容識別,并非是 OCR ,而是它可以大致的描述圖片里的主要

    2024年04月08日
    瀏覽(23)
  • 使用 Semantic Kernel 實(shí)現(xiàn)  Microsoft 365 Copilot 架構(gòu)

    使用 Semantic Kernel 實(shí)現(xiàn) Microsoft 365 Copilot 架構(gòu)

    3月16日,微軟發(fā)布了微軟365 Copilot[1]。 Microsoft 365 Copilot 將您現(xiàn)有的 Word、Excel、PowerPoint、Outlook 和 Teams 與大型語言模型 (LLM) 的強(qiáng)大功能以及來自 Microsoft Graph 和 Microsoft 365 應(yīng)用的數(shù)據(jù)相結(jié)合,以創(chuàng)建前所未有的體驗(yàn)。正如您在官方視頻中看到的那樣,Microsoft 365 Copilot的核心

    2024年02月02日
    瀏覽(24)
  • 優(yōu)化chatGPT提示詞的Prompts

    優(yōu)化chatGPT提示詞的Prompts

    你扮演一個(gè)專業(yè)的chatGPT提示詞工程師,我將為您提供我的提示詞,它用三個(gè)反引號分隔,請根據(jù)openai發(fā)布的提示詞標(biāo)準(zhǔn)和優(yōu)化技巧,改進(jìn)和優(yōu)化我的提示詞,讓chatGPT能夠更好的理解。 我的第一個(gè)提示詞是:“”“…”“”

    2024年02月12日
    瀏覽(15)
  • 旁門左道:借助 HttpClientHandler 攔截請求,體驗(yàn) Semantic Kernel 插件

    前天嘗試通過 one-api + dashscope(阿里云靈積) + qwen(通義千問) 運(yùn)行 Semantic Kernel 插件(Plugin) ,結(jié)果嘗試失敗,詳見前天的博文。 今天換一種方式嘗試,選擇了一個(gè)旁門左道走走看,看能不能在不使用大模型的情況下讓 Semantic Kernel 插件運(yùn)行起來,這個(gè)旁門左道就是從 Stephen T

    2024年02月19日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包