国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用uniapp做ai開(kāi)發(fā),太簡(jiǎn)單了。無(wú)論是chatgpt還是國(guó)內(nèi)的大語(yǔ)言模型,都可以隨意使用

這篇具有很好參考價(jià)值的文章主要介紹了使用uniapp做ai開(kāi)發(fā),太簡(jiǎn)單了。無(wú)論是chatgpt還是國(guó)內(nèi)的大語(yǔ)言模型,都可以隨意使用。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

目錄

uni-ai是什么

1、聚合

2、prompt輔助

3、私有數(shù)據(jù)訓(xùn)練

4、現(xiàn)成開(kāi)源項(xiàng)目

如何使用uni-ai

1、通過(guò)api調(diào)用

2、獲取LLM實(shí)例

3、對(duì)話

4、簡(jiǎn)單示例

5、流式響應(yīng)

其他說(shuō)明

?費(fèi)用

常見(jiàn)用途場(chǎng)景


做小程序開(kāi)發(fā)的應(yīng)該都知道uniapp,這是Dcloud推出的一款跨端開(kāi)發(fā)框架。是一個(gè)使用?Vue.js?開(kāi)發(fā)所有前端應(yīng)用的框架,開(kāi)發(fā)者編寫(xiě)一套代碼,可發(fā)布到iOS、Android、Web(響應(yīng)式)、以及各種小程序(微信/支付寶/百度/頭條/飛書(shū)/QQ/快手/釘釘/淘寶)、快應(yīng)用等多個(gè)平臺(tái)。

目前uniapp的用戶(hù)非常多,基本上是開(kāi)發(fā)多端小程序的不二之選。

最近,chatgpt爆火,很多人也想要進(jìn)行相關(guān)應(yīng)用的開(kāi)發(fā),那么,如果用uniapp來(lái)做ai開(kāi)發(fā)呢?Dcloud官方非常貼心的提供了一個(gè)新的開(kāi)發(fā)組件,uni-ai,使用他,你可以輕松的進(jìn)行ai開(kāi)發(fā)集成,無(wú)論是國(guó)外的chatgpt,還是國(guó)內(nèi)的常用的大語(yǔ)言模型,都可以信手拈來(lái)。

而且,它目前還是免費(fèi)提供的哦,是不是很Nice?

uni-ai是什么

uni-ai由Dcloud開(kāi)發(fā),定位就是開(kāi)發(fā)者使用ai能力的最佳開(kāi)發(fā)庫(kù),更豐富、更易用、更高效。

它具有以下特點(diǎn)

1、聚合

uni-ai,聚合了國(guó)內(nèi)外各種流行的ai能力。包括

  • 大語(yǔ)言模型LLM:chatGPT、GPT-4、百度文心一言、minimax等
  • 圖形能力:文心一格 (未來(lái)還會(huì)聚合更多)

uni-ai支持配置自己在AI廠商處申請(qǐng)的API Key和代理,也支持免配直接使用。

2、prompt輔助

自然語(yǔ)言誰(shuí)都會(huì)說(shuō),但想提出一個(gè)好prompt來(lái)指揮ai滿足自己的需求并不簡(jiǎn)單。所以出現(xiàn)了prompt工程師的說(shuō)法。

uni-ai整合了大量prompt模板,并將提供?format promptprompt插件市場(chǎng)。

舉個(gè)例子,如果你需要寫(xiě)一個(gè)產(chǎn)品營(yíng)銷(xiāo)文案,你可以使用自然語(yǔ)言,如請(qǐng)幫我編寫(xiě)一份產(chǎn)品營(yíng)銷(xiāo)文案,產(chǎn)品名稱(chēng)叫uni-app,它的特點(diǎn)是開(kāi)發(fā)一次全端覆蓋。

但實(shí)際上,自然語(yǔ)言這么寫(xiě)是繁瑣且容易紕漏的。format prompt是彈出一個(gè)表單,你在表單里填寫(xiě):

產(chǎn)品名稱(chēng):uni-app
目標(biāo)用戶(hù):程序員
產(chǎn)品歸類(lèi):前端應(yīng)用開(kāi)發(fā)框架
產(chǎn)品用途:使用該框架開(kāi)發(fā)應(yīng)用,一次編碼可覆蓋到Android app、iOS app、web、以及各家小程序,如微信、百度、支付寶、抖音、qq、京東等小程序和快應(yīng)用。
賣(mài)點(diǎn):高效、易學(xué)、生態(tài)完善
文風(fēng):技術(shù)風(fēng)格
字?jǐn)?shù):500字

復(fù)制代碼

uni-ai,為你提供更好的prompt。

3、私有數(shù)據(jù)訓(xùn)練

目前的大模型,沒(méi)有最新的、以及企業(yè)私有的數(shù)據(jù)。各家也未開(kāi)放fine-turning微調(diào)模型。

如何把私有數(shù)據(jù)灌入ai中,幾乎是每個(gè)企業(yè)都關(guān)心的事情。

uni-ai將提供一整套方案解決這個(gè)問(wèn)題,只需把私有數(shù)據(jù)按指定格式提交到你的uniCloud服務(wù)空間,就可以自動(dòng)把這些最新的、私有的知識(shí)加入到ai的回答中。

4、現(xiàn)成開(kāi)源項(xiàng)目

ai能力非常常見(jiàn)的應(yīng)用場(chǎng)景,有智能客服和自動(dòng)生成文稿。

uni-ai把這些常見(jiàn)場(chǎng)景對(duì)應(yīng)的應(yīng)用均已做好,并且開(kāi)源。開(kāi)發(fā)者可以直接拿走使用。

如何使用uni-ai

1、通過(guò)api調(diào)用

ai作為一種云能力,相關(guān)調(diào)用被整合到uniCloud中。

如您的服務(wù)器業(yè)務(wù)不在uniCloud上,可以把云函數(shù)URL化,把uni-ai當(dāng)做http接口調(diào)用。

在實(shí)際應(yīng)用中,大多數(shù)場(chǎng)景是直接使用uni-imuni-cms的ai功能,這些開(kāi)源項(xiàng)目已經(jīng)把完整邏輯都實(shí)現(xiàn),無(wú)需自己研究API。

ai能力由uni-cloud-ai擴(kuò)展庫(kù)提供,在云函數(shù)或云對(duì)象中,對(duì)右鍵配置uni-cloud-ai擴(kuò)展庫(kù)。如何使用擴(kuò)展庫(kù)請(qǐng)參考:使用擴(kuò)展庫(kù)

如果HBuilderX版本過(guò)低,在云函數(shù)的擴(kuò)展庫(kù)界面里找不到uni-ai。

注意uni-ai是云函數(shù)擴(kuò)展庫(kù),其api是uniCloud.ai,不是需要下載的三方插件。而uni-cmsuni-im等開(kāi)源項(xiàng)目,是需要在插件市場(chǎng)下載的。

2、獲取LLM實(shí)例

LLM,全稱(chēng)為L(zhǎng)arge Language Models,指大語(yǔ)言模型。

LLM的主要特點(diǎn)為輸入一段前文,可以推導(dǎo)預(yù)測(cè)下文。

LLM不等于ai的全部,除了LLM,還有ai生成圖片等其他模型。

用法:uniCloud.ai.getLLMManager(Object GetLLMManagerOptions);

注意需在相關(guān)云函數(shù)或云對(duì)象中加載uni-cloud-ai使用擴(kuò)展庫(kù),否則會(huì)報(bào)找不到ai對(duì)象。

參數(shù)說(shuō)明GetLLMManagerOptions

參數(shù) 類(lèi)型 必填 默認(rèn)值 說(shuō)明
provider string - llm服務(wù)商,目前支持openaibaidu、minimax。不指定時(shí)由uni-ai自動(dòng)分配
apiKey string - llm服務(wù)商的apiKey,如不填則使用uni-ai的key。如指定openai和baidu則必填
accessToken string - llm服務(wù)商的accessToken。目前百度文心一言是必填,如何獲取請(qǐng)參考:百度AI鑒權(quán)認(rèn)證機(jī)制
proxy string - 可有效連接openai服務(wù)器的、可被uniCloud云函數(shù)連接的代理服務(wù)器地址。格式為IP或域名,域名不包含http前綴,協(xié)議層面僅支持https。配置為openai時(shí)必填

關(guān)于proxy參數(shù)的說(shuō)明

如果使用的代理需要用戶(hù)名和密碼,請(qǐng)?jiān)诖淼刂分屑尤胗脩?hù)名和密碼,例如:username:password@ip:port。uni-ai在請(qǐng)求openai時(shí)會(huì)自動(dòng)將openai的域名替換為配置的代理域名或ip,一般的反向代理服務(wù)器均可滿足此需求。

示例

在云函數(shù)或云對(duì)象中編寫(xiě)如下代碼:

// 不指定provider
const llm = uniCloud.ai.getLLMManager()

// 指定openai,需自行配置相關(guān)key,以及中轉(zhuǎn)代理服務(wù)器
const openai = uniCloud.ai.getLLMManager({
  provider: 'openai',
  apiKey:'your key',
  proxy:'www.yourdomain.com' //也可以是ip
})

現(xiàn)階段,不指定provider時(shí),uni-ai分配的ai引擎無(wú)需開(kāi)發(fā)者支付費(fèi)用。同時(shí)也不會(huì)自動(dòng)分配到gpt-4等比較昂貴但精準(zhǔn)的模型上。如有變化會(huì)提前公告。

開(kāi)發(fā)者使用openai等已經(jīng)商用的ai時(shí),需自行向相關(guān)服務(wù)商支付費(fèi)用。

3、對(duì)話

?注意

對(duì)話接口響應(yīng)一般比較慢,建議將云函數(shù)超時(shí)時(shí)間配置的長(zhǎng)一些,比如30秒(客戶(hù)端訪問(wèn)云函數(shù)最大超時(shí)時(shí)間:騰訊云為30秒,阿里云為40秒)。如何配置云函數(shù)超時(shí)時(shí)間請(qǐng)參考:云函數(shù)超時(shí)時(shí)間

用法:llm.chatCompletion(Object ChatCompletionOptions)

參數(shù)說(shuō)明ChatCompletionOptions

參數(shù) 類(lèi)型 必填 默認(rèn)值 說(shuō)明 兼容性說(shuō)明
messages array - 提問(wèn)信息
model string 默認(rèn)值見(jiàn)下方說(shuō)明 模型名稱(chēng)。每個(gè)AI Provider有多個(gè)model,見(jiàn)下方說(shuō)明 百度文心一言不支持此參數(shù)
maxTokens number - 【已廢棄,請(qǐng)使用tokensToGenerate替代】生成的token數(shù)量限制,需要注意此值和傳入的messages對(duì)應(yīng)的token數(shù)量相加不可大于4096 百度文心一言不支持此參數(shù)
tokensToGenerate number 默認(rèn)值見(jiàn)下方說(shuō)明 生成的token數(shù)量限制,需要注意此值和傳入的messages對(duì)應(yīng)的token數(shù)量相加不可大于4096 百度文心一言不支持此參數(shù)
temperature number 1 較高的值將使輸出更加隨機(jī),而較低的值將使輸出更加集中和確定。建議temperature和top_p同時(shí)只調(diào)整其中一個(gè) 百度文心一言不支持此參數(shù)
topP number 1 采樣方法,數(shù)值越小結(jié)果確定性越強(qiáng);數(shù)值越大,結(jié)果越隨機(jī) 百度文心一言不支持此參數(shù)
stream boolean false 是否使用流式響應(yīng),見(jiàn)下方流式響應(yīng)章節(jié) 百度文心一言不支持此參數(shù)

messages參數(shù)說(shuō)明

需注意messages末尾有個(gè)s,它是數(shù)組,而不是簡(jiǎn)單的字符串。其中每項(xiàng)由消息內(nèi)容content和角色role組成。

一個(gè)最簡(jiǎn)單的示例:

await llm.chatCompletion({
  messages: [{
    role: 'user',
    content: '你好'
  }]
})

復(fù)制代碼

role,即角色,有三個(gè)值:

  • system 系統(tǒng),對(duì)應(yīng)的content一般用于對(duì)話背景設(shè)定等功能。system角色及信息如存在時(shí)只能放在messages數(shù)組第一項(xiàng)。baidu不支持此角色
  • user 用戶(hù),對(duì)應(yīng)的content為用戶(hù)輸入的信息
  • assistant ai助手,對(duì)應(yīng)的content為ai返回的信息

當(dāng)開(kāi)發(fā)者需要為用戶(hù)的場(chǎng)景設(shè)置背景時(shí),則需在云端代碼寫(xiě)死system,而用戶(hù)輸入的問(wèn)題則被放入user中,然后一起提交給LLM。

例如,提供一個(gè)法律咨詢(xún)的ai咨詢(xún)助手。

開(kāi)發(fā)者可以在system里限制對(duì)話背景,防止ai亂答問(wèn)題。然后給用戶(hù)提供輸入框,假使用戶(hù)咨詢(xún)了:“謠言傳播多少人可以定罪?”,那么拼接的message就是:

const messages = [{
    role: 'system',
    content: '你是一名律師,回答內(nèi)容僅限法律范圍。'
  },{
    role: 'user',
    content: '謠言傳播多少人可以定罪?'
  }]

復(fù)制代碼

對(duì)于不支持system的情況,如baidu,只能把system對(duì)應(yīng)的內(nèi)容寫(xiě)到第一條user信息內(nèi),也可以達(dá)到一定范圍內(nèi)的控制效果。

注意:對(duì)于法律、醫(yī)學(xué)等專(zhuān)業(yè)領(lǐng)域需要準(zhǔn)確回答的,建議使用gpt-4模型。其他模型更適合閑聊、文章內(nèi)容生成。

assistant這個(gè)角色的內(nèi)容,是ai返回的。當(dāng)需要持續(xù)聊天、記憶前文時(shí),需使用此角色。

因?yàn)長(zhǎng)LM沒(méi)有記憶能力,messages參數(shù)內(nèi)需要包含前文,LLM才能記得之前聊天的內(nèi)容。

以下的messages示例,是第二輪ai對(duì)話時(shí)發(fā)送的messages的示例。在這個(gè)示例中,第一個(gè)user和assistant的內(nèi)容,是第一輪ai對(duì)話的聊天記錄。 最后一個(gè)user是第二輪對(duì)話時(shí)用戶(hù)提的問(wèn)題。

因?yàn)橛脩?hù)提問(wèn)的內(nèi)容“從上述方法名中篩選首字母為元音字母的方法名”,其中有代詞“上述”,為了讓ai知道“上述”是什么,需要把第一輪的對(duì)話內(nèi)容也提交。

const messages = [{
    role: 'system',
    content: '以下對(duì)話只需給出結(jié)果,不要對(duì)結(jié)果進(jìn)行解釋。'
  },{
    role: 'user',
    content: '以數(shù)組形式返回nodejs os模塊的方法列表,數(shù)組的每一項(xiàng)是一個(gè)方法名。'
  }, {
    role: 'assistant',
    content: '以下是 Node.js 的 os 模塊的方法列表,以數(shù)組形式返回,每一項(xiàng)是一個(gè)方法名:["arch","cpus","endianness","freemem","getPriority","homedir","hostname","loadavg","networkInterfaces","platform","release","setPriority","tmpdir","totalmem","type","uptime","userInfo"]'
  }, {
    role: 'user',
    content: '從上述方法名中篩選首字母為元音字母的方法名,以數(shù)組形式返回'
  }]

復(fù)制代碼

在持續(xù)對(duì)話中需注意,messages內(nèi)容越多則消耗的token越多,而LLM都是以token計(jì)費(fèi)的。

token是LLM的術(shù)語(yǔ),ai認(rèn)知的語(yǔ)言是經(jīng)過(guò)轉(zhuǎn)換的,對(duì)于英語(yǔ),1個(gè)token平均是4個(gè)字符,大約0.75個(gè)單詞;對(duì)于中文,1個(gè)漢字大約是2個(gè)token。

如何在節(jié)省token和保持持續(xù)對(duì)話的記憶之間平衡,是一個(gè)挺復(fù)雜的事情。開(kāi)發(fā)者需在適合時(shí)機(jī)要求ai對(duì)上文進(jìn)行總結(jié)壓縮,下次對(duì)話傳遞總結(jié)及總結(jié)之后的對(duì)話內(nèi)容以實(shí)現(xiàn)更長(zhǎng)的對(duì)話。

DCloud在uni-im和uni-cms中, 已經(jīng)寫(xiě)好了這些復(fù)雜邏輯。開(kāi)發(fā)者直接使用DCloud封裝好的開(kāi)源項(xiàng)目模板即可。

在上述例子中,還可以看到一種有趣的用法,即要求ai以數(shù)組方式回答問(wèn)題。這將有利于開(kāi)發(fā)者格式化數(shù)據(jù),并進(jìn)行后置增強(qiáng)處理。

model參數(shù)說(shuō)明

每個(gè)AI Provider可以有多個(gè)model,比如對(duì)于openai,ChatGPT的模型是gpt-3.5-turbo,而gpt-4的模型就是gpt-4。不同模型的功能、性能、價(jià)格都不一樣。

也有一些AI Provider只有一個(gè)模型,此時(shí)model參數(shù)可不填。

如果您需要非常精準(zhǔn)的問(wèn)答,且不在乎成本,推薦使用gpt-4。如果是普通的文章內(nèi)容生成、續(xù)寫(xiě),大多數(shù)模型均可勝任。

服務(wù)商 接口 模型
openai chatCompletion gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默認(rèn)值)、gpt-3.5-turbo-0301
minimax chatCompletion abab4-chat、abab5-chat(默認(rèn)值)

tokensToGenerate參數(shù)說(shuō)明

tokensToGenerate指生成的token數(shù)量限制,即返回的文本對(duì)應(yīng)的token數(shù)量不能超過(guò)此值。注意這個(gè)值不是總token。此參數(shù)名稱(chēng)后續(xù)可能改名。

注意此值和傳入messages對(duì)應(yīng)的token數(shù)量,兩者相加不可大于4096。如果messages對(duì)應(yīng)的token數(shù)為1024,當(dāng)傳遞的tokensToGenerate參數(shù)大于(4096-1024)時(shí)接口會(huì)拋出錯(cuò)誤。

未指定provider時(shí)默認(rèn)最多生成512個(gè)token的結(jié)果,也就是返回結(jié)果不會(huì)很長(zhǎng)。如有需求請(qǐng)自行調(diào)整此值。此默認(rèn)值為512(在HBuilderX alpha 3.7.13版本默認(rèn)為128)

chatCompletion方法的返回值

參數(shù) 類(lèi)型 必備 默認(rèn)值 說(shuō)明 兼容性說(shuō)明
id string openai必備 - 本次回復(fù)的id 僅openai返回此項(xiàng)
reply string - ai對(duì)本次消息的回復(fù)
choices array<object> - 所有生成結(jié)果 百度文心一言不返回此項(xiàng)
|--finishReason string - 截?cái)嘣?,stop(正常結(jié)束)、length(超出maxTokens被截?cái)啵?/td>
|--message object - 返回消息
??|--role string - 角色
??|--content string - 消息內(nèi)容
usage object - 本次對(duì)話token消耗詳情
|--promptTokens number - 輸入的token數(shù)量 minimax不返回此項(xiàng)
|--completionTokens number - 生成的token數(shù)量 minimax不返回此項(xiàng)
|--totalTokens number - 總token數(shù)量

4、簡(jiǎn)單示例

在你的云函數(shù)中加載uni-cloud-ai擴(kuò)展庫(kù),寫(xiě)下如下代碼,ctrl+r運(yùn)行,即可調(diào)用ai返回結(jié)果。

const llmManager = uniCloud.ai.getLLMManager()
const res = await llmManager.chatCompletion({
	messages: [{
		role: 'user',
		content: 'uni-app是什么,20個(gè)字以?xún)?nèi)進(jìn)行說(shuō)明'
	}]
})
console.log(res);

5、流式響應(yīng)

新增于HBuilderX正式版 3.7.10+, alpha版 HBuilderX 3.8.0

訪問(wèn)AI聊天接口時(shí),如生成內(nèi)容過(guò)大,響應(yīng)時(shí)間會(huì)很久,前端用戶(hù)需要等待很長(zhǎng)時(shí)間才會(huì)收到結(jié)果。

實(shí)際上AI是逐漸生成下一個(gè)token的,所以可使用流式響應(yīng),類(lèi)似不停打字的打字機(jī)那樣,讓前端用戶(hù)陸續(xù)看到AI生成的內(nèi)容。

以往云函數(shù)只有return的時(shí)候,才能給客戶(hù)端返回消息。在流式響應(yīng)中,需要云函數(shù)支持sse,在return前給客戶(hù)端一直發(fā)送通知。

uniCloud的云函數(shù),基于uni-push2,于 HBuilderX 新版提供了sse通道,即云函數(shù)請(qǐng)求中的中間狀態(tài)通知通道。

在調(diào)用chatCompletion接口時(shí)傳遞參數(shù)stream: true即可開(kāi)啟流式響應(yīng)。

其他說(shuō)明

?費(fèi)用

  • 如果您自己去ai廠商申請(qǐng)和繳費(fèi),比如openai,則繳費(fèi)后在uni-ai中配置相關(guān)key即可使用。
  • 如果您使用uni-ai自動(dòng)分配的ai服務(wù),目前也是免費(fèi)的。未來(lái)若計(jì)費(fèi)會(huì)提前公告。未來(lái)計(jì)費(fèi)原則也必然是市場(chǎng)標(biāo)準(zhǔn)價(jià)格,不會(huì)出現(xiàn)歧視性、收割性定價(jià)。

常見(jiàn)用途場(chǎng)景

現(xiàn)階段的ai,被稱(chēng)之為AIGC,即生成式ai。我們需要了解它擅長(zhǎng)和不擅長(zhǎng)的地方,并管理預(yù)期。

ai是模糊的、概率的,不是精確的,不要問(wèn)生成式ai數(shù)學(xué)題。

從本質(zhì)來(lái)講,生成式ai不是在回答問(wèn)題,而是在通過(guò)前文預(yù)測(cè)下文。你的前文可以恰好是一個(gè)問(wèn)題,也可以不是問(wèn)題。

ai會(huì)推理出很多下文并打分,選擇最高分的下文返回給你。但“不知道”這個(gè)下文的打分往往不如其他胡謅的下文得分高,所以你很少會(huì)遇到ai的下文是“不知道”。

ai會(huì)使用互聯(lián)網(wǎng)上的數(shù)據(jù)進(jìn)行學(xué)習(xí)訓(xùn)練,但訓(xùn)練語(yǔ)料不會(huì)包含最新的知識(shí)和互聯(lián)網(wǎng)上未公開(kāi)的知識(shí)。比如openai的訓(xùn)練數(shù)據(jù)是2021年9月以前的數(shù)據(jù)。

雖然ai學(xué)習(xí)了互聯(lián)網(wǎng)的知識(shí),但它不是復(fù)讀機(jī),它把知識(shí)壓縮形成自己的理解。你的前文和它的理解碰撞出它的下文(所以合適的前文,也就是prompt很重要)。

越好的ai,其知識(shí)儲(chǔ)備、理解和推理能力越優(yōu)秀,預(yù)測(cè)的下文可以更逼近真實(shí),甚至超過(guò)普通人的水平。

目前生成式ai的主要用途有:

  • 文章生成、潤(rùn)色、續(xù)寫(xiě):常見(jiàn)于生成文案、文書(shū)、標(biāo)語(yǔ)、名字、營(yíng)銷(xiāo)郵件、笑話、詩(shī)詞等。uni-cms中,已經(jīng)內(nèi)置了這個(gè)功能
  • 閑聊:情感咨詢(xún)、常識(shí)問(wèn)答。由于聊天本身有不少代碼工作量,推薦使用現(xiàn)成開(kāi)源項(xiàng)目。比如單純的ai聊天模板uni-ai-chat,或?qū)I(yè)的im工具、支持私聊群聊的uni-im
  • 翻譯:各國(guó)各民族語(yǔ)言翻譯
  • 代碼注釋補(bǔ)充和簡(jiǎn)單代碼生成:需使用openai,其他provider在代碼領(lǐng)域的能力暫時(shí)還不行

如對(duì)生成內(nèi)容有較高的準(zhǔn)確性要求,一方面使用gpt-4等高級(jí)的模型;另一方面需要追加專(zhuān)業(yè)甚至私有的語(yǔ)料訓(xùn)練。

目前gpt-4未開(kāi)放微調(diào),但uni-ai正在開(kāi)發(fā)其他私有數(shù)據(jù)訓(xùn)練方案,后續(xù)會(huì)升級(jí)提供。

gpt-4是目前準(zhǔn)確性最高的ai,也是最貴的ai。開(kāi)發(fā)者需根據(jù)需求場(chǎng)景選擇,一般的文章生成和閑聊,可以不用gpt-4。

另外想得到良好的推理結(jié)果,優(yōu)化prompt前文也非常重要。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-545237.html

到了這里,關(guān)于使用uniapp做ai開(kāi)發(fā),太簡(jiǎn)單了。無(wú)論是chatgpt還是國(guó)內(nèi)的大語(yǔ)言模型,都可以隨意使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【花雕學(xué)AI】真是太多了:匯總國(guó)內(nèi)免費(fèi)在線使用ChatGPT的完整鏡像站列表大全(1000+)

    【花雕學(xué)AI】真是太多了:匯總國(guó)內(nèi)免費(fèi)在線使用ChatGPT的完整鏡像站列表大全(1000+)

    37款傳感器與執(zhí)行器的提法,在網(wǎng)絡(luò)上廣泛流傳,其實(shí)Arduino能夠兼容的傳感器模塊肯定是不止這37種的。鑒于本人手頭積累了一些傳感器和執(zhí)行器模塊,依照實(shí)踐出真知(一定要?jiǎng)邮肿觯┑睦砟睿詫W(xué)習(xí)和交流為目的,這里準(zhǔn)備逐一動(dòng)手嘗試系列實(shí)驗(yàn),不管成功(程序走通)

    2023年04月26日
    瀏覽(24)
  • 除了chatGPT網(wǎng)站外,國(guó)內(nèi)有些可以使用的AI網(wǎng)站 文心一言 訊飛星火 豆包 通義千問(wèn) 人工智能網(wǎng)站 AI網(wǎng)站

    除了chatGPT網(wǎng)站外,國(guó)內(nèi)有些可以使用的AI網(wǎng)站 文心一言 訊飛星火 豆包 通義千問(wèn) 人工智能網(wǎng)站 AI網(wǎng)站

    2023年隨著人工智能技術(shù)的不斷發(fā)展,AI網(wǎng)站如ChatGPT等越來(lái)越受到人們的關(guān)注。這些網(wǎng)站具有多種作用,可以幫助人們更方便地獲取信息、解決問(wèn)題,甚至進(jìn)行創(chuàng)作。 首先,AI網(wǎng)站可以提供智能問(wèn)答服務(wù)。與傳統(tǒng)的搜索引擎相比,AI網(wǎng)站能夠更好地理解用戶(hù)的問(wèn)題,并提供更為

    2024年02月04日
    瀏覽(32)
  • Mysql中如果建立了索引,索引所占的空間隨著數(shù)據(jù)量增長(zhǎng)而變大,這樣無(wú)論寫(xiě)入還是查詢(xún),性能都會(huì)有所下降,怎么處理?

    索引所占空間的增長(zhǎng)確實(shí)會(huì)對(duì)MySQL數(shù)據(jù)庫(kù)的寫(xiě)入性能和查詢(xún)性能造成影響,這主要是由于索引數(shù)據(jù)過(guò)多時(shí)會(huì)導(dǎo)致磁盤(pán)I/O操作變得非常頻繁,從而使性能下降。為此,可以采取以下幾種方式來(lái)減緩這種影響: ? 1. 限制索引的大?。嚎梢钥紤]為索引指定大小限制,在存儲(chǔ)時(shí)僅存儲(chǔ)

    2023年04月23日
    瀏覽(43)
  • ChatGPT國(guó)內(nèi)版AI助手工具peropure·AI

    ChatGPT國(guó)內(nèi)版AI助手工具peropure·AI

    ? ? 從ChatGPT的驚艷登場(chǎng)到Midjourney的顛覆業(yè)界,毫無(wú)疑問(wèn)AI技術(shù)已經(jīng)成為新時(shí)代最具影響力的。為了把最前沿的AI技術(shù)帶給普通用戶(hù),與清越科技合作推出了對(duì)話式智能服務(wù)ai助手——peropure·AI。 智能服務(wù)ai助手——peropure·AI下載如下: https://blog.csdn.net/tubage2023/article

    2024年02月02日
    瀏覽(20)
  • 【花雕學(xué)AI】如何避免ChatGPT封號(hào),安全穩(wěn)定地使用ChatGPT的技巧和簡(jiǎn)單過(guò)渡辦法

    【花雕學(xué)AI】如何避免ChatGPT封號(hào),安全穩(wěn)定地使用ChatGPT的技巧和簡(jiǎn)單過(guò)渡辦法

    37款傳感器與執(zhí)行器的提法,在網(wǎng)絡(luò)上廣泛流傳,其實(shí)Arduino能夠兼容的傳感器模塊肯定是不止這37種的。鑒于本人手頭積累了一些傳感器和執(zhí)行器模塊,依照實(shí)踐出真知(一定要?jiǎng)邮肿觯┑睦砟睿詫W(xué)習(xí)和交流為目的,這里準(zhǔn)備逐一動(dòng)手嘗試系列實(shí)驗(yàn),不管成功(程序走通)

    2024年02月03日
    瀏覽(36)
  • chatGPT 國(guó)內(nèi)版,嵌入midjourney AI創(chuàng)作工具

    chatGPT 國(guó)內(nèi)版,嵌入midjourney AI創(chuàng)作工具

    聊天GPT國(guó)內(nèi)入口,免切網(wǎng)直達(dá),可直接多語(yǔ)言對(duì)話,操作簡(jiǎn)單,無(wú)需復(fù)雜注冊(cè),智能高效,即刻使用.可以用作個(gè)人助理,學(xué)習(xí)助理,智能創(chuàng)作、新媒體文案創(chuàng)作、智能創(chuàng)作等各種應(yīng)用場(chǎng)景! 地址:?https://ai.wboat.cn/?

    2024年02月03日
    瀏覽(37)
  • 擁抱還是革命,ChatGPT時(shí)代 AI專(zhuān)家給出15條科研生存之道

    擁抱還是革命,ChatGPT時(shí)代 AI專(zhuān)家給出15條科研生存之道

    來(lái)源:專(zhuān)知? ?微信號(hào):Quan_Zhuanzhi 你是學(xué)術(shù)機(jī)構(gòu)的人工智能研究員嗎?你是否擔(dān)心自己無(wú)法應(yīng)對(duì)當(dāng)前人工智能的發(fā)展步伐?您是否覺(jué)得您沒(méi)有(或非常有限)訪問(wèn)人工智能研究突破所需的計(jì)算和人力資源?你并不孤單; 我們有同樣的感覺(jué)。越來(lái)越多的人工智能學(xué)者不再能找到資源在

    2023年04月22日
    瀏覽(34)
  • 限制力度加強(qiáng),國(guó)內(nèi)還有哪些免費(fèi)ChatGPT AI助手?

    限制力度加強(qiáng),國(guó)內(nèi)還有哪些免費(fèi)ChatGPT AI助手?

    這兩天在使用國(guó)內(nèi)的AI助手插件Monica時(shí)候發(fā)現(xiàn),使用其回答問(wèn)題時(shí)總是報(bào)錯(cuò),需要連接外網(wǎng)才可以正常使用。和其他用戶(hù)交流也發(fā)現(xiàn)Monica也已經(jīng)對(duì)付費(fèi)用戶(hù)進(jìn)行退費(fèi)處理,估計(jì)短時(shí)間內(nèi)國(guó)內(nèi)用戶(hù)不可以再使用這個(gè)插件了。作為一款性能強(qiáng)大的ChatGPT人工智能插件,也是受到了限

    2024年02月09日
    瀏覽(19)
  • 比肩 ChatGPT,國(guó)內(nèi)快速訪問(wèn)的強(qiáng)大 AI 工具 Claude

    比肩 ChatGPT,國(guó)內(nèi)快速訪問(wèn)的強(qiáng)大 AI 工具 Claude

    作者 :明明如月學(xué)長(zhǎng), CSDN 博客專(zhuān)家,螞蟻集團(tuán)高級(jí) Java 工程師,《性能優(yōu)化方法論》作者、《解鎖大廠思維:剖析《阿里巴巴Java開(kāi)發(fā)手冊(cè)》》、《再學(xué)經(jīng)典:《EffectiveJava》獨(dú)家解析》專(zhuān)欄作者。 熱門(mén)文章推薦 : (1)《人工智能時(shí)代,軟件工程師們將會(huì)被取代?》 (2)

    2023年04月16日
    瀏覽(34)
  • 國(guó)內(nèi)的幾款強(qiáng)大的智能ChatGPT—AI語(yǔ)言模型

    國(guó)內(nèi)的幾款強(qiáng)大的智能ChatGPT—AI語(yǔ)言模型

    · ?? 支持 gpt4v 多模態(tài) / gpt-3.5 / claude / 上傳附件分析 · ?? 支持 AI繪畫(huà) · ?? 每天十次免費(fèi)使用機(jī)會(huì) · ?? 無(wú)需魔法 https://yiyan.baidu.com/welcome 大家如果像我的界面一樣有【開(kāi)始體驗(yàn)】就是可以使用的,否則就是說(shuō)明在等待中! 優(yōu)點(diǎn):會(huì)畫(huà)畫(huà),沒(méi)有使用次數(shù)限制 缺點(diǎn):怎么說(shuō)

    2024年02月14日
    瀏覽(34)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包

    <big id="xwozs"><pre id="xwozs"><meter id="xwozs"></meter></pre></big>