?
首先,ChatGPT僅使用公開可用的信息,這是其第一個局限。如果基礎(chǔ)信息缺失、過時、模糊或過于泛化,AI生成的內(nèi)容就將不會準(zhǔn)確。
只有在使用企業(yè)內(nèi)部專有信息和知識創(chuàng)建特定的GPT時,才會出現(xiàn)真正的商業(yè)化解決方案。但對企業(yè)而言,專有數(shù)據(jù)至關(guān)重要。數(shù)據(jù)安全咨詢公司Cyberhaven的一份報告顯示,企業(yè)員工與ChatGPT的聊天內(nèi)容中,有11%屬于機密信息。
平均每家公司每周都會向ChatGPT泄露數(shù)百次的商業(yè)隱私信息。為解決這個問題,許多企業(yè)正采取相應(yīng)措施,有選擇地限制員工使用ChatGPT。亞馬遜、微軟和沃爾瑪?shù)裙疽严騿T工發(fā)出警告。
ChatGPT的商業(yè)化應(yīng)用在某些行業(yè)受限制
Esade專家Esteve Almirall解釋道:“在具有明確商業(yè)模式、清晰業(yè)務(wù)模式的公司中(法律、咨詢或軟件開發(fā)行業(yè)),ChatGPT的集成應(yīng)用將迅速推進(jìn)。
相較于上面提到的集成ChatGPT只為增強自身能力的,還有一些可以由ChatGPT完全替代的行業(yè),如客戶服務(wù),但在此行業(yè)ChatGPT的集成應(yīng)用進(jìn)度會更慢,在競爭較少或沒有競爭的行業(yè),ChatGPT集成應(yīng)用的進(jìn)度更是龜速,如公共服務(wù)。[1]
生成式技術(shù)牽涉到一些棘手問題:不好確定輸出的內(nèi)容是真是假,可能造成無法預(yù)料的后果。
這種情況可能發(fā)生在文本形態(tài),同時也適用于圖像生成領(lǐng)域。使用這種生成式技術(shù)創(chuàng)建圖像可能涉及道德和法律問題。由于AI算法本身依據(jù)統(tǒng)計規(guī)律和概率去學(xué)習(xí)訓(xùn)練數(shù)據(jù),它有時會對數(shù)據(jù)中的偏見進(jìn)行放大。對于生成式內(nèi)容,相關(guān)責(zé)任方有義務(wù)披露其是由AI生成的,以便人類能夠辨別。
此外,這種生成式內(nèi)容的出現(xiàn),需要重新思考創(chuàng)造力和知識產(chǎn)權(quán)問題。AI大規(guī)模使用人類先前創(chuàng)作的內(nèi)容來生成新的內(nèi)容,這意味著AI在某種程度上利用了人類的創(chuàng)新成果。這種背景下產(chǎn)生的文化成果,可能只是算法工程的結(jié)果,而不是人類文明活動的真實智慧結(jié)晶。[2]文章來源:http://www.zghlxwxcb.cn/news/detail-677255.html
參考資料
[1]https://www.bbva.com/en/innovation/how-businesses-can-leverage-chatgpt/
[2]https://www.94c.cc/info/the-limitations-of-chatgpt.html文章來源地址http://www.zghlxwxcb.cn/news/detail-677255.html
到了這里,關(guān)于ChatGPT的局限性及商業(yè)化應(yīng)用限制討論的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!