我是娜姐?@迪娜學(xué)姐?,一個(gè)SCI醫(yī)學(xué)期刊編輯,探索用AI工具提效論文寫作和發(fā)表。
?
Kimi作為一款國產(chǎn)AI工具,最近很火。起因是它的200萬字超長上下文開始開放內(nèi)測(cè)了。不過也要吐槽一下,自從Kimi火了之后,服務(wù)器超負(fù)荷了,動(dòng)不動(dòng)就“Kimi累了”來個(gè)罷工。內(nèi)測(cè)開放也遙遙無期,不知道啥時(shí)候能排上。
Kimi正式上線的時(shí)間是2023年10月,這個(gè)國產(chǎn)的AI大模型背后的公司叫月之暗面(Moonshot AI),公司的創(chuàng)始人,90后的楊植麟和核心團(tuán)隊(duì)成員參與了Google Gemini、Google Bard、盤古NLP等多個(gè)大模型的開發(fā),可以說陣容還是很強(qiáng)大的。
Kimi上線之時(shí),最突出的亮點(diǎn)就是支持無損上下文20萬漢字。2024年3月,Kimi宣稱已經(jīng)將上下文擴(kuò)展到200萬漢字。按照AI領(lǐng)域的計(jì)算標(biāo)準(zhǔn),200萬漢字的長度大約為266萬token。對(duì)比全球知名大模型,長文本能力最強(qiáng)的谷歌gemini 1.5、Claude 3支持100萬token,kimi 200萬漢字上下文長度或已超越海外頂尖大模型水平。? ??
為啥上下文長度這么重要?
因?yàn)橐黄獙W(xué)術(shù)論文至少是3-5000字,更多的上下文就意味著更強(qiáng)大的分析理解能力。不論是閱讀還是潤色,完整的閱讀整篇論文和只給一個(gè)片段,輸出質(zhì)量是截然不同的。比如ChatGPT,雖然有時(shí)候可以用“繼續(xù)”來讓它輸出更多,但是“繼續(xù)”多了它就會(huì)胡說八道,跑題了。所以魚一樣的記憶,啥事也干不了。
言歸正傳,Kimi的20萬字上下文,在學(xué)術(shù)論文的閱讀寫作中,能怎么用呢?娜姐總結(jié)了以下5點(diǎn):
1 文章內(nèi)容總結(jié)分析,及長文翻譯:
對(duì)于開源的OA期刊,我們可以直接提供網(wǎng)址,讓Kimi快速幫我們解讀論文精華:?? ?
長文翻譯功能:
我給Kimi一篇6000字左右的論文全文,請(qǐng)它翻譯成中文。中間“繼續(xù)”了4次,它最終完整的翻譯了全文,沒有開小差。譯文10232個(gè)字,加上原文,上下文一共1.6w字,還是很強(qiáng)大的。? ??
說明一下,如果你直接上傳pdf,翻譯效果沒有將文字粘貼在對(duì)話框效果好。我猜是pdf中的排版格式阻礙了Kimi對(duì)文章的讀取。
? ? ? ? ??
2 提供聯(lián)網(wǎng)搜索結(jié)果:
有時(shí)候我們想要知道某領(lǐng)域的最新進(jìn)展,或者消息的出處,像ChatGPT這樣的大模型,雖然后來有了聯(lián)網(wǎng)功能或是Webpilot這樣專門有聯(lián)網(wǎng)功能的GPTs,但是網(wǎng)絡(luò)搜索功能仍然不盡如人意。
我們來看看Kimi的表現(xiàn)如何:
如果我們用中文提問,Kimi會(huì)給出中文世界的出處,并附上鏈接:
如果我們想知道相關(guān)文獻(xiàn),可以用英文問:
最重要的是,Kimi會(huì)理解我的問題,從聯(lián)網(wǎng)搜索到的資料中,提取相關(guān)答案,給出“關(guān)于AD最重要的結(jié)論和相關(guān)論文”,可以說理解力很不錯(cuò)。?? ?
?? ?
? ? ? ? ?
3 多篇論文的分析總結(jié),快速全面了解一個(gè)新領(lǐng)域:
對(duì)于某一個(gè)領(lǐng)域,我們想要快速了解全球?qū)W者都在做哪些方向,取得了那些進(jìn)展。我們可以借助Kimi來快速總結(jié)。
上傳幾篇近3-5年的高質(zhì)量綜述,請(qǐng)Kimi總結(jié)分析:? ??
Kimi一下子給我們提供了8個(gè)主流的研究方向,如果我們對(duì)某一個(gè)研究方向感興趣,想知道更多,可以繼續(xù)追問。
? ? ? ? ??
4 輔助實(shí)驗(yàn)設(shè)計(jì),快速推進(jìn)實(shí)驗(yàn)進(jìn)展:
看了某幾篇文獻(xiàn),深受啟發(fā),想要設(shè)計(jì)一個(gè)類似的實(shí)驗(yàn),可以把你的標(biāo)題和意圖告訴Kimi,請(qǐng)它幫你設(shè)計(jì)實(shí)驗(yàn)。Kimi會(huì)告訴你每一個(gè)實(shí)驗(yàn)設(shè)計(jì)的目的、所用材料和儀器,甚至注意事項(xiàng)都特別專業(yè)。你照著清單準(zhǔn)備就行。? ??
? ? ? ??
5 輔助撰寫論文:
借助它的超長上下文理解,在寫畢業(yè)論文或者期刊論文的時(shí)候,我們可以提供給Kimi我們的實(shí)驗(yàn)設(shè)計(jì)和主要結(jié)果,讓它幫我們撰寫討論部分。
以下是它的輸出結(jié)果:
第一段是引言,最后一段是總結(jié),中間的四段分別討論了4個(gè)相關(guān)的實(shí)驗(yàn)結(jié)果。連參考文獻(xiàn)都給列出來了。作為一個(gè)初稿,我覺得完成度至少有70%。? ??
總結(jié)一下,Kimi在學(xué)術(shù)論文閱讀寫作中,用處還是很多的。包括長文分析總結(jié)、翻譯,聯(lián)網(wǎng)信息實(shí)時(shí)檢索、多篇論文總結(jié)歸納、實(shí)驗(yàn)設(shè)計(jì)、論文撰寫等方面。
就是最近太火,服務(wù)能力沒跟上,動(dòng)不動(dòng)就罷工。希望公司不要在營銷了,趕快解決一下超載問題。
也有人說,Kimi就是營銷玩得好,其實(shí)名不副實(shí),大模型并沒有那么厲害。就娜姐使用下來的體驗(yàn),國產(chǎn)模型里面,Kimi算是很好用的。另一方面,也反映了群眾對(duì)于超長文本容納能力的需求,放眼國內(nèi)外AI大模型,就Claude 3能與之抗衡,特別是Claude 3 Opus版本,長文本輸入和輸出,效果非常好,理解能力也很強(qiáng)大。但是,能不能用的上,就各憑本事了。
?
往期干貨精選:
ChatGPT助力論文寫作:
-
ChatGPT寫論文(瘋狂版)--附正確使用方式
-
Discussion討論部分被3個(gè)審稿人說沒深度沒邏輯,用這個(gè)AI工具三步拯救了我!
-
ChatGPT輔助論文文獻(xiàn)綜述,再加這個(gè)AI工具找論據(jù),絕了!
-
如何借助Al工具高效精準(zhǔn)回復(fù)審稿意見
-
論文投稿選刊,這樣操作accept速度大大提升
-
快速把重復(fù)率從58%降到5%,這論文降重很給力!
-
ChatGPT助力論文選題,這樣操作效果太棒了!
-
論文文獻(xiàn)綜述,這幾款熱門GPTs你用過沒?
-
關(guān)于GPTs的基礎(chǔ)知識(shí)和我創(chuàng)建的學(xué)術(shù)GPTs應(yīng)用分享送
-
SCI論文寫作與發(fā)表:
-
SCI文章發(fā)了,5分,學(xué)校不認(rèn),怎么回事?
-
論文初審就被拒,較常見的10類負(fù)面意見 (拒稿理由)
-
SCI論文審稿:有拒稿或大修的審稿意見,該如何修改才能順利接收?
-
SCl論文發(fā)表:回復(fù)審稿意見的正確姿勢(shì)及避坑指南
-
關(guān)于倫理批準(zhǔn),這些問題可能導(dǎo)致論文被拒/被撤稿。一文講清楚正確操作流程和寫法(建議收藏)
-
SCI論文審稿:審稿周期太長,該如何有效催稿又不招致reject?
-
SCI論文發(fā)表:校稿proof--如何正確使用論文正式發(fā)表前的最后一次修改機(jī)會(huì)?
-
SCl論文摘要Abstract部分的寫作技巧及避坑指南
-
投稿中這些增加好感和敗好感的細(xì)節(jié),get就能大大提升投稿命中率
-
SCI論文圖片F(xiàn)igure處理要求及避坑指南5000字原創(chuàng)干貨分享
-
SCl論文中的Results & Discussion部分該怎么寫?文章來源:http://www.zghlxwxcb.cn/news/detail-851911.html
-
SCl論文的Introduction部分該怎么寫?? ??文章來源地址http://www.zghlxwxcb.cn/news/detail-851911.html
到了這里,關(guān)于Kimi:作為一款超長文本AI工具,我是怎么用它來卷論文的?的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!