国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

這篇具有很好參考價(jià)值的文章主要介紹了解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

上一章我們介紹了不同的指令微調(diào)方案, 這一章我們介紹如何降低指令數(shù)據(jù)集的人工標(biāo)注成本!這樣每個(gè)人都可以構(gòu)建自己的專屬指令集, 哈哈當(dāng)然我也在造數(shù)據(jù)集進(jìn)行時(shí)~

介紹兩種方案SELF Instruct和Automatic Prompt Engineer,前者是基于多樣的種子指令,利用大模型的上下文和指令理解能力,以及生成的多樣性來Bootstrap生成更多樣的指令樣本,后者是prompt逆向工程,基于輸入和輸出,使用LLM來生成和挑選最優(yōu)的prompt指令。

于是我把這兩個(gè)方法強(qiáng)行組了CP,用APE把原始任務(wù)轉(zhuǎn)化成種子指令,再用SELF去擴(kuò)充,在醫(yī)學(xué)和金融NLP任務(wù)上進(jìn)行了嘗試。也在huggingface上用gradio做成了可視化的應(yīng)用, 有API Key的盆友可以自己嘗試下效果:https://huggingface.co/spaces/xl2533/MakeInstruction ,記得fork到自己的space再嘗試喲~

Automatic Prompt Engineer(APE)

  • paper: 2023.3, LARGE LANGUAGE MODELS ARE HUMAN-LEVEL PROMPT ENGINEERS
  • github: https://github.com/keirp/automatic_prompt_engineer
  • 一語道破天機(jī): prompt逆向工程,根據(jù)輸入和輸出讓模型生成并尋找更優(yōu)的prompt

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

指令生成

這里作者基于原始的輸入+輸出,部分樣本只有輸出,例如自由生成類的任務(wù),來讓大模型預(yù)測(cè),原始指令是什么。作者把指令生成的模板分成了3類,不過個(gè)人感覺其實(shí)只要一類即可,就是few-shot樣本在前,待生成的指令在最后的向前生成類型,如下圖

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

原始論文使用的是text-davinci-002來完成這個(gè)指令生成的任務(wù),每個(gè)樣本使用5條few-shot樣例作為上下文,讓模型輸出可能的指令。這里我把生成指令的模型改成了ChatGPT(只是因?yàn)楸阋?,prompt模板也根據(jù)ChatGPT的特點(diǎn)做了調(diào)整。核心是ChatGPT作為對(duì)話模型比davinci-002,003廢話要多。如果還按上面的指令來寫,你可能會(huì)得到ChatGPT的回答是:我認(rèn)為這個(gè)朋友收到的指令時(shí)blablabla.....

在實(shí)際測(cè)試中我還發(fā)現(xiàn)了幾個(gè)有意思的點(diǎn)

  1. 對(duì)于相對(duì)抽象,偏生成類的任務(wù),few-shot樣本要給夠,模型才有可能猜到'無偏'的指令

例如相似新聞標(biāo)題生成任務(wù):我輸入了2條樣本作為few-shot如下,模型預(yù)測(cè):"將輸入中的公司或組織名稱規(guī)范化為全稱"

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

我又采樣了兩條樣本如下,模型預(yù)測(cè):"將公司公告或新聞標(biāo)題簡(jiǎn)化成簡(jiǎn)短的標(biāo)題,包括公司名稱和主要內(nèi)容"

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

哈哈預(yù)測(cè)的指令確實(shí)都沒毛病,只不過都是相似新聞標(biāo)題生成的子集,所以你需要根據(jù)任務(wù)輸入輸出的多樣性程度來調(diào)整你的few-shot樣本數(shù),多樣性越高你需要的few-shot樣例越多

  1. 構(gòu)建指令樣本,說人話很重要

例如我把以上的相似標(biāo)題生成任務(wù),簡(jiǎn)化成了判斷兩個(gè)標(biāo)題是否描述同一事件的分類任務(wù)。最初我的輸入如下??雌饋硪矝]毛病是不是?然模型的預(yù)測(cè)是:"我無法確定這個(gè)任務(wù)指令的具體內(nèi)容,但它可能與文本分類或者自然語言處理相關(guān)。給出輸入文本,需要判斷該文本是否符合某種特定的模式或標(biāo)準(zhǔn),從而得出輸出結(jié)果"

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

但是當(dāng)我把樣本中的輸出改成符合任務(wù)語意的相同/不相同時(shí),模型預(yù)測(cè)是:"判斷兩個(gè)新聞標(biāo)題是否相同,如果相同輸出"相同",否則輸出"不相同"

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

當(dāng)然考慮生成模型解碼的隨機(jī)性,我在第一類樣本構(gòu)建上多次采樣也得到了類似相似度判斷的指令,但整體效果都差于下面的構(gòu)建方式,所以和MRC構(gòu)建很相似,一切以符合語意為第一標(biāo)準(zhǔn)

  1. 不要你以為,要模型以為!

最初我對(duì)這種機(jī)器生成指令的方式是不太感冒的,但是在醫(yī)學(xué)術(shù)語標(biāo)準(zhǔn)化這個(gè)任務(wù)上,我對(duì)比了APE得到的最優(yōu)指令,和我人工寫的指令,在單測(cè)時(shí)確實(shí)是模型指令,得到正確答案的概率更高。所以我大膽猜測(cè),因?yàn)槟P椭g的一致性,所以合理使用模型生成的指令,能提供更精準(zhǔn)的上下文任務(wù)描述,且理論上都應(yīng)該不差于人類指令。

指令打分

這里作者使用了兩種打分方式,來評(píng)估多組樣本生成的多個(gè)候選指令的優(yōu)劣

  1. Accuracy:使用模型預(yù)測(cè)的正確率,例如對(duì)于QA問題,根據(jù)不同指令在相同樣本上模型回答的準(zhǔn)確率來評(píng)價(jià)指令的效果。
  2. Log Probability:使用模型預(yù)測(cè)的logprobs作為評(píng)價(jià)指標(biāo)。注意這個(gè)指標(biāo)有些tricky,我最初認(rèn)為和上面的Accuracy一樣是讓模型去預(yù)測(cè),把預(yù)測(cè)正確的token的logprobs求和。后來發(fā)現(xiàn)是把輸入+輸出+指令都喂給模型,計(jì)算模型生成原始輸出的概率,很好解決了生成類任務(wù)解碼隨機(jī)不同指令無法比較的問題。

如何調(diào)openai接口獲取輸入的logprobs:
把echo=True,logprobs=1, 就能返回所有采樣token的logprobs,logprobs取值對(duì)應(yīng)TopN的返回,openai最多只給你返回Top5 token,包括實(shí)際被采樣的token。max_tokens=0, 不讓模型生成新的文本,就可以讓模型原樣返回我們喂進(jìn)去的輸入,以及對(duì)應(yīng)的模型計(jì)算的每個(gè)token的條件概率啦

同時(shí)作者加入了隨機(jī)搜索,既對(duì)模型生成的指令,過濾低分的部分,對(duì)于高分的指令集,讓模型基于以下指令模板,為高分指令生成相似的指令,和原始生成的指令一起排序選出最優(yōu)指令。

這塊實(shí)現(xiàn)時(shí),我把相似指令的部分拿掉了,改成人工加入,針對(duì)得到的高分指令,補(bǔ)充上自己認(rèn)為缺少核心的信息后使用log prob的打分方式來評(píng)估是否有提升。所以應(yīng)用里,我把Generated Prompt的窗口改成了可交互的,可以直接對(duì)生成的指令做修改,再Eval效果即可。

例如在醫(yī)療搜索意圖的任務(wù)上,很明顯模型無法理解"多問"標(biāo)簽是啥意思,所以最初多組樣本得到的最優(yōu)指令是下圖的第二個(gè),而我人工加入"多問"的指令后,得到了效果更好的第一個(gè)指令
解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

效果

這里作者使用了REF[1]里面使用的24個(gè)指令任務(wù),每類任務(wù)挑選5對(duì)樣本,使用以上的方案得到最優(yōu)的指令,再在剩余樣本上,和人工指令以及REF[1]論文中使用的方案(沒有搜索和打分排序的APE)以下稱為greedy,進(jìn)行效果對(duì)比。APE的效果在24個(gè)任務(wù)上基本可以打平人工模板甚至在部分任務(wù)上還要超越人工指令。在BigBench這類難度更高的樣本上,APE在17(共21)個(gè)任務(wù)上也超越了人工指令的效果。

我在4個(gè)醫(yī)學(xué)數(shù)據(jù)集上APE+人工優(yōu)化得到的最優(yōu)指令如下

任務(wù) 指令
搜索意圖 生成醫(yī)學(xué)相關(guān)問題的答案。給定一個(gè)輸入問題,需要根據(jù)問題生成相應(yīng)的輸出答案。答案包括臨床表現(xiàn)、病因、治療方法、作用、定義等等,如果有多個(gè)問題,返回多問
醫(yī)療術(shù)語標(biāo)準(zhǔn)化 將醫(yī)學(xué)手術(shù)名稱的術(shù)語表述標(biāo)準(zhǔn)化。輸入是醫(yī)學(xué)手術(shù)的名稱,輸出是對(duì)該手術(shù)的名稱進(jìn)行修正、標(biāo)準(zhǔn)化,以供醫(yī)學(xué)專業(yè)人員更好地理解
醫(yī)療藥物功能實(shí)體抽取 給定藥品信息和用途說明,根據(jù)用途說明提取出藥品的主治功能。
醫(yī)療文獻(xiàn)QA生成 訓(xùn)練一個(gè)問答系統(tǒng),給定一些醫(yī)學(xué)文本,能夠回答用戶提問關(guān)于該文本內(nèi)容的問題。每個(gè)輸入-輸出對(duì)是一組文本和對(duì)應(yīng)的問題及答案。輸出的形式是以下Json格式{"問題":\(問題, "回答":\)回答}

以醫(yī)學(xué)術(shù)語標(biāo)準(zhǔn)化為例我簡(jiǎn)化了APE提供的gradio應(yīng)用,效果如下

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

SELF-Instruct

  • paper: 2022.12, SELF-INSTRUCT: Aligning Language Model
    with Self Generated Instructions
  • https://github.com/yizhongw/self-instruct
  • https://github.com/tatsu-lab/stanford_alpaca#data-generation-process
  • 一語道破天機(jī):類似非線性插值,通過LLM的生成多樣性做Bootstrap對(duì)種子指令集進(jìn)行不定向擴(kuò)充

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

上一步我們依賴APE得到了種子指令集,但是豐富度和多樣性是遠(yuǎn)遠(yuǎn)不夠的。這里SELF提出了一種Bootstrap方案來讓LLM基于種子指令生成新的指令的指令擴(kuò)充方案。這個(gè)方案也后續(xù)被用于Alpaca項(xiàng)目中生成微調(diào)指令集,主要包括以下3個(gè)步驟

1. 新指令生成

首先作者人工構(gòu)建了175個(gè)種子指令,這些種子指令由1條指令和1個(gè)樣本構(gòu)成。每個(gè)Step作者會(huì)從中采樣8個(gè)指令,其中6個(gè)來自以上種子,2個(gè)來自LLM生成的指令,當(dāng)然step1全部都是種子指令。然后基于如下的prompt模板構(gòu)建模型輸入

"""
Come up with a series of tasks:
Task 1: {instruction for existing task 1}
Task 2: {instruction for existing task 2}
Task 3: {instruction for existing task 3}
Task 4: {instruction for existing task 4}
Task 5: {instruction for existing task 5}
Task 6: {instruction for existing task 6}
Task 7: {instruction for existing task 7}
Task 8: {instruction for existing task 8}
Task 9:
"""

如果你看著這個(gè)模板,感覺和ChatGPT的模板格格不入,那就對(duì)了。因?yàn)樽髡呤腔贕PT3實(shí)現(xiàn)的,就是那個(gè)天真的續(xù)寫模型。

而Alpaca項(xiàng)目在使用SELF構(gòu)建指令樣本時(shí)升級(jí)到了davinci-003模型,因?yàn)槟P涂梢愿玫睦斫庵噶?,因此以上純few-shot的prompt模板也改成了如下(用ChatGPT翻成了中文),同時(shí)輸入的few-shot數(shù)量縮減到了3個(gè)

"""
你需要想出20個(gè)不同的任務(wù)指令。這些任務(wù)指令將輸入GPT模型,我們將評(píng)估GPT模型完成指令的情況。
以下是要求:
1. 盡量不要在每個(gè)指令中重復(fù)使用動(dòng)詞,以最大化多樣性
2. 指令的表達(dá)形式需要多樣化。例如你可以把問題和祈使句結(jié)合起來
3. 指令的類型應(yīng)該多樣化,包括但不限于開放式生成、分類、抽取、問答、文本編輯等等
4. 指令應(yīng)該是GPT模型可以完成的任務(wù)。例如,指令不能是輸出圖像或者視頻,另一個(gè)例子,不要讓助手在下午5點(diǎn)叫醒你或設(shè)置提醒,因?yàn)镚PT不能執(zhí)行任何動(dòng)作
5. 指令必須是中文
6. 指令應(yīng)該是1到2句話,可以是祈使句或問句。
20個(gè)任務(wù)的列表:
"""

我第一遍讀完SELF是一腦門子問號(hào)

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

后來我(似乎&努力)說服了自己,就是LLM做了類似非線性差值的工作,因?yàn)槊總€(gè)Step都會(huì)采樣不同的指令作為上下文,而模型也會(huì)根據(jù)隨機(jī)采樣得到的不同的上下文融合出新的指令。

2. 樣本生成

只有指令還不夠,還需要生成指令對(duì)應(yīng)的輸入和輸出。在SELF原論文中,作者多加了一步分類任務(wù),也就是讓LLM先判斷指令本身是否為分類任務(wù),如果是則先生成輸出,再生成輸入。如果否則先生成輸入再生成輸出。原因是作者發(fā)現(xiàn),對(duì)于分類任務(wù)模型傾向于只生成其中一個(gè)標(biāo)簽的輸入。

但在Alpaca項(xiàng)目中,因?yàn)槟P蜕?jí)到Davinci-003,以上問題也似乎不再顯著。并且隨著模型輸入長(zhǎng)度變長(zhǎng),Alpaca直接把生成樣本和生成指令的步驟合在了一起,一步到位。于是以上指令生成的模板被擴(kuò)充成了以下

"""
7. 你應(yīng)該為指令生成一個(gè)合適的輸入。輸入字段應(yīng)該包含為指令提供的一個(gè)具體示例。它應(yīng)該涉及真實(shí)的數(shù)據(jù),而不應(yīng)該包含簡(jiǎn)單的占位符。輸入應(yīng)該提供足夠的內(nèi)容,使指令具有挑戰(zhàn)性,但理想情況下不應(yīng)超過100個(gè)單詞。
8. 不是所有的指令都需要輸入。例如,當(dāng)一個(gè)指令詢問一些一般信息時(shí),“世界上最高的山峰是什么”,就不需要提供具體的上下文。在這種情況下,我們只需在輸入字段中放置“<無輸入>”。
9. 輸出應(yīng)該是對(duì)指令和輸入的合適回應(yīng)。確保輸出少于100個(gè)單詞。
20個(gè)任務(wù)的列表:
"""

于是每一步其實(shí)是直接生成指令,以及指令對(duì)應(yīng)的輸入和輸出樣本。對(duì)于自由生成類的任務(wù),也支持沒有輸入只有輸出。

3. 過濾和后處理

針對(duì)以上生成的指令和樣本還需要進(jìn)行一些系列的后處理,主要包括模型預(yù)測(cè)解析,不合理指令的過濾,以及相似指令的過濾,解析的部分建議直接看代碼

  1. 不可用指令過濾
  • 因?yàn)檩敵鲩L(zhǎng)度被截?cái)嗟闹噶睿簉esponse停止原因是length,則過濾最后一個(gè)指令
  • 過濾包含不可用關(guān)鍵詞的指令:例如圖片,音頻等GPT模型無法完成的任務(wù)
  • 過濾過長(zhǎng),過短的指令
  • 過濾指令前幾個(gè)字非英文/中文的指令
  1. 相似指令過濾

為了保證指令集的多樣性,每輪都會(huì)計(jì)算新生成指令和已有指令的Rouge-L相似度,也就是摘要任務(wù)評(píng)估中用最長(zhǎng)公共子串的長(zhǎng)度計(jì)算的F值。只保留F值小于0.7的新的指令。同時(shí)也可以根據(jù)最近幾輪生成指令的整體相似度,來判斷是否要停止生成。

我用上面APE生成的4個(gè)醫(yī)學(xué)NLP任務(wù)作為種子指令集,每輪采樣2個(gè)人工,1個(gè)機(jī)器指令作為few-shot,生成2個(gè)新的指令任務(wù)。我對(duì)以上指令做了些調(diào)整,限制只生成醫(yī)學(xué)領(lǐng)域的任務(wù),得到了如下的結(jié)果。哈哈我決定去給賬戶充錢了。。。

解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)

大致就是這么多,感興趣的盆友們一起玩起來(造數(shù)據(jù)的痛苦見者有份)~

2.gif

更多Prompt相關(guān)論文·教程,開源數(shù)據(jù)·模型,以及AIGC相關(guān)玩法戳這里DecryptPrompt


Reference文章來源地址http://www.zghlxwxcb.cn/news/detail-409416.html

  1. Instruction induction: From few examples to natural language task descriptions.
  2. Fairness-guided Few-shot Prompting for Large Language Models
  3. Flipped Learning: Guess the Instruction! Flipped Learning Makes Language Models Stronger Zero-Shot Learners

到了這里,關(guān)于解密prompt系列5. APE+SELF=自動(dòng)化指令集構(gòu)建代碼實(shí)現(xiàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Golang實(shí)現(xiàn)一個(gè)批量自動(dòng)化執(zhí)行樹莓派指令的軟件(2)指令

    基于上篇 Golang實(shí)現(xiàn)一個(gè)批量自動(dòng)化執(zhí)行樹莓派指令的軟件(1)文本加密配置命令行交互實(shí)現(xiàn), 這篇實(shí)現(xiàn)的是指令, 即通過ssh執(zhí)行l(wèi)inux指令的實(shí)現(xiàn)。 運(yùn)行環(huán)境: Windows, 基于Golang, 暫時(shí)沒有使用什么不可跨平臺(tái)接口, 理論上支持Linux/MacOS 目標(biāo)終端 :樹莓派DebianOS(主要做用它測(cè)試

    2024年04月27日
    瀏覽(27)
  • 自動(dòng)化測(cè)試系列 —— UI自動(dòng)化測(cè)試

    自動(dòng)化測(cè)試系列 —— UI自動(dòng)化測(cè)試

    UI 測(cè)試是一種測(cè)試類型,也稱為用戶界面測(cè)試,通過該測(cè)試,我們檢查應(yīng)用程序的界面是否工作正常或是否存在任何妨礙用戶行為且不符合書面規(guī)格的 BUG。了解用戶將如何在用戶和網(wǎng)站之間進(jìn)行交互以執(zhí)行 UI 測(cè)試至關(guān)重要,通過執(zhí)行 UI 測(cè)試,測(cè)試人員將嘗試模仿用戶的行為

    2024年02月10日
    瀏覽(27)
  • 接口自動(dòng)化測(cè)試系列-接口測(cè)試

    接口自動(dòng)化測(cè)試系列-接口測(cè)試

    利用postman完成接口測(cè)試:官網(wǎng)。 接口一般包含: url:請(qǐng)求地址,如:https://www.baidu.com/ method:請(qǐng)求方式,get,post,update,delete等 headers:請(qǐng)求頭 body/params:請(qǐng)求體,post一般存在body中。get請(qǐng)求放在params中 get請(qǐng)求 post請(qǐng)求 輔助抓包工具操作指引 postman常規(guī)操作 1、怎樣設(shè)置變量 如url、heade

    2024年02月10日
    瀏覽(24)
  • 自動(dòng)化測(cè)試Junit(測(cè)試系列8)

    自動(dòng)化測(cè)試Junit(測(cè)試系列8)

    目錄 前言: 1.什么是Junit 2.Junit相關(guān)的技術(shù) 2.1注解 2.1.1@Test 2.1.2@Disable 2.1.3@BeforeAll和@AfterAll 2.1.4@BeforeEach和@AfterEach? 2.2參數(shù)化 2.2.1單參數(shù) 2.2.2多參數(shù) 2.2.2.1CSV獲取參數(shù) 2.2.2.2方法獲取參數(shù) 2.3測(cè)試套件 2.3.1通過class運(yùn)行測(cè)試用例 2.3.2通過包運(yùn)行測(cè)試用例 2.4執(zhí)行順序 2.5斷言 2.5.1斷

    2024年02月15日
    瀏覽(29)
  • 接口自動(dòng)化測(cè)試系列-接入測(cè)試平臺(tái)

    接口自動(dòng)化測(cè)試系列-接入測(cè)試平臺(tái)

    測(cè)試平臺(tái)目錄 測(cè)試平臺(tái)自建源碼 后臺(tái)核心代碼 部分前端代碼樣例

    2024年02月10日
    瀏覽(27)
  • 自動(dòng)化測(cè)試 selenium(測(cè)試系列7)

    自動(dòng)化測(cè)試 selenium(測(cè)試系列7)

    目錄 前言: 1.什么是自動(dòng)化測(cè)試 2.Selenium是什么 3.Selenium原理 4.Selenium+Java環(huán)境搭建 5.Selenium常用的API使用 5.1定位元素findElement 5.1.1css選擇器 5.1.2id選擇器 5.1.3類選擇器 5.1.4xpath選擇器 5.2操作測(cè)試對(duì)象 5.2.1click點(diǎn)擊對(duì)象 5.2.2sendKeys在對(duì)象上模擬按鍵輸入 5.2.3clear清除對(duì)象輸入的文本

    2024年02月15日
    瀏覽(66)
  • 『Linux從入門到精通』第 ⑥ 期 - Linux編輯器——vim(最小集+指令集+自動(dòng)化配置)

    『Linux從入門到精通』第 ⑥ 期 - Linux編輯器——vim(最小集+指令集+自動(dòng)化配置)

    目錄 ??專欄導(dǎo)讀 ??文章導(dǎo)讀? ??vim最小集 ??vim的三種模式 ??vim的基本操作 ??vim指令集 ??命令模式指令集 ??移動(dòng)光標(biāo) ??刪除文字 ??復(fù)制 ??替換 ??撤銷上一次操作 ??更改 ??跳至指定的行 ??底行模式指令集 ??列出行號(hào) ??跳到文件中的某一行 ??查找字符 ??保

    2024年01月24日
    瀏覽(72)
  • web自動(dòng)化系列selenium模擬按鍵操作

    一、按鍵操作 通過對(duì)監(jiān)聽鍵盤輸入的元素發(fā)送鍵盤按鈕指令 常用鍵盤按鍵 代碼演示

    2024年02月06日
    瀏覽(26)
  • 自動(dòng)化測(cè)試系列-Selenium三種等待詳解

    自動(dòng)化測(cè)試系列-Selenium三種等待詳解

    第一種也是最簡(jiǎn)單粗暴的一種辦法就是強(qiáng)制等待sleep(time),強(qiáng)制讓程序等time秒時(shí)間,不管程序能不能跟上速度,還是已經(jīng)提前到了,都必須等time時(shí)長(zhǎng)。 如下代碼案例所示: 這種叫強(qiáng)制等待,不管你瀏覽器是否加載完了,程序都得等待5秒,5秒一到,繼續(xù)執(zhí)行下面的代碼,作為

    2024年04月10日
    瀏覽(25)
  • 博客系統(tǒng)自動(dòng)化測(cè)試項(xiàng)目實(shí)戰(zhàn)(測(cè)試系列9)

    博客系統(tǒng)自動(dòng)化測(cè)試項(xiàng)目實(shí)戰(zhàn)(測(cè)試系列9)

    目錄 前言: 1.博客前端頁面測(cè)試用例圖 2.測(cè)試用例的代碼實(shí)現(xiàn) 2.1登錄頁面的測(cè)試 2.2博客列表頁面的測(cè)試 2.3寫博客測(cè)試 2.4博客詳情頁面的測(cè)試 2.5已發(fā)布博客的標(biāo)題和時(shí)間的測(cè)試 2.6注銷用戶的測(cè)試 結(jié)束語: 之前小編給大家講解了有關(guān)于Selenium和Junit5自動(dòng)化測(cè)試的一些基礎(chǔ)知

    2024年02月10日
    瀏覽(41)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包