国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第23練:文件內(nèi)容的刪除+寫入

這篇具有很好參考價值的文章主要介紹了【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第23練:文件內(nèi)容的刪除+寫入。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

0x00 前言:

0x02 解決:


0x00 前言:

本篇博文可能會有一點點的超級呆

【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第23練:文件內(nèi)容的刪除+寫入,【網(wǎng)絡(luò)安全-帶你練爬蟲】,python,開發(fā)語言



0x02 解決:

你是不是也會想:

使用pyrhon將指定文件夾位置里面的1.txt中數(shù)據(jù)全部刪除以后---->然后再將參數(shù)req_text的值寫入到1.txt

(小呆呆實錘)


# 示例參數(shù)
req_text = "………………(此處省略一萬字)"

# 示例文件夾路徑
folder_path = '/path/to/folder'  # 替換為實際的文件夾路徑


def delete_and_write_to_file(req_text, folder_path):
    file_path = folder_path + '/1.txt'  # 拼接文件路徑
    with open(file_path, 'w') as file:
        file.write(req_text)



if __name__ == '__main__':
    delete_and_write_to_file()

區(qū)分一下:

“w”模式:

使用 "w" 模式打開一個文件時,如果該文件已經(jīng)存在,那么原有的內(nèi)容將會被清空。然后,你可以通過寫入新的內(nèi)容來填充文件。如果文件不存在,Python 會自動創(chuàng)建一個新的空文件。

“a”模式:

在保留原有內(nèi)容的基礎(chǔ)上追加新內(nèi)容文章來源地址http://www.zghlxwxcb.cn/news/detail-705662.html

到了這里,關(guān)于【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第23練:文件內(nèi)容的刪除+寫入的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第10練:re的正則匹配、文件夾創(chuàng)建、圖片下載

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第10練:re的正則匹配、文件夾創(chuàng)建、圖片下載

    目錄 一、目標1:正則匹配圖片的URL 二、目標2:創(chuàng)建文件夾 三、目標3:保存圖片到test文件夾中 ?四、網(wǎng)絡(luò)安全小圈子 URL位置 我們可以找到img都在這個標簽里面 ? ? 請求方法GET ? 提取URL位置 需要掌握的 目標標簽如下: 需要提取的內(nèi)容如下: (多加了一個為轉(zhuǎn)義字

    2024年02月13日
    瀏覽(19)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第15練:模擬用戶登錄

    目錄 一、目標1:理清邏輯 二、目標2:將每一步用代碼進行表示 三、網(wǎng)絡(luò)安全O 模擬登錄的基本流程 1、進入入口程序 2、讀取目標URL 3、請求加上線程 4、確定請求數(shù)據(jù)包 5、請求格式的確認 6、數(shù)據(jù)的處理與判斷 (順序會進行標號) 對于不同的站點的登錄 需要對數(shù)據(jù)包、請

    2024年02月15日
    瀏覽(18)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第4練:添加異常處理代碼

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第4練:添加異常處理代碼

    目錄 一、異常處理代碼: 二、執(zhí)行結(jié)果: 三、完整代碼: 四、網(wǎng)絡(luò)安全小圈子 ? (當(dāng)代碼越來越長的時候,異常處理代碼有時候能起到很好的作用) (注:其中的cookie需要填自己的) (1)try-except搭配:try后面的代碼是要監(jiān)視異常的代碼塊,except后面的代碼是

    2024年02月15日
    瀏覽(21)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第6練:內(nèi)嵌發(fā)包提取數(shù)據(jù)

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第6練:內(nèi)嵌發(fā)包提取數(shù)據(jù)

    目錄 一、分析目標: 二、代碼實現(xiàn) 目標1:對于捕獲的URL內(nèi)嵌發(fā)包 目標2:找到電話和郵箱的位置 目標3:提取電話和郵箱 三、完整代碼 四、網(wǎng)絡(luò)安全小圈子 (注:需要帶上登錄成功后的cookie發(fā)包) 點擊進去爬取每個企業(yè)里面的電話、郵箱 (我們是來投簡歷的,切勿干非法

    2024年02月12日
    瀏覽(16)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第2練:爬取指定位置數(shù)據(jù)

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第2練:爬取指定位置數(shù)據(jù)

    目錄 一、思路 二、工具 三、代碼處理 第一部分:發(fā)起請求+接收響應(yīng)(不過多講) 第二部分:解析HTML頁面+提取數(shù)據(jù) 第三部分:處理數(shù)據(jù) 分解步驟,化繁為簡 爬蟲分為五步走: 發(fā)起HTTP請求:爬蟲使用HTTP協(xié)議向目標網(wǎng)址發(fā)送請求,請求獲取特定的HTML頁面。這可以通過使用

    2024年02月12日
    瀏覽(14)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第1練:發(fā)送請求獲取返回內(nèi)容

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第1練:發(fā)送請求獲取返回內(nèi)容

    目錄 一、前置知識1 二、前置知識2 requests庫的7個主要方法 語法: 注解: 三、擴展工具 四、網(wǎng)絡(luò)安全小圈子 顧名思義網(wǎng)絡(luò)爬蟲第一步,爬取目標?URL的網(wǎng)頁的信息 可以使用 urllib.request 和 requests發(fā)送請求,然后返回對應(yīng)的數(shù)據(jù)(py3) 1、urllib 庫是 Python 內(nèi)置的 2、requests 庫是

    2024年02月12日
    瀏覽(14)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第11練:xpath快速定位提取數(shù)據(jù)

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第11練:xpath快速定位提取數(shù)據(jù)

    目錄 一、目標1:使用etree解析數(shù)據(jù) 二、目標2:使用xpath爬取指定數(shù)據(jù) 三、目標3:提取指定數(shù)據(jù) ?四、網(wǎng)絡(luò)安全小圈子 其余的不用過多介紹,前面的練習(xí)都給大家已經(jīng)過了一遍 其中數(shù)據(jù)解析代碼如下 對返回的內(nèi)容進行UTF-8解碼,不然會出現(xiàn)亂碼 我們來爬一下這幾個標題 ?

    2024年02月13日
    瀏覽(21)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第5練:爬蟲的翻頁操作+錯誤情況過濾

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第5練:爬蟲的翻頁操作+錯誤情況過濾

    目錄 一、翻頁分析: 二、代碼邏輯 1、入口程序修改 2、page參數(shù)傳入 三、完整代碼 1、運行結(jié)果 2、錯誤分析: 3、缺陷代碼: 4、完善邏輯: 5、完善代碼: (說在前面,任何邏輯都有很多方法實現(xiàn),我們先從最笨的講起) (注:其中的cookie需要填自己的) 通過對比第一頁與

    2024年02月12日
    瀏覽(18)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第8練:json數(shù)據(jù)的最小項提取

    【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第8練:json數(shù)據(jù)的最小項提取

    目錄 一、目標1:爬取指定json中數(shù)據(jù) 二、目標2:循環(huán)取json中數(shù)據(jù) 三、目標3:提取每個數(shù)據(jù)中的某一項 四、網(wǎng)絡(luò)安全小圈子 爬取data里數(shù)據(jù) ? 核心代碼: (1)json.loads()方法可用于解析有效的JSON字符串并將其轉(zhuǎn)換為Python字典 (2)dirt1[\\\'data\\\']是打印json中的data部分 運行結(jié)果:

    2024年02月13日
    瀏覽(18)
  • 【網(wǎng)絡(luò)安全帶你練爬蟲-100練】第22練:數(shù)據(jù)包中參數(shù)提取與處理

    目錄 一、目標1:GET數(shù)據(jù)包的處理 1、GET數(shù)據(jù)包中參數(shù)的提取 2、GET請求中 統(tǒng)計參數(shù)個數(shù) 二、目標2:POST數(shù)據(jù)包的處理 1、post中參數(shù)個數(shù)的提取 2、POST請求中 統(tǒng)計參數(shù)個數(shù) (與GET類似,就不再做敘述了)

    2024年02月10日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包