国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

爬蟲(chóng)源碼---爬取自己想要看的小說(shuō)

這篇具有很好參考價(jià)值的文章主要介紹了爬蟲(chóng)源碼---爬取自己想要看的小說(shuō)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言:

小說(shuō)作為在自己空閑時(shí)間下的消遣工具,對(duì)我們打發(fā)空閑時(shí)間很有幫助,而我們?cè)诰W(wǎng)站上面瀏覽小說(shuō)時(shí)會(huì)被廣告和其他一些東西影響我們的觀看體驗(yàn),而這時(shí)我們就可以利用爬蟲(chóng)將我們想要觀看的小說(shuō)下載下來(lái),這樣就不會(huì)擔(dān)心廣告的影響了。

一:環(huán)境配置

Python版本:3.7.3

IDE:PyCharm

所需庫(kù):requests,lxml,time

二:準(zhǔn)備工作

1:安裝好我們所需要的庫(kù)。?

2:我們需要在電腦上的指定位置來(lái)創(chuàng)建一個(gè)文件夾來(lái)保存我們爬取的小說(shuō)。

3:需要去下載XPATH插件以便于我們獲取小說(shuō)的名字(資源已上傳,可自行下載安裝)。

三:具體代碼實(shí)現(xiàn)

import requests
from lxml import etree
import time
url = 'https://www.biquge365.net/newbook/33411/'
head = {
    'Referer': 'https://www.biquge365.net/book/33411/',
    'users-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36 Edg/112.0.1722.39'
}
response = requests.get(url,headers = head,verify = False)
# print(response.text)
html = etree.HTML(response.text)
novel_name = html.xpath('/html/body/div[1]/div[3]/div[1]/h1/text()')[0]
novel_directory = html.xpath('/html/body/div[1]/div[4]/ul/li[*]/a/@href')
#由于網(wǎng)站可能具有反扒措施,所以我們?cè)O(shè)置一下時(shí)間,防止被反扒
time.sleep(6)
for i in novel_directory:
    com_url = 'https://www.biquge365.net'+i
    response2 = requests.get(com_url,headers=head)
    html2 = etree.HTML(response2.text)
    novel_chapter = html2.xpath('//*[@id="neirong"]/h1/text()')[0]
    novel_content = '\n'.join(html2.xpath('//*[@id="txt"]/text()'))
    with open('E:\\python源碼\\爬蟲(chóng)教程\\小說(shuō).txt'+novel_chapter+'.txt','w',encoding='utf-8') as file:
        file.write(novel_chapter+'\n'+novel_content+'\n')
        file.close()
        print("下載成功"+novel_chapter)

四:結(jié)果展示

爬蟲(chóng)源碼---爬取自己想要看的小說(shuō),爬蟲(chóng),python,beautifulsoup,pip,ipython文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-697794.html

到了這里,關(guān)于爬蟲(chóng)源碼---爬取自己想要看的小說(shuō)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 爬蟲(chóng)入門(mén)指南(7):使用Selenium和BeautifulSoup爬取豆瓣電影Top250實(shí)例講解【爬蟲(chóng)小白必看】

    爬蟲(chóng)入門(mén)指南(7):使用Selenium和BeautifulSoup爬取豆瓣電影Top250實(shí)例講解【爬蟲(chóng)小白必看】

    在本篇博客中,我們將使用 Python 的 Selenium 和 BeautifulSoup 庫(kù)來(lái)實(shí)現(xiàn)一個(gè)簡(jiǎn)單的網(wǎng)頁(yè)爬蟲(chóng),目的是爬取豆瓣電影TOP250的數(shù)據(jù),并將結(jié)果保存到Excel文件中。 Selenium 是一個(gè)自動(dòng)化測(cè)試工具,可以模擬用戶在瀏覽器中的交互操作。我們將使用 Selenium 來(lái)打開(kāi)網(wǎng)頁(yè)、獲取網(wǎng)頁(yè)源碼。 B

    2024年02月12日
    瀏覽(24)
  • 爬蟲(chóng)之牛刀小試(九):爬取小說(shuō)

    爬蟲(chóng)之牛刀小試(九):爬取小說(shuō)

    今天爬取的是一本小說(shuō) 代碼如下: 接著寫(xiě)一個(gè)網(wǎng)頁(yè)來(lái)表示出文本內(nèi)容(此段代碼由陳同學(xué)提供,不方便展示),效果如下: 最近新開(kāi)了公眾號(hào),請(qǐng)大家關(guān)注一下。

    2024年01月25日
    瀏覽(26)
  • 使用爬蟲(chóng)爬取百度搜索結(jié)果及各網(wǎng)站正文(request庫(kù)、selenium庫(kù)和beautifulsoup庫(kù))

    使用爬蟲(chóng)爬取百度搜索結(jié)果及各網(wǎng)站正文(request庫(kù)、selenium庫(kù)和beautifulsoup庫(kù))

    任務(wù): 給定搜索詞,獲取百度搜索結(jié)果 根據(jù)各項(xiàng)結(jié)果獲取對(duì)應(yīng)網(wǎng)站正文部分 header實(shí)際為一個(gè)字典,為訪問(wèn)百度時(shí)提供必要的信息。 一般來(lái)講只需要提供 Cookie 就可以訪問(wèn)大多數(shù)網(wǎng)站,其余可能需要的還有 Host 、 User-Agent 等 通過(guò)分析百度搜索url可以發(fā)現(xiàn) https://www.baidu.com/s?wd=茅

    2024年03月27日
    瀏覽(28)
  • [Python練習(xí)]使用Python爬蟲(chóng)爬取豆瓣top250的電影的頁(yè)面源碼

    [Python練習(xí)]使用Python爬蟲(chóng)爬取豆瓣top250的電影的頁(yè)面源碼

    在終端中輸入以下代碼(直接在cmd命令提示符中,不需要打開(kāi)Python) 從豆瓣網(wǎng)提供的鏡像網(wǎng)站下載requests第三方庫(kù) 是從國(guó)外網(wǎng)站下載,速度慢甚至有時(shí)候無(wú)法下載 運(yùn)行代碼之后,沒(méi)反應(yīng),無(wú)輸出結(jié)果 可以看一下返回的頁(yè)面請(qǐng)求狀態(tài)碼是多少: 狀態(tài)碼是 418 ,所有4開(kāi)頭的狀態(tài)

    2024年01月17日
    瀏覽(23)
  • python爬蟲(chóng)request和BeautifulSoup使用

    python爬蟲(chóng)request和BeautifulSoup使用

    1.安裝request 2.引入庫(kù) 3.編寫(xiě)代碼 發(fā)送請(qǐng)求 我們通過(guò)以下代碼可以打開(kāi)豆瓣top250的網(wǎng)站 但因?yàn)樵摼W(wǎng)站加入了反爬機(jī)制,所以我們需要在我們的請(qǐng)求報(bào)文的頭部加入U(xiǎn)ser-Agent的信息 User-Agent可以通過(guò)訪問(wèn)網(wǎng)站時(shí)按f12查看獲取 我們可以通過(guò)response的ok屬性判斷是否請(qǐng)求成功 此時(shí)如果

    2024年02月08日
    瀏覽(21)
  • Python爬蟲(chóng)實(shí)現(xiàn)(requests、BeautifulSoup和selenium)

    Python爬蟲(chóng)實(shí)現(xiàn)(requests、BeautifulSoup和selenium)

    Python requests 是一個(gè)常用的 HTTP 請(qǐng)求庫(kù),可以方便地向網(wǎng)站發(fā)送 HTTP 請(qǐng)求,并獲取響應(yīng)結(jié)果。 下載requests庫(kù) pip install requests 實(shí)例: 屬性和方法 屬性或方法 說(shuō)明 content 返回響應(yīng)的內(nèi)容,以字節(jié)為單位 headers 返回響應(yīng)頭,字典格式 json() 返回結(jié)果的 JSON 對(duì)象 request 返回請(qǐng)求此響應(yīng)

    2024年02月07日
    瀏覽(18)
  • python爬蟲(chóng)基礎(chǔ)入門(mén)——利用requests和BeautifulSoup

    python爬蟲(chóng)基礎(chǔ)入門(mén)——利用requests和BeautifulSoup

    (本文是自己學(xué)習(xí)爬蟲(chóng)的一點(diǎn)筆記和感悟) 經(jīng)過(guò)python的初步學(xué)習(xí),對(duì)字符串、列表、字典、元祖、條件語(yǔ)句、循環(huán)語(yǔ)句……等概念應(yīng)該已經(jīng)有了整體印象,終于可以著手做一些小練習(xí)來(lái)鞏固知識(shí)點(diǎn),寫(xiě)爬蟲(chóng)練習(xí)再適合不過(guò)。 爬蟲(chóng)的本質(zhì)就是從網(wǎng)頁(yè)中獲取所需的信息,對(duì)網(wǎng)頁(yè)

    2024年02月15日
    瀏覽(23)
  • 爬蟲(chóng)--爬取自己想去的目的的車(chē)票信息

    爬蟲(chóng)--爬取自己想去的目的的車(chē)票信息

    本篇文章主要作為一個(gè)爬蟲(chóng)項(xiàng)目的小練習(xí),來(lái)給大家進(jìn)行一下爬蟲(chóng)的大致分析過(guò)程以及來(lái)幫助大家在以后的爬蟲(chóng)編寫(xiě)中有一個(gè)更加清晰的認(rèn)識(shí)。 Python版本:3.7 IDE:PyCharm 所需庫(kù):requests,bs4,xlwt 1我們需要去找到user-Agent 1:導(dǎo)入所需庫(kù) 2:編寫(xiě)請(qǐng)求頭與參數(shù) 3:發(fā)送請(qǐng)求并編寫(xiě)表

    2024年02月10日
    瀏覽(16)
  • python:爬取網(wǎng)絡(luò)小說(shuō),看這一篇就夠了

    python:爬取網(wǎng)絡(luò)小說(shuō),看這一篇就夠了

    說(shuō)明: ? ? ? ? 本教程僅供于學(xué)習(xí)研究使用,請(qǐng)勿用于其他用途。 軟件安裝: 官網(wǎng)下載visual studio?Visual Studio: 面向軟件開(kāi)發(fā)人員和 Teams 的 IDE 和代碼編輯器 (microsoft.com) 點(diǎn)進(jìn)網(wǎng)頁(yè)后下拉找到個(gè)人免費(fèi)版本。點(diǎn)擊下載即可。 1:找到瀏覽器下載位置,2:選擇打開(kāi)下載文件位置

    2024年02月04日
    瀏覽(26)
  • python3 爬蟲(chóng)相關(guān)學(xué)習(xí)9:BeautifulSoup 官方文檔學(xué)習(xí)

    python3 爬蟲(chóng)相關(guān)學(xué)習(xí)9:BeautifulSoup 官方文檔學(xué)習(xí)

    目錄 1 BeautifulSoup 官方文檔 2 用bs 和 requests 打開(kāi) 本地html的區(qū)別:代碼里的一段html內(nèi)容 2.1 代碼和運(yùn)行結(jié)果 2.2 用beautiful 打開(kāi) 本地 html 文件 2.2.1 本地html文件 2.2.2?soup1=BeautifulSoup(html1,\\\"lxml\\\") 2.3?用requests打開(kāi) 本地 html 文件 2.3.1 本地html文件 2.3.2 print(html1) 3 用bs 和 requests 打開(kāi) 本

    2024年02月08日
    瀏覽(21)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包