国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

selenium爬取網(wǎng)頁內(nèi)容,對網(wǎng)頁內(nèi)容進(jìn)行點(diǎn)擊

這篇具有很好參考價值的文章主要介紹了selenium爬取網(wǎng)頁內(nèi)容,對網(wǎng)頁內(nèi)容進(jìn)行點(diǎn)擊。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

所需要的庫

import time

from selenium import webdriver
from selenium.webdriver.common.by import By

首先明確所要爬取的網(wǎng)頁,選擇調(diào)用方法,增加無界面模式的無頭參數(shù),然后調(diào)用,獲取網(wǎng)址,使頁面放大,為最大化窗口

url="https://maoyan.com/board/4"
options=webdriver.ChromeOptions()#選擇調(diào)用方法
options.add_argument("--headless")#無界面模式的無頭參數(shù)
driver=webdriver.Chrome(options=options)#讓無參數(shù)調(diào)用
driver.get(url)#打開頁面輸入地址并確認(rèn)
driver.maximize_window()#使頁面放大,最大化頁面窗口
time.sleep(3)#停留時間

獲取數(shù)據(jù)運(yùn)用XPATH函數(shù),將獲取的數(shù)據(jù)作為item,運(yùn)用XPATH函數(shù)獲取,

//*[@id='app']/div/div/div[1]/dl/dd為運(yùn)用谷歌瀏覽器,在更多工具中找到開發(fā)者工具,點(diǎn)擊圖片選擇的位置,將鼠標(biāo)放在你想要爬取的數(shù)據(jù)上點(diǎn)擊,自動跳轉(zhuǎn)代碼,查看代碼,對代碼行進(jìn)行右擊,選擇copy,copy xpath。

獲取到網(wǎng)頁的element后要進(jìn)行點(diǎn)擊,selenium,python,爬蟲

?文章來源地址http://www.zghlxwxcb.cn/news/detail-799035.html

def get_data():
    item_list=driver.find_elements(By.XPATH,"http://*[@id='app']/div/div/div[1]/dl/dd")#xpath是數(shù)字是div,selector是函數(shù)直接是class里的
    for list in item_list:
        item={}
        info_list=list.text.split("\n")#每爬取一行換行
        item['number']=info_list[0]
        item['name'] = info_list[1]
        item['star'] = info_list[2]
        item['time'] = info_list[3]
        item['score'] = info_list[4]
        print(item)
    pass

模仿人點(diǎn)擊下一頁,運(yùn)用 for語句,每10個一點(diǎn),停留5秒

for i in range(10):
    time.sleep(5)
    get_data()
    driver.find_element(By.LINK_TEXT,"下一頁").click()
time.sleep(10)
driver.quit()#結(jié)束

同樣尋找下一頁所在位置,如果是這樣寫B(tài)y.LINK_TEXT,click()為點(diǎn)擊的意思

獲取到網(wǎng)頁的element后要進(jìn)行點(diǎn)擊,selenium,python,爬蟲

如果是如下界面,注意ID位置,有ID寫ID,沒有就寫B(tài)y.LINK_TEXT,click()。例如

driver.find_element(By.ID,"su").click()

獲取到網(wǎng)頁的element后要進(jìn)行點(diǎn)擊,selenium,python,爬蟲

.send_key寫內(nèi)容例如,同樣注重ID

driver.find_element(By.ID,"kw").send_keys("白鹿")

?代碼總結(jié)

import time

from selenium import webdriver
from selenium.webdriver.common.by import By
url="https://maoyan.com/board/4"
options=webdriver.ChromeOptions()#調(diào)用方法
options.add_argument("--headless")#無界面模式無頭參數(shù)
driver=webdriver.Chrome(options=options)#讓無參數(shù)調(diào)用

driver.get(url)#打開頁面輸入地址并確認(rèn)
driver.maximize_window()#使頁面放大,最大化頁面窗口
time.sleep(3)#
def get_data():
    item_list=driver.find_elements(By.XPATH,"http://*[@id='app']/div/div/div[1]/dl/dd")#xpath是數(shù)字是div,selector是函數(shù)直接是class里的
    for list in item_list:
        item={}
        info_list=list.text.split("\n")
        item['number']=info_list[0]
        item['name'] = info_list[1]
        item['star'] = info_list[2]
        item['time'] = info_list[3]
        item['score'] = info_list[4]
        print(item)


    pass
#模仿點(diǎn)擊下一頁
for i in range(10):
    time.sleep(5)
    get_data()
    driver.find_element(By.LINK_TEXT,"下一頁").click()
time.sleep(10)
driver.quit()#結(jié)束

如果有錯誤請告訴一下,謝謝!

?

到了這里,關(guān)于selenium爬取網(wǎng)頁內(nèi)容,對網(wǎng)頁內(nèi)容進(jìn)行點(diǎn)擊的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 爬蟲:使用Selenium模擬人工操作及獲取網(wǎng)頁內(nèi)容

    結(jié)合自身經(jīng)驗(yàn)和內(nèi)部資料總結(jié)的Python教程,每天3-5章,最短1個月就能全方位的完成Python的學(xué)習(xí)并進(jìn)行實(shí)戰(zhàn)開發(fā),學(xué)完了定能成為大佬!加油吧!卷起來! 全部文章請訪問專欄:《Python全棧教程(0基礎(chǔ))》 再推薦一下最近熱更的:《大廠測試高頻面試題詳解》 該專欄對近年

    2024年02月13日
    瀏覽(24)
  • 爬蟲(三):使用Selenium模擬人工操作及獲取網(wǎng)頁內(nèi)容

    結(jié)合自身經(jīng)驗(yàn)和內(nèi)部資料總結(jié)的Python教程,每天3-5章,最短1個月就能全方位的完成Python的學(xué)習(xí)并進(jìn)行實(shí)戰(zhàn)開發(fā),學(xué)完了定能成為大佬!加油吧!卷起來! 全部文章請訪問專欄:《Python全棧教程(0基礎(chǔ))》 再推薦一下最近熱更的:《大廠測試高頻面試題詳解》 該專欄對近年

    2024年02月11日
    瀏覽(17)
  • requests或selenium獲取網(wǎng)頁內(nèi)容不全問題(非異步加載)

    最近用python做腳本的時候,發(fā)現(xiàn)了一個問題,就是獲取的網(wǎng)頁并不全??赡茉蛑皇琼撁鎯?nèi)容過大,無法加載全部到內(nèi)存中 下面的解決方法只針對靜態(tài)加載頁面(有的網(wǎng)頁是動態(tài)加載數(shù)據(jù),需要查看對應(yīng)的js請求或者用selenium來獲取就好)。 解決方法為放入文件里,再讀取

    2024年01月25日
    瀏覽(21)
  • 一個月學(xué)通Python(三十四):使用Selenium模擬人工操作及獲取網(wǎng)頁內(nèi)容

    結(jié)合自身經(jīng)驗(yàn)和內(nèi)部資料總結(jié)的Python教程,每天3-5章,最短1個月就能全方位的完成Python的學(xué)習(xí)并進(jìn)行實(shí)戰(zhàn)開發(fā),學(xué)完了定能成為大佬!加油吧!卷起來! 全部文章請訪問專欄:《Python全棧教程(0基礎(chǔ))》 再推薦一下最近熱更的:《大廠測試高頻面試題詳解》 該專欄對近年

    2024年02月13日
    瀏覽(28)
  • scrapy爬蟲爬取多網(wǎng)頁內(nèi)容

    摘要 :此案例是爬取目標(biāo)網(wǎng)站( https://tipdm.com/ )的 新聞中心 板塊的 公司新聞 中所有新聞的標(biāo)題、發(fā)布時間、訪問量和新聞的文本內(nèi)容。 我使用的是 Anaconda prompt 我們使用如下命令創(chuàng)建scrapy項(xiàng)目: scrapy startproject spider_name 爬蟲路徑 spider_name 是項(xiàng)目的名字 爬蟲路徑 就是項(xiàng)目

    2023年04月21日
    瀏覽(29)
  • Python爬取網(wǎng)頁Flex渲染的動態(tài)內(nèi)容

    Python爬取網(wǎng)頁Flex渲染的動態(tài)內(nèi)容

    我最近使用Python爬取網(wǎng)頁內(nèi)容時遇到Flex渲染的動態(tài)頁面,比如下圖的課程目錄標(biāo)題,此時按鼠標(biāo)右鍵,菜單里沒有復(fù)制鏈接的選項(xiàng)。 我的目的是:獲取各個視頻標(biāo)題、鏈接。 按F12進(jìn)入開發(fā)者模式分析網(wǎng)頁,可見有多個flex標(biāo)簽,像這種通過flex動態(tài)渲染的網(wǎng)頁,視頻鏈接隱藏

    2024年02月04日
    瀏覽(74)
  • 【爬蟲】5.5 Selenium 爬取Ajax網(wǎng)頁數(shù)據(jù)

    【爬蟲】5.5 Selenium 爬取Ajax網(wǎng)頁數(shù)據(jù)

    目錄 ? AJAX 簡介 任務(wù)目標(biāo) 創(chuàng)建Ajax網(wǎng)站 創(chuàng)建服務(wù)器程序 編寫爬蟲程序 ????????AJAX(Asynchronous JavaScript And XML,異步 JavaScript 及 XML) Asynchronous 一種創(chuàng)建 交互式 、 快速動態(tài) 網(wǎng)頁應(yīng)用的網(wǎng)頁開發(fā)技術(shù) 通過在后臺與服務(wù)器進(jìn)行少量數(shù)據(jù)交換,無需重新加載整個網(wǎng)頁的情況下

    2024年02月10日
    瀏覽(51)
  • Python實(shí)戰(zhàn):用Selenium爬取網(wǎng)頁數(shù)據(jù)

    網(wǎng)絡(luò)爬蟲是Python編程中一個非常有用的技巧,它可以讓您自動獲取網(wǎng)頁上的數(shù)據(jù)。在本文中,我們將介紹如何使用Selenium庫來爬取網(wǎng)頁數(shù)據(jù),特別是那些需要模擬用戶交互的動態(tài)網(wǎng)頁。 Selenium是一個自動化測試工具,它可以模擬用戶在瀏覽器中的操作,比如點(diǎn)擊按鈕、填寫表

    2024年02月06日
    瀏覽(41)
  • python基于Selenium方法爬取網(wǎng)頁圖片

    python基于Selenium方法爬取網(wǎng)頁圖片

    selenium是一個用于web應(yīng)用程序的自動化測試工具,通過Selenium可以寫出自動化程序,擬人在瀏覽器對網(wǎng)頁進(jìn)行操作。selenium可以編寫出自動化程序,簡化手動保存的部分。 requests庫可以向第三方發(fā)送http請求,是一個用于網(wǎng)絡(luò)請求的模塊,通常以GET方式請求特定資源,請求中不應(yīng)

    2024年02月03日
    瀏覽(26)
  • Python爬蟲|使用Selenium輕松爬取網(wǎng)頁數(shù)據(jù)

    Python爬蟲|使用Selenium輕松爬取網(wǎng)頁數(shù)據(jù)

    1. 什么是selenium? Selenium是一個用于Web應(yīng)用程序自動化測試工具。Selenium測試直接運(yùn)行在瀏覽器中,就像真正的用戶在操作瀏覽器一樣。支持的瀏覽器包括IE,F(xiàn)irefox,Safari,Chrome等。 Selenium可以驅(qū)動瀏覽器自動執(zhí)行自定義好的邏輯代碼,也就是可以通過代碼完全模擬成人類使用

    2024年02月04日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包