国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python爬蟲-Selenium

這篇具有很好參考價值的文章主要介紹了python爬蟲-Selenium。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、Selenium簡介

Selenium是一個用于Web應(yīng)用程序測試的工具,Selenium 測試直接運行在瀏覽器中,就像真正的用戶在操作一樣。模擬瀏覽器功能,自動執(zhí)行網(wǎng)頁中的js代碼,實現(xiàn)動態(tài)加載。

二、環(huán)境配置

1、查看本機電腦谷歌瀏覽器的版本。

打開谷歌瀏覽器-->右上角三個點-->幫助-->關(guān)于

python爬蟲-Selenium,python,爬蟲,python,爬蟲,selenium

2、下載谷歌瀏覽器的驅(qū)動

下載地址:http://chromedriver.storage.googleapis.com/index.html

找到對應(yīng)瀏覽器版本驅(qū)動

python爬蟲-Selenium,python,爬蟲,python,爬蟲,selenium文章來源地址http://www.zghlxwxcb.cn/news/detail-701948.html

?3、安裝selenium

pip install selenium

?三、使用

1、舊版本使用

from selenium import webdriver

path = 'chromedriver.exe'
browser = webdriver.Chrome(path)

url = 'https://www.baidu.com'
browser.get(url)

# 元素定位

# 根據(jù)id來找到對象
button = browser.find_element_by_id('su')
print(button)

# 根據(jù)標(biāo)簽屬性的屬性值來獲取對象的
button = browser.find_element_by_name('wd')
print(button)

# 根據(jù)xpath語句來獲取對象
button = browser.find_elements_by_xpath('//input[@id="su"]')
print(button)

# 根據(jù)標(biāo)簽的名字來獲取對象
button = browser.find_elements_by_tag_name('input')
print(button)

# 使用的bs4的語法來獲取對象
button = browser.find_elements_by_css_selector('#su')
print(button)

button = browser.find_element_by_link_text('直播')
print(button)

2、新版本使用

from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By


# driver=webdriver.Chrome(executable_path='chromeselenium/chromedriver')
# 改為
service = Service(executable_path='chromedriver')
driver = webdriver.Chrome(service=service)

# inputTag = driver.find_element_by_id("value")  # 利用ID查找
# 改為:
inputTag = driver.find_element(By.ID, "value")

# inputTags = driver.find_element_by_class_name("value")  # 利用類名查找
# 改為:
inputTag = driver.find_element(By.CLASS_NAME, "value")

# inputTag = driver.find_element_by_name("value")  # 利用name屬性查找
# 改為:
inputTag = driver.find_element(By.NAME, "value")

# inputTag = driver.find_element_by_tag_name("value")  # 利用標(biāo)簽名查找
# 改為:
inputTag = driver.find_element(By.TAG_NAME, "value")

# inputTag = driver.find_element_by_xpath("value")  # 利用xpath查找
# 改為:
inputTag = driver.find_element(By.XPATH, "value")

# inputTag = driver.find_element_by_css_selector("value")  # 利用CSS選擇器查找
# 改為:
inputTag = driver.find_element(By.CSS_SELECTOR, "value")

四、交互案例


from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By

# 創(chuàng)建瀏覽器對象
path = 'chromedriver.exe'
service = Service(executable_path=path)
browser = webdriver.Chrome(service=service)
# url
url = 'https://www.baidu.com'
browser.get(url)

import time
time.sleep(2)

# 獲取文本框的對象
# input = browser.find_element_by_id('kw')
input = browser.find_element(By.ID, 'kw')

# 在文本框中輸入周杰倫
input.send_keys('周杰倫')

time.sleep(2)

# 獲取百度一下的按鈕
# button = browser.find_element_by_id('su')
button = browser.find_element(By.ID, 'su')

# 點擊按鈕
button.click()

time.sleep(2)

# 滑到底部
js_bottom = 'document.documentElement.scrollTop=100000'
browser.execute_script(js_bottom)

time.sleep(2)

# 獲取下一頁的按鈕
# next = browser.find_element_by_xpath('//a[@class="n"]')
next = browser.find_element(By.XPATH, '//a[@class="n"]')

# 點擊下一頁
next.click()

time.sleep(2)

# 回到上一頁
browser.back()

time.sleep(2)

# 回去
browser.forward()

time.sleep(3)

# 退出
browser.quit()

到了這里,關(guān)于python爬蟲-Selenium的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • python爬蟲-Selenium

    python爬蟲-Selenium

    Selenium是一個用于Web應(yīng)用程序測試的工具,Selenium 測試直接運行在瀏覽器中,就像真正的用戶在操作一樣。模擬瀏覽器功能,自動執(zhí)行網(wǎng)頁中的js代碼,實現(xiàn)動態(tài)加載。 打開谷歌瀏覽器--右上角三個點--幫助--關(guān)于 下載地址:http://chromedriver.storage.googleapis.com/index.html 找到對應(yīng)瀏

    2024年02月09日
    瀏覽(24)
  • python 配置 selenium爬蟲

    python 配置 selenium爬蟲

    這兩天學(xué)習(xí)Python爬蟲,記錄一下這個折磨我一兩個小時的配置。 值得注意的是,下載的chromedriver.exe文件必須放在和運行的.py文件同一目錄下,否則就會報錯: selenium.common.exceptions.WebDriverException: Message: ‘chromedriver’ executable needs to be in PATH. Please see https://chromedriver.chromium.or

    2024年02月03日
    瀏覽(24)
  • python爬蟲(selenium)

    目錄 準(zhǔn)備 體驗示例 創(chuàng)建瀏覽器驅(qū)動對象 訪問頁面 查找節(jié)點 節(jié)點交互 切換Frame 延時等待 前進和后退 Cookies 選項卡管理 準(zhǔn)備 (1)瀏覽器驅(qū)動 :http://chromedriver.storage.googleapis.com/index.html (2)selenium第三方庫 :pip install selenium 注意: 瀏覽器驅(qū)動需要根據(jù)自身瀏覽器版本去下

    2024年02月03日
    瀏覽(28)
  • Python爬蟲基礎(chǔ)之 Selenium

    Python爬蟲基礎(chǔ)之 Selenium

    1.1什么是Selenium? Selenium是一個瀏覽器自動化測試框架,是一款用于Web應(yīng)用程序測試的工具??蚣艿讓邮褂肑avaScript模擬真實用戶對瀏覽器進行操作。測試腳本執(zhí)行時,瀏覽器自動按照腳本代碼做出點擊,輸入,打開,驗證等操作,就像真實用戶所做的一樣,從終端用戶的角度

    2024年01月23日
    瀏覽(21)
  • python爬蟲----selenium特征去除

    文件下載:https://download.csdn.net/download/Natalie_Lv/86723031

    2024年02月15日
    瀏覽(22)
  • Python爬蟲——selenium_交互

    交互: 點擊:button.click() 輸入:inputs.send_keys() 后退操作:browser.back() 前進操作:browser.forword() 模擬js滾動:browser. 獲取網(wǎng)頁代碼:page_source 退出: browser.quit() 完整代碼:

    2024年02月09日
    瀏覽(12)
  • python尚硅谷爬蟲Selenium

    python尚硅谷爬蟲Selenium

    一、Selenium 1、什么是selenium (1)Selenium是一個用于Web應(yīng)用程序測試的工具。 (2)Selenium 測試直接運行在瀏覽器中,就像真正的用戶在操作一樣。 (3)支持通過各種driver(FirfoxDriver,IternetExplorerDriver,OperaDriver,ChromeDriver)驅(qū)動真實瀏覽器完成測試。 (4)selenium也是支持無

    2024年02月07日
    瀏覽(19)
  • Python爬蟲利器之Selenium

    Python Selenium是一個用于Web瀏覽器自動化的工具套件,主要用來模擬用戶在瀏覽器中的行為,并且能夠?qū)g覽器進行自動化操作。下面是Python Selenium的詳解,主要包括以下內(nèi)容: 1.安裝Python和Selenium 安裝Python非常簡單,只需要到官方網(wǎng)站下載安裝包進行安裝即可。安裝Selenium也

    2024年02月06日
    瀏覽(20)
  • Python Selenium爬蟲實戰(zhàn)應(yīng)用

    Python Selenium爬蟲實戰(zhàn)應(yīng)用

    本節(jié)講解 Python Selenium 爬蟲實戰(zhàn)案例,通過對實戰(zhàn)案例的講解讓您進一步認識 Selenium 框架。 實戰(zhàn)案例目標(biāo):抓取京東商城(https://www.jd.com/)商品名稱、商品價格、評論數(shù)量,以及商鋪名稱。比如輸入搜索“Python書籍”,則抓取如下數(shù)據(jù): Selenium 框架的學(xué)習(xí)重點在于定位元素

    2024年01月20日
    瀏覽(21)
  • Python Selenium 爬蟲淘寶案例

    Python Selenium 爬蟲淘寶案例

    在前一章中,我們已經(jīng)成功嘗試分析 Ajax 來抓取相關(guān)數(shù)據(jù),但是并不是所有頁面都可以通過分析 Ajax 來完成抓取。比如,淘寶,它的整個頁面數(shù)據(jù)確實也是通過 Ajax 獲取的,但是這些 Ajax 接口參數(shù)比較復(fù)雜,可能會包含加密密鑰等,所以如果想自己構(gòu)造 Ajax 參數(shù),還是比較困

    2024年02月20日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包