国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Windows使用selenium操作瀏覽器爬蟲

這篇具有很好參考價(jià)值的文章主要介紹了Windows使用selenium操作瀏覽器爬蟲。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

以前的大部分程序都是操作Chrome,很少有操作Edge,現(xiàn)在以Edge為例。

Selenium本身是無(wú)法直接控制瀏覽器的,不同的瀏覽器需要不同的驅(qū)動(dòng)程序,Google Chrome需要安裝ChromeDriver、Edge需要安裝Microsoft Edge WebDriver,其他瀏覽器也需要安裝相應(yīng)的驅(qū)動(dòng)。

edge://version/

edge如何selenium爬蟲,selenium,測(cè)試工具

https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/#downloads
edge如何selenium爬蟲,selenium,測(cè)試工具

edge如何selenium爬蟲,selenium,測(cè)試工具

PyCharm未更新環(huán)境變量時(shí),可以新打開CMD并切換到虛擬環(huán)境運(yùn)行。

conda install selenium -y
# -*- coding: utf-8 -*-

'''
@Author   :   Corley Tang
@contact  :   cutercorleytd@gmail.com
@Github   :   https://github.com/corleytd
@Time     :   2023-12-12 23:24
@Project  :   Hands-on Crawler with Python-edge_with_selenium
使用selenium操作edge訪問(wèn)百度
'''

# 導(dǎo)入所需的庫(kù)
import time

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait

url = 'https://www.baidu.com/'
browser = webdriver.Edge()  # 定義Edge瀏覽器,默認(rèn)會(huì)加載當(dāng)前Python虛擬環(huán)境目錄下的Scripts目錄下的msedgedriver.exe,也可以通過(guò)executable_path參數(shù)指定路徑
browser.maximize_window()  # 最大化窗口

try:
    browser.get(url)
    input_box = browser.find_element(By.ID, 'kw')  # 定位網(wǎng)頁(yè)中id為kw的元素,即百度搜索輸入框
    input_box.clear()  # 清空輸入框
    input_box.send_keys('Python')  # 輸入搜索關(guān)鍵詞
    input_box.send_keys(Keys.ENTER)  # 按下回車鍵
    WebDriverWait(browser, 10).until(EC.presence_of_element_located((By.ID, 'content_left')))  # 等待網(wǎng)頁(yè)加載完成
    print(browser.current_url)
    print(browser.get_cookies())
    print(browser.title)
    print(len(browser.page_source))
finally:
    time.sleep(5)
    browser.close()

edge如何selenium爬蟲,selenium,測(cè)試工具文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-766685.html

到了這里,關(guān)于Windows使用selenium操作瀏覽器爬蟲的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 從零開始學(xué)習(xí)Python控制開源Selenium庫(kù)自動(dòng)化瀏覽器操作,實(shí)現(xiàn)爬蟲,自動(dòng)化測(cè)試等功能(一)

    從零開始學(xué)習(xí)Python控制開源Selenium庫(kù)自動(dòng)化瀏覽器操作,實(shí)現(xiàn)爬蟲,自動(dòng)化測(cè)試等功能(一)

    介紹Selenium : Selenium是一個(gè)用于自動(dòng)化瀏覽器操作的開源工具和庫(kù)。它最初是為Web應(yīng)用測(cè)試而創(chuàng)建的,但隨著時(shí)間的推移,它被廣泛用于Web數(shù)據(jù)抓取和網(wǎng)頁(yè)自動(dòng)化操作。Selenium 支持多種編程語(yǔ)言,包括Python,Java,C#等。 這里我們主要實(shí)現(xiàn)采用Python的方式 Selenium 的主要特點(diǎn)和

    2024年01月22日
    瀏覽(92)
  • python使用selenium操作瀏覽器的教程

    python使用selenium操作瀏覽器的教程

    重復(fù)的操作令手工測(cè)試苦不堪言,于是自動(dòng)化測(cè)試出現(xiàn)了!作為web應(yīng)用里最出名的自動(dòng)化測(cè)試工具,selenium讓web應(yīng)用的測(cè)試輕松了很多。今天我們就來(lái)簡(jiǎn)單的介紹一下一些簡(jiǎn)單的selenium瀏覽器操作。接下來(lái)我們就來(lái)看看python怎么操作瀏覽器的吧! 我們使用selenium進(jìn)行自動(dòng)化測(cè)試

    2024年02月05日
    瀏覽(96)
  • Python使用Selenium模擬瀏覽器自動(dòng)操作功能

    Python使用Selenium模擬瀏覽器自動(dòng)操作功能

    概述 在進(jìn)行網(wǎng)站爬取數(shù)據(jù)的時(shí)候,會(huì)發(fā)現(xiàn)很多網(wǎng)站都進(jìn)行了反爬蟲的處理,如JS加密,Ajax加密,反Debug等方法,通過(guò)請(qǐng)求獲取數(shù)據(jù)和頁(yè)面展示的內(nèi)容完全不同,這時(shí)候就用到Selenium技術(shù),來(lái)模擬瀏覽器的操作,然后獲取數(shù)據(jù)。本文以一個(gè)簡(jiǎn)單的小例子,簡(jiǎn)述Python搭配Tkinter和

    2024年01月17日
    瀏覽(91)
  • 使用Selenium和ChromeDriver操作瀏覽器獲取動(dòng)態(tài)數(shù)據(jù)

    在Web開發(fā)中,有時(shí)需要爬取動(dòng)態(tài)生成的數(shù)據(jù)。這些數(shù)據(jù)無(wú)法通過(guò)傳統(tǒng)的爬蟲工具獲取,因?yàn)樗鼈冃枰跒g覽器中執(zhí)行JavaScript代碼才能生成。在這種情況下,可以使用Selenium和ChromeDriver來(lái)模擬人類用戶的行為,操作瀏覽器并獲取動(dòng)態(tài)數(shù)據(jù)。 為了使用Selenium和ChromeDriver操作瀏覽器

    2024年02月09日
    瀏覽(96)
  • python爬蟲進(jìn)階篇:Scrapy中使用Selenium模擬Firefox火狐瀏覽器爬取網(wǎng)頁(yè)信息

    接著上一篇的筆記,Scrapy爬取普通無(wú)反爬、靜態(tài)頁(yè)面的網(wǎng)頁(yè)時(shí)可以順利爬取我們要的信息。但是大部分情況下我們要的數(shù)據(jù)所在的網(wǎng)頁(yè)它是動(dòng)態(tài)加載出來(lái)的(ajax請(qǐng)求后傳回前端頁(yè)面渲染、js調(diào)用function等)。這種情況下需要使用selenium進(jìn)行模擬人工操作瀏覽器行為,實(shí)現(xiàn)自動(dòng)化

    2024年02月04日
    瀏覽(101)
  • 爬蟲進(jìn)階之selenium模擬瀏覽器

    爬蟲進(jìn)階之selenium模擬瀏覽器

    Selenium是一個(gè)用于自動(dòng)化瀏覽器操作的工具,通常用于Web應(yīng)用測(cè)試。然而,它也可以用作爬蟲,通過(guò)模擬用戶在瀏覽器中的操作來(lái)提取網(wǎng)頁(yè)數(shù)據(jù)。以下是有關(guān)Selenium爬蟲的一些基本介紹: 瀏覽器自動(dòng)化: Selenium允許你通過(guò)編程方式控制瀏覽器的行為,包括打開網(wǎng)頁(yè)、點(diǎn)擊按鈕

    2024年01月20日
    瀏覽(104)
  • java爬蟲遇到網(wǎng)頁(yè)驗(yàn)證碼怎么辦?(使用selenium模擬瀏覽器并用python腳本解析驗(yàn)證碼圖片)

    ????????筆者這幾天在爬取數(shù)據(jù)的時(shí)候遇到了一個(gè)很鬧心的問(wèn)題,就是在我爬取數(shù)據(jù)的時(shí)候遇到了驗(yàn)證碼,而這個(gè)驗(yàn)證碼又是動(dòng)態(tài)生成的,嘗試了很多方法都沒(méi)能繞開這個(gè)驗(yàn)證碼問(wèn)題。 ? ? ? ? 我的解決方案是:使用selenium模擬瀏覽器行為,獲取到動(dòng)態(tài)生成的驗(yàn)證碼后用

    2024年02月09日
    瀏覽(175)
  • Python爬蟲入門:使用selenium庫(kù),webdriver庫(kù)模擬瀏覽器爬蟲,模擬用戶爬蟲,爬取網(wǎng)站內(nèi)文章數(shù)據(jù),循環(huán)爬取網(wǎng)站全部數(shù)據(jù)。

    Python爬蟲入門:使用selenium庫(kù),webdriver庫(kù)模擬瀏覽器爬蟲,模擬用戶爬蟲,爬取網(wǎng)站內(nèi)文章數(shù)據(jù),循環(huán)爬取網(wǎng)站全部數(shù)據(jù)。

    *嚴(yán)正聲明:本文僅限于技術(shù)討論與分享,嚴(yán)禁用于非法途徑。 目錄 準(zhǔn)備工具: 思路: 具體操作: 調(diào)用需要的庫(kù): 啟動(dòng)瀏覽器驅(qū)動(dòng): 代碼主體: ?完整代碼(解析注釋): Python環(huán)境; 安裝selenium庫(kù); Python編輯器; 待爬取的網(wǎng)站; 安裝好的瀏覽器; 與瀏覽器版本相對(duì)應(yīng)的

    2023年04月24日
    瀏覽(103)
  • python爬蟲之selenium模擬瀏覽器

    python爬蟲之selenium模擬瀏覽器

    之前在異步加載(AJAX)網(wǎng)頁(yè)爬蟲的時(shí)候提到過(guò),爬取這種ajax技術(shù)的網(wǎng)頁(yè)有兩種辦法:一種就是通過(guò)瀏覽器審查元素找到包含所需信息網(wǎng)頁(yè)的真實(shí)地址,另一種就是通過(guò)selenium模擬瀏覽器的方法[1]。當(dāng)時(shí)爬的是豆瓣,比較容易分析出所需信息的真實(shí)地址,不過(guò)一般大點(diǎn)的網(wǎng)站像

    2024年02月03日
    瀏覽(91)
  • Python 和 Selenium 的瀏覽器爬蟲

    Python 和 Selenium 的瀏覽器爬蟲

    Selenium?是一款強(qiáng)大的基于瀏覽器的開源自動(dòng)化測(cè)試工具,最初由 Jason Huggins 于 2004 年在 ThoughtWorks 發(fā)起,它提供了一套簡(jiǎn)單易用的 API,模擬瀏覽器的各種操作,方便各種 Web 應(yīng)用的自動(dòng)化測(cè)試。 它的取名很有意思,因?yàn)楫?dāng)時(shí)最流行的一款自動(dòng)化測(cè)試工具叫做 QTP,是由 Mercur

    2024年02月08日
    瀏覽(157)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包