需求
selenium爬蟲時需要添加IP代理,而IP代理使用的是賬密認證,這時使用下面普通的添加代理方式是無法獲取到請求頁面文章來源:http://www.zghlxwxcb.cn/news/detail-722911.html
ChromeOption.add_argument("--proxy-server=http://ip:port")
需要使用以下代碼,提供格式為user:password:IP_ADDRESS:port的代理即可文章來源地址http://www.zghlxwxcb.cn/news/detail-722911.html
import os
import zipfile
from selenium import webdriver
manifest_json = """
{
"version": "1.0.0",
"manifest_version": 2,
"name": "Chrome Proxy",
"permissions": [
"proxy",
"tabs",
"unlimitedStorage",
"storage",
"<all_urls>",
"webRequest",
"webRequestBlocking"
],
"background": {
"scripts": ["background.js"]
},
"minimum_chrome_version":"22.0.0"
}
"""
def get_background_js(proxy_user, proxy_pass, proxy_host, proxy_port):
print(proxy_us
到了這里,關于selenium爬蟲時添加賬密IP代理認證的方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!