国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python requests爬蟲返回403錯誤?加了所有特征的請求頭+代理也解決不了的問題處理

這篇具有很好參考價值的文章主要介紹了python requests爬蟲返回403錯誤?加了所有特征的請求頭+代理也解決不了的問題處理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、問題分析

【疑惑】:使用python的requests庫發(fā)起get或post請求返回403代碼錯誤,使用postman發(fā)起請求發(fā)現(xiàn)狀態(tài)碼<200>竟然成功了。這是什么原因?首先排除ip問題,ip有問題的話postman也訪問不了。難道是headers出現(xiàn)了問題嗎,通過對比發(fā)現(xiàn)也不是headers的問題。那就奇了怪了?

【解疑】:其實遇到這種情況大概率是遇到了“原生模擬瀏覽器 TLS/JA3 指紋的驗證”,瀏覽器和postman都有自帶指紋驗證,而唯獨requests庫沒有。這就讓反爬有了區(qū)分人為和爬蟲的突破口。文章來源地址http://www.zghlxwxcb.cn/news/detail-606665.html

二、問題解決

1、使用 pyhttpx 庫(推薦)

1.1、安裝

pip install pyhttpx

1.2、代碼示例

import pyhttpx

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36",
}
session = pyhttpx.HttpSession()
res = session.get(url='https://www.baidu.com/',headers=headers)
print(res.text)

2、使用 curl_cffi 庫(用得少)

2.1、安裝

pip install curl_cffi

2.2、代碼示例

from curl_cffi import requests
res = requests.get(url='https://www.baidu.com/',impersonate="chrome101")
print(res.text)

3、使用httpx庫(極力推薦)

3.1、安裝

pip install httpx

3.2、代碼示例

import httpx

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36",
}

res = httpx.get(url='https://www.baidu.com/', headers=headers, timeout=10, verify=False)
print(res.text)

到了這里,關于python requests爬蟲返回403錯誤?加了所有特征的請求頭+代理也解決不了的問題處理的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【解決問題】413錯誤 413 Request Entity Too Large 接口返回413 報413nginx

    【解決問題】413錯誤 413 Request Entity Too Large 接口返回413 報413nginx

    博客背景:JAVA項目,前端想弄個便捷富文本,直接很多圖片轉base64編碼直接存庫了。字段為longtext類型。 這種問題通常是在使用http請求對象太大的時候。。 1、如果是超長的話varchar類型改成longtext類型。 2、依舊懷疑超長的話,搜了一下longtext的最大長度 mysql里3種text類型的最

    2024年02月07日
    瀏覽(22)
  • 上傳oss文件是出現(xiàn) Unable to execute HTTP request: 返回結果無效,無法解析 錯誤解決辦法

    上傳oss文件是出現(xiàn) Unable to execute HTTP request: 返回結果無效,無法解析 錯誤解決辦法

    項目中上傳圖片的時候有了一下錯誤: 那么這個錯誤我百度了一下這個錯誤 那個如果是關于OSS的錯誤,找不到的話可以查看一下阿里云OSS的官方文檔查找一下 阿里云OSS文檔 ? ? ?查看這些解決方案。我看這個發(fā)現(xiàn)我的都沒問題,然后最后發(fā)現(xiàn)這個項目是我直接拉下來直接用

    2024年02月12日
    瀏覽(29)
  • 特征點匹配返回匹配坐標點python

    特征點匹配返回匹配坐標點python

    ?

    2024年02月14日
    瀏覽(13)
  • python爬蟲—requests

    python爬蟲—requests

    類型 : models.Response r.text : 獲取網站源碼 r.encoding :訪問或定制編碼方式 r.url :獲取請求的 url r.content :響應的字節(jié)類型 r.status_code :響應的狀態(tài)碼 r.headers :響應的頭信息 找登錄接口 ?找參數(shù)的值 python代碼 登錄超級鷹官網:超級鷹驗證碼識別-專業(yè)的驗證碼云端識別服務

    2024年02月10日
    瀏覽(19)
  • python-網絡爬蟲.Request

    python-網絡爬蟲.Request

    Request python中requests庫使用方法詳解: 一簡介: ????????Requests 是Python語言編寫,基于urllib, ????????采用Apache2 Licensed開源協(xié)議的 HTTP 庫。 ????????與urllib相比,Requests更加方便,處理URL資源特別流暢。 ????????可以節(jié)約我們大量的工作,建議爬蟲使用Requests庫

    2024年02月14日
    瀏覽(27)
  • 【Python爬蟲】requests庫

    【Python爬蟲】requests庫

    1.requests庫的介紹 ? requests 是 Python 語言編寫,基于 urllib3 ,采用 Apache2 Licensed 開源協(xié)議的HTTP庫。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測試需求。是 Python 實現(xiàn)的簡單易用的 HTTP 庫。 Requests 中文文檔:http://docs.pythonrequests.org/zh_CN/latest/index.html ? 解決

    2024年02月16日
    瀏覽(22)
  • 【python爬蟲】設計自己的爬蟲 1. request封裝

    通過requests.session().request 封裝request方法 考慮到請求HTTP/2.0 同時封裝httpx 來處理HTTP/2.0的請求 通過is_http2來區(qū)分 測試代碼如下

    2024年02月08日
    瀏覽(24)
  • python爬蟲----selenium特征去除

    文件下載:https://download.csdn.net/download/Natalie_Lv/86723031

    2024年02月15日
    瀏覽(22)
  • Python爬蟲之requests模塊

    requests文檔http://docs.python-requests.org/zh_CN/latest/index.html 1、requests模塊的作用: 發(fā)送http請求,獲取響應數(shù)據 2、requests模塊是一個第三方模塊,需要在你的python(虛擬)環(huán)境中額外安裝 pip/pip3 install requests 3、requests模塊發(fā)送get請求 需求:通過requests向百度首頁發(fā)送請求,獲取該頁面

    2024年02月09日
    瀏覽(18)
  • python爬蟲——request模塊講解,Python詳解

    python爬蟲——request模塊講解,Python詳解

    對于GET方式的請求,瀏覽器會把http header和data一并發(fā)送出去,服務器響應200(返回數(shù)據); 而對于POST, 瀏覽器先發(fā)送header,服務器響應100 continue,瀏覽器再發(fā)送data,服務器響應200 ok(返回數(shù)據)。 (二)http常見請求參數(shù) url:請求url地址 headers:請求頭 **data:發(fā)送編碼為表

    2024年04月26日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包