国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python爬蟲02-requests庫使用01

這篇具有很好參考價值的文章主要介紹了python爬蟲02-requests庫使用01。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

1、requests庫簡介

2、requests庫-安裝

3、requests庫-使用

3.1 導(dǎo)入模塊

3.2 發(fā)送請求

3.3 requests庫常用方法

3.4 訪問控制參數(shù)kwargs

?4、請求返回對象 Response

5、requests訪問時的可能異常

1、requests庫簡介

  • requests是一個http的第三方請求庫,發(fā)送http請求,并獲取響應(yīng)結(jié)果;

2、requests庫-安裝

pip install requests
#使用清華園鏡像安裝:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests

3、requests庫-使用

3.1 導(dǎo)入模塊

import requests

3.2 發(fā)送請求
import requests  # 安裝好requests后,導(dǎo)入模塊
url = 'https://www.baidu.com'
headers = {'content': 'text/html;charset=utf-8'}
resp = requests.get(url, headers)
print(resp)  # <Response [200]>  代表OK
resp.encoding = 'utf-8' # 定義響應(yīng)對象的編碼
print(resp.text)# 打印網(wǎng)頁數(shù)據(jù)
resp.close()  # 爬完數(shù)據(jù),請務(wù)必要關(guān)閉
3.3 requests庫常用方法
方法 作用
requests.request(method,url,**kwargs)

創(chuàng)建和發(fā)送一個請求,通用方案

requests.get() 發(fā)送get請求,對應(yīng)http的get方法
requests.post() 發(fā)送post請求,對應(yīng)http的post方法
requests.head()???????? 獲取網(wǎng)頁的頭信息,對應(yīng)http的HEAD方法
3.4 訪問控制參數(shù)kwargs

resp = requests.request('get',url, **kwargs)

kwargs參數(shù) 作用
params 字典類型,作為參數(shù)增加到url ; get方法參數(shù)傳遞
data

字典 / 字節(jié)序列 / 文件對象,作為Requests對象的內(nèi)容;

post方法參數(shù)傳遞;

json

json格式的數(shù)據(jù),作為Requests的內(nèi)容;

前后端分離以json參數(shù)上傳數(shù)據(jù);

headers???????????????? 字典類型,HTTP定制頭,例如設(shè)置User-Agent;
cookies???????? 字典或者CookieJar,Request中的cookie
auth 元組,支持HTTP認證功能;
files 傳輸文件,字典類型; key:參數(shù)名,value:文件對象;
timeout 設(shè)定超時事件,單位為秒;
proxies 字典類型,設(shè)定訪問代理服務(wù)器;
allow_redirects 是否允許重定向,默認:True;
stream

是否以字節(jié)流形式獲取內(nèi)容并下載;

下載文件時候使用;

verify 是否驗證SSL證書,默認為True;
cert 本地SSL證書路徑;

?4、請求返回對象 Response

resp = requests.request('get',url, **kwargs);

?resp:響應(yīng)對象,一個包含服務(wù)器資源的響應(yīng)對象;

屬性 作用
resp.request 獲取Http請求對象? ;返回: <PreparedRequest [GET]>
resp.status_code http請求返回狀態(tài)碼 ; 200表示成功;
resp.text http響應(yīng)的字符串形式;? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
resp.content http響應(yīng)的二進制形式;例如:圖片,音頻,視頻等;
resp.encoding 從http的header中響應(yīng)編碼方法;
resp.apparent_encoding 從內(nèi)容中分析響應(yīng)內(nèi)容編碼方式;(備選編碼方式)
方法 作用
resp.raise_for_status() 該方法內(nèi)部判斷resp.status_code == 200,不等則拋異常
resp.json()

得到對應(yīng)的json格式數(shù)據(jù);?

補充:Python有json模塊,可以實現(xiàn)字符串和json的轉(zhuǎn)換;

注意:★★★★★

  • encoding屬性: 如果header中不存在charset,則認為是ISO-8859-1編碼;
  • text屬性:根據(jù)encoding屬性的編碼方式顯示網(wǎng)頁內(nèi)容;
  • 當(dāng)編碼方式不一致,可能會出現(xiàn)亂碼;
  • apparent_encoding屬性:是根據(jù)網(wǎng)頁內(nèi)容分析出的編碼方式;看做encoding屬性的備選;

5、requests訪問時的可能異常

異常 說明
requests.ConnectionError 網(wǎng)絡(luò)連接異常,如:拒絕連接,DNS查詢失敗等
requests.HTTPError???????? http錯誤異常
requests.URLRequired URL缺失異常
requests.ToolManyRedirects 超過最大重定向次數(shù),產(chǎn)生重定向異常
requests.ConnectTimeout 連接遠程服務(wù)器超時異常
requests.Timeout 請求URL超時,產(chǎn)生超時異常

response對象提供了一個raise_for_status()方法,該方法內(nèi)部對status_code進行判斷,如果狀態(tài)碼不是200 ,則拋出HttpError異常;文章來源地址http://www.zghlxwxcb.cn/news/detail-808324.html

到了這里,關(guān)于python爬蟲02-requests庫使用01的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【Python爬蟲開發(fā)基礎(chǔ)?】requests庫概述(GET和POST請求)

    ?? 個人主頁 :為夢而生~ 關(guān)注我一起學(xué)習(xí)吧! ?? 專欄 :python網(wǎng)絡(luò)爬蟲從基礎(chǔ)到實戰(zhàn) 歡迎訂閱!后面的內(nèi)容會越來越有意思~ ?? 往期推薦 : ??前面比較重要的 基礎(chǔ)內(nèi)容 : 【Python爬蟲開發(fā)基礎(chǔ)⑥】計算機網(wǎng)絡(luò)基礎(chǔ)(Web和HTTP) 【Python爬蟲開發(fā)基礎(chǔ)⑦】urllib庫的基本使用

    2024年02月12日
    瀏覽(18)
  • python爬蟲request和BeautifulSoup使用

    python爬蟲request和BeautifulSoup使用

    1.安裝request 2.引入庫 3.編寫代碼 發(fā)送請求 我們通過以下代碼可以打開豆瓣top250的網(wǎng)站 但因為該網(wǎng)站加入了反爬機制,所以我們需要在我們的請求報文的頭部加入User-Agent的信息 User-Agent可以通過訪問網(wǎng)站時按f12查看獲取 我們可以通過response的ok屬性判斷是否請求成功 此時如果

    2024年02月08日
    瀏覽(21)
  • Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁內(nèi)容

    Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁內(nèi)容

    了解如何使用Python中的requests模塊進行網(wǎng)頁內(nèi)容獲取,包括獲取網(wǎng)頁步驟、代碼實現(xiàn)、狀態(tài)碼查看、提取信息等。

    2024年02月22日
    瀏覽(27)
  • 【100天精通python】Day42:python網(wǎng)絡(luò)爬蟲開發(fā)_HTTP請求庫requests 常用語法與實戰(zhàn)

    目錄 1 HTTP協(xié)議 2??HTTP與HTTPS 3 HTTP請求過程 ?3.1 HTTP請求過程 3.2 GET請求與POST請求

    2024年02月12日
    瀏覽(26)
  • 【Python爬蟲】requests庫get和post方法使用

    requests庫是一個常用于http請求的模塊,性質(zhì)是和urllib,urllib2是一樣的,作用就是向指定目標網(wǎng)站的后臺服務(wù)器發(fā)起請求,并接收服務(wù)器返回的響應(yīng)內(nèi)容。 1. 安裝requests庫 使用pip install requests安裝 如果再使用pip安裝python模塊出現(xiàn)timeout超時異常,可使用國內(nèi)豆瓣源進行安裝。

    2024年02月22日
    瀏覽(17)
  • Python爬蟲教程:使用requests、wget和urllib3下載圖片和PDF文件

    Python爬蟲教程:使用requests、wget和urllib3下載圖片和PDF文件

    本文介紹了如何使用Python中的requests、wget和urllib3庫下載圖片和PDF文件,通過示例代碼演示了如何通過Selenium定位文件地址后,使用這三種方法進行文件下載操作。

    2024年02月09日
    瀏覽(26)
  • 網(wǎng)絡(luò)爬蟲開發(fā)(五)01-爬蟲高級——Selenium簡介 & 根據(jù)平臺選擇安裝selenium-webdriver包 & Selenium的基本使用

    網(wǎng)絡(luò)爬蟲開發(fā)(五)01-爬蟲高級——Selenium簡介 & 根據(jù)平臺選擇安裝selenium-webdriver包 & Selenium的基本使用

    網(wǎng)絡(luò)爬蟲開發(fā)(五)01-爬蟲高級——Selenium簡介 根據(jù)平臺選擇安裝selenium-webdriver包 Selenium的基本使用 學(xué)習(xí)目標: 使用Selenium庫爬取前端渲染的網(wǎng)頁 反反爬蟲技術(shù) 官方原文介紹: Selenium automates browsers . That’s it! What you do with that power is entirely up to you. Primarily, it is for automating web

    2024年01月24日
    瀏覽(22)
  • python 爬蟲熱身篇 使用 requests 庫通過 HTTP 讀取網(wǎng)絡(luò)數(shù)據(jù),使用 pandas 讀取網(wǎng)頁上的表格,使用 Selenium 模擬瀏覽器操作

    python 爬蟲熱身篇 使用 requests 庫通過 HTTP 讀取網(wǎng)絡(luò)數(shù)據(jù),使用 pandas 讀取網(wǎng)頁上的表格,使用 Selenium 模擬瀏覽器操作

    在過去,收集數(shù)據(jù)是一項繁瑣的工作,有時非常昂貴。機器學(xué)習(xí)項目不能沒有數(shù)據(jù)。幸運的是,我們現(xiàn)在在網(wǎng)絡(luò)上有很多數(shù)據(jù)可供我們使用。我們可以從 Web 復(fù)制數(shù)據(jù)來創(chuàng)建數(shù)據(jù)集。我們可以手動下載文件并將其保存到磁盤。但是,我們可以通過自動化數(shù)據(jù)收集來更有效地做

    2023年04月08日
    瀏覽(99)
  • python爬蟲—requests

    python爬蟲—requests

    類型 : models.Response r.text : 獲取網(wǎng)站源碼 r.encoding :訪問或定制編碼方式 r.url :獲取請求的 url r.content :響應(yīng)的字節(jié)類型 r.status_code :響應(yīng)的狀態(tài)碼 r.headers :響應(yīng)的頭信息 找登錄接口 ?找參數(shù)的值 python代碼 登錄超級鷹官網(wǎng):超級鷹驗證碼識別-專業(yè)的驗證碼云端識別服務(wù)

    2024年02月10日
    瀏覽(19)
  • python-網(wǎng)絡(luò)爬蟲.Request

    python-網(wǎng)絡(luò)爬蟲.Request

    Request python中requests庫使用方法詳解: 一簡介: ????????Requests 是Python語言編寫,基于urllib, ????????采用Apache2 Licensed開源協(xié)議的 HTTP 庫。 ????????與urllib相比,Requests更加方便,處理URL資源特別流暢。 ????????可以節(jié)約我們大量的工作,建議爬蟲使用Requests庫

    2024年02月14日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包