国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python爬蟲03-request庫(kù)使用02

這篇具有很好參考價(jià)值的文章主要介紹了python爬蟲03-request庫(kù)使用02。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

??????1、requests庫(kù)使用的通用框架:

2、requests下載圖片

3、發(fā)送get / post 請(qǐng)求傳遞參數(shù):?

4、requests庫(kù)下載視頻,并顯示進(jìn)度

5、requests.session進(jìn)行登錄保持

5.1 requests.session的作用和使用場(chǎng)景

5.2 使用方法


基礎(chǔ)鏈接 :?01-python-request庫(kù)使用01

1、requests庫(kù)使用的通用框架:

import requests
# 定義一個(gè)通用方法:
def get_text_from_web(url):
    headers = {
        # 自己通過瀏覽器查找替換即可
        "user-Agent":'Mozilla/5.0 (Wi、****** Safari/537.36'
    }
    try:
        resp = requests.get(url,headers=headers,timeout=10)
        resp.raise_for_status()
        resp.encoding = resp.apparent_encoding
        return resp.text
    except Exception as e:
        print("產(chǎn)生異常",e)

# 調(diào)用函數(shù):
res = get_text_from_web("https://api.xygeng.cn/one")
print(res)

2、requests下載圖片

# requests下載圖片.py --- 一次讀取,一次寫出
# 圖片地址:
import requests
img_url1 = "https://tppic.chinaz.net/files/default/imgs/2023-10-27/4d3b05335f9a07d4_big.jpg";
img_url2 = "https://tppic.chinaz.net/files/default/imgs/2023-07-24/07d49ae71be62266_big.jpg"
def downLoad_img(url):
    fileName = url.split('/')[-1]  # 獲取文件名字
    headers = {
        'user-Agent': "Mozill ***  Chrome/120.0.0.0 Safari/537.36"
    }
    try:
        resp = requests.get(url, headers=headers)
        resp.raise_for_status()  # 如果響應(yīng)不是200 拋異常
        with open(fileName, 'wb') as fW:
            fW.write(resp.content)
    except Exception as e:
        print('拋出異常:', e)
    finally:
        print("下載完畢:",fileName)

# 下載兩張圖片:
downLoad_img(img_url1)
downLoad_img(img_url2)
print("執(zhí)行完畢")

3、發(fā)送get / post 請(qǐng)求傳遞參數(shù):?

get請(qǐng)求攜帶數(shù)據(jù)使用params參數(shù)配置:

# 06-requests帶參數(shù).py --- 發(fā)送get請(qǐng)求
import requests
url = ""
headers={}
params = {}  #使用params傳遞參數(shù)
requests.get(url,headers= "",params=params)

post請(qǐng)求攜帶數(shù)據(jù)使用data參數(shù)配置:

# 06-requests帶參數(shù).py --- 發(fā)送post請(qǐng)求
import requests
url = ""
headers = {}
data = {}   # 使用data參數(shù)傳遞字典
requests.post(url, headers="", data=data)

4、requests庫(kù)下載視頻,并顯示進(jìn)度

# time: 2024/1/12 15:01
# author: keep_di
# 07-requests下載視頻.py
# 視頻地址: 使用圖片測(cè)試, 注意修改User-Agent 再運(yùn)行!
import requests
urlVideo = 'https://tppic.chinaz.net/files/default/imgs/2023-07-24/07d49ae71be62266_big.jpg'
def downVideo(url, ):
    headers = {
        "User-Agent": 'Mozilla/ **** Safari/537.36'}
    fileName = url.split('/')[-1]
    try:
        respVideo = requests.get(url, headers=headers, stream=True)
        respVideo.raise_for_status()
        contentLength = int(respVideo.headers['content-length'])
        print(f'視頻的字節(jié)為{contentLength}')
        buffer_size = 1024 * 8  # 緩存大小,每次讀取的字節(jié)數(shù)
        size_downloaded = 0
        with open(fileName, 'wb') as fp:
            for data in respVideo.iter_content(buffer_size):
                fp.write(data)  # 向文件中寫入數(shù)據(jù)
                size_downloaded += len(data)  # 統(tǒng)計(jì)已下載數(shù)據(jù)大小
                # 格式化顯示小數(shù)點(diǎn)后兩位
                print(f'當(dāng)前的下載進(jìn)度:{size_downloaded / contentLength * 100:.2f}%')
        print("下載完成 :" + fileName)
    except Exception as e:
        print("拋出異常:", e)
downVideo(urlVideo)

5、requests.session進(jìn)行登錄保持

requests模塊中的session類能夠自動(dòng)處理發(fā)送請(qǐng)求獲取響應(yīng)過程中產(chǎn)生的cookie,進(jìn)而達(dá)到狀態(tài)保持目的。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-809988.html

5.1 requests.session的作用和使用場(chǎng)景
  • 作用:自動(dòng)處理cookie,即 下一次請(qǐng)求會(huì)帶上前一次的cookie;
  • 場(chǎng)景:先登錄,再請(qǐng)求的url地址;登錄就使用session去請(qǐng)求,登錄成功session就保存了登錄狀態(tài);
  • 注意:session對(duì)象和requests對(duì)象的參數(shù)要求完全一致;
5.2 使用方法
# 08-requests的登錄保持.py
import requests

session = requests.session() # 獲取session對(duì)象
# 先使用session請(qǐng)求一次,這樣cookie就自動(dòng)保存在了session中!
session.get("url",headers={},...)
# 再請(qǐng)求,就不需要攜帶cookie參數(shù)了!
resp = session.get('url',data={},...)

到了這里,關(guān)于python爬蟲03-request庫(kù)使用02的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Python爬蟲開發(fā)基礎(chǔ)?】requests庫(kù)概述(GET和POST請(qǐng)求)

    ?? 個(gè)人主頁(yè) :為夢(mèng)而生~ 關(guān)注我一起學(xué)習(xí)吧! ?? 專欄 :python網(wǎng)絡(luò)爬蟲從基礎(chǔ)到實(shí)戰(zhàn) 歡迎訂閱!后面的內(nèi)容會(huì)越來(lái)越有意思~ ?? 往期推薦 : ??前面比較重要的 基礎(chǔ)內(nèi)容 : 【Python爬蟲開發(fā)基礎(chǔ)⑥】計(jì)算機(jī)網(wǎng)絡(luò)基礎(chǔ)(Web和HTTP) 【Python爬蟲開發(fā)基礎(chǔ)⑦】urllib庫(kù)的基本使用

    2024年02月12日
    瀏覽(17)
  • python爬蟲request和BeautifulSoup使用

    python爬蟲request和BeautifulSoup使用

    1.安裝request 2.引入庫(kù) 3.編寫代碼 發(fā)送請(qǐng)求 我們通過以下代碼可以打開豆瓣top250的網(wǎng)站 但因?yàn)樵摼W(wǎng)站加入了反爬機(jī)制,所以我們需要在我們的請(qǐng)求報(bào)文的頭部加入U(xiǎn)ser-Agent的信息 User-Agent可以通過訪問網(wǎng)站時(shí)按f12查看獲取 我們可以通過response的ok屬性判斷是否請(qǐng)求成功 此時(shí)如果

    2024年02月08日
    瀏覽(21)
  • 06~12-Esp8266物聯(lián)網(wǎng)芯片的使用(一)-part02/03-ESP8266開發(fā)環(huán)境、編程舉例

    06~12-Esp8266物聯(lián)網(wǎng)芯片的使用(一)-part02/03-ESP8266開發(fā)環(huán)境、編程舉例

    上一章主要作了芯片介紹,這一章主要作對(duì)開發(fā)環(huán)境的介紹。 認(rèn)識(shí)Arduino Arduino是一款便捷靈活、方便上手的開源電子原型平臺(tái)。包含硬件(各種型號(hào)的Arduino板)和軟件(ArduinoIDE)。它構(gòu)建于開放原始碼simple I/O介面版,并且具有使用類似Java、C語(yǔ)言的Processing/Wiring開發(fā)環(huán)境。

    2024年02月05日
    瀏覽(18)
  • Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁(yè)內(nèi)容

    Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁(yè)內(nèi)容

    了解如何使用Python中的requests模塊進(jìn)行網(wǎng)頁(yè)內(nèi)容獲取,包括獲取網(wǎng)頁(yè)步驟、代碼實(shí)現(xiàn)、狀態(tài)碼查看、提取信息等。

    2024年02月22日
    瀏覽(27)
  • 【100天精通python】Day42:python網(wǎng)絡(luò)爬蟲開發(fā)_HTTP請(qǐng)求庫(kù)requests 常用語(yǔ)法與實(shí)戰(zhàn)

    目錄 1 HTTP協(xié)議 2??HTTP與HTTPS 3 HTTP請(qǐng)求過程 ?3.1 HTTP請(qǐng)求過程 3.2 GET請(qǐng)求與POST請(qǐng)求

    2024年02月12日
    瀏覽(26)
  • 【Python爬蟲】requests庫(kù)get和post方法使用

    requests庫(kù)是一個(gè)常用于http請(qǐng)求的模塊,性質(zhì)是和urllib,urllib2是一樣的,作用就是向指定目標(biāo)網(wǎng)站的后臺(tái)服務(wù)器發(fā)起請(qǐng)求,并接收服務(wù)器返回的響應(yīng)內(nèi)容。 1. 安裝requests庫(kù) 使用pip install requests安裝 如果再使用pip安裝python模塊出現(xiàn)timeout超時(shí)異常,可使用國(guó)內(nèi)豆瓣源進(jìn)行安裝。

    2024年02月22日
    瀏覽(17)
  • Python 爬蟲的學(xué)習(xí) day01 ,爬蟲的基本知識(shí), requests 和 charde模塊, get函數(shù)的使用

    Python 爬蟲的學(xué)習(xí) day01 ,爬蟲的基本知識(shí), requests 和 charde模塊, get函數(shù)的使用

    1.1什么是網(wǎng)絡(luò)爬蟲 網(wǎng)絡(luò)爬蟲,又稱為網(wǎng)頁(yè)蜘蛛,網(wǎng)絡(luò)機(jī)器人,是一種按照一定的規(guī)則,自動(dòng)地抓取萬(wàn)維網(wǎng)信息的程序或者腳本,另外一些不常使用的名字還有螞蟻、自動(dòng)索引、模擬程序或者蠕蟲。 1.2? 網(wǎng)絡(luò)爬蟲的特點(diǎn) 網(wǎng)絡(luò)爬蟲是一個(gè)自動(dòng)提取網(wǎng)頁(yè)的程序,它為搜索引擎從萬(wàn)

    2024年02月15日
    瀏覽(22)
  • Python爬蟲教程:使用requests、wget和urllib3下載圖片和PDF文件

    Python爬蟲教程:使用requests、wget和urllib3下載圖片和PDF文件

    本文介紹了如何使用Python中的requests、wget和urllib3庫(kù)下載圖片和PDF文件,通過示例代碼演示了如何通過Selenium定位文件地址后,使用這三種方法進(jìn)行文件下載操作。

    2024年02月09日
    瀏覽(26)
  • python 爬蟲熱身篇 使用 requests 庫(kù)通過 HTTP 讀取網(wǎng)絡(luò)數(shù)據(jù),使用 pandas 讀取網(wǎng)頁(yè)上的表格,使用 Selenium 模擬瀏覽器操作

    python 爬蟲熱身篇 使用 requests 庫(kù)通過 HTTP 讀取網(wǎng)絡(luò)數(shù)據(jù),使用 pandas 讀取網(wǎng)頁(yè)上的表格,使用 Selenium 模擬瀏覽器操作

    在過去,收集數(shù)據(jù)是一項(xiàng)繁瑣的工作,有時(shí)非常昂貴。機(jī)器學(xué)習(xí)項(xiàng)目不能沒有數(shù)據(jù)。幸運(yùn)的是,我們現(xiàn)在在網(wǎng)絡(luò)上有很多數(shù)據(jù)可供我們使用。我們可以從 Web 復(fù)制數(shù)據(jù)來(lái)創(chuàng)建數(shù)據(jù)集。我們可以手動(dòng)下載文件并將其保存到磁盤。但是,我們可以通過自動(dòng)化數(shù)據(jù)收集來(lái)更有效地做

    2023年04月08日
    瀏覽(98)
  • 【Python爬蟲】requests庫(kù)

    【Python爬蟲】requests庫(kù)

    1.requests庫(kù)的介紹 ? requests 是 Python 語(yǔ)言編寫,基于 urllib3 ,采用 Apache2 Licensed 開源協(xié)議的HTTP庫(kù)。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測(cè)試需求。是 Python 實(shí)現(xiàn)的簡(jiǎn)單易用的 HTTP 庫(kù)。 Requests 中文文檔:http://docs.pythonrequests.org/zh_CN/latest/index.html ? 解決

    2024年02月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包