国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python requests之Cookie

這篇具有很好參考價(jià)值的文章主要介紹了Python requests之Cookie。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

視頻版教程:一天掌握python爬蟲(chóng)【基礎(chǔ)篇】 涵蓋 requests、beautifulsoup、selenium

在某些需要登錄的網(wǎng)站或者或者應(yīng)用,假如我們需要抓取登錄后的內(nèi)容,技術(shù)上本質(zhì)通過(guò)session會(huì)話實(shí)現(xiàn)。服務(wù)器端存會(huì)話信息,瀏覽器通過(guò)Cookie攜帶客戶端訪問(wèn)用戶信息,來(lái)實(shí)現(xiàn)會(huì)話機(jī)制。

requests對(duì)Cookie有很好的支持。

我們看一個(gè)實(shí)例。

http://download.java1234.com/

這個(gè)網(wǎng)站,假如需要看抓取登錄后的用戶下載的資源信息

http://download.java1234.com/user/userDownload/list/1

這時(shí)候的思路是先post方式登錄系統(tǒng),獲取返回的cookie,然后我們帶上cookie再請(qǐng)求用戶下載資源信息url。

參考代碼:文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-720910.html

import requests

url = "http://download.java1234.com/user/login"

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36'
}

data = {
    'userName': 'python222',
    'password': '123456'
}

r = requests.post(url=url, data=data, headers=headers)

print(r.text)
print(r.headers)
cookieJar = r.cookies
for c in cookieJar:
    print(c.name, c.value)

targetUrl = "http://download.java1234.com/user/userDownload/list/1"

r2 = requests.get(url=targetUrl, headers=headers, cookies=cookieJar)
print(r2.text)

到了這里,關(guān)于Python requests之Cookie的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 〖Python網(wǎng)絡(luò)爬蟲(chóng)實(shí)戰(zhàn)⑤〗- Session和Cookie介紹

    訂閱:新手可以訂閱我的其他專(zhuān)欄。免費(fèi)階段訂閱量1000+ ????????????????python項(xiàng)目實(shí)戰(zhàn) ???????????????? Python編程基礎(chǔ)教程系列(零基礎(chǔ)小白搬磚逆襲) 說(shuō)明:本專(zhuān)欄持續(xù)更新中,目前專(zhuān)欄免費(fèi)訂閱,在轉(zhuǎn)為付費(fèi)專(zhuān)欄前訂閱本專(zhuān)欄的,可以免費(fèi)訂閱付費(fèi)專(zhuān)欄,

    2023年04月09日
    瀏覽(52)
  • python爬蟲(chóng)——request模塊講解,Python詳解

    python爬蟲(chóng)——request模塊講解,Python詳解

    對(duì)于GET方式的請(qǐng)求,瀏覽器會(huì)把http header和data一并發(fā)送出去,服務(wù)器響應(yīng)200(返回?cái)?shù)據(jù)); 而對(duì)于POST, 瀏覽器先發(fā)送header,服務(wù)器響應(yīng)100 continue,瀏覽器再發(fā)送data,服務(wù)器響應(yīng)200 ok(返回?cái)?shù)據(jù))。 (二)http常見(jiàn)請(qǐng)求參數(shù) url:請(qǐng)求url地址 headers:請(qǐng)求頭 **data:發(fā)送編碼為表

    2024年04月26日
    瀏覽(18)
  • python爬蟲(chóng)—requests

    python爬蟲(chóng)—requests

    類(lèi)型 : models.Response r.text : 獲取網(wǎng)站源碼 r.encoding :訪問(wèn)或定制編碼方式 r.url :獲取請(qǐng)求的 url r.content :響應(yīng)的字節(jié)類(lèi)型 r.status_code :響應(yīng)的狀態(tài)碼 r.headers :響應(yīng)的頭信息 找登錄接口 ?找參數(shù)的值 python代碼 登錄超級(jí)鷹官網(wǎng):超級(jí)鷹驗(yàn)證碼識(shí)別-專(zhuān)業(yè)的驗(yàn)證碼云端識(shí)別服務(wù)

    2024年02月10日
    瀏覽(19)
  • python-網(wǎng)絡(luò)爬蟲(chóng).Request

    python-網(wǎng)絡(luò)爬蟲(chóng).Request

    Request python中requests庫(kù)使用方法詳解: 一簡(jiǎn)介: ????????Requests 是Python語(yǔ)言編寫(xiě),基于urllib, ????????采用Apache2 Licensed開(kāi)源協(xié)議的 HTTP 庫(kù)。 ????????與urllib相比,Requests更加方便,處理URL資源特別流暢。 ????????可以節(jié)約我們大量的工作,建議爬蟲(chóng)使用Requests庫(kù)

    2024年02月14日
    瀏覽(27)
  • 【Python爬蟲(chóng)】requests庫(kù)

    【Python爬蟲(chóng)】requests庫(kù)

    1.requests庫(kù)的介紹 ? requests 是 Python 語(yǔ)言編寫(xiě),基于 urllib3 ,采用 Apache2 Licensed 開(kāi)源協(xié)議的HTTP庫(kù)。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測(cè)試需求。是 Python 實(shí)現(xiàn)的簡(jiǎn)單易用的 HTTP 庫(kù)。 Requests 中文文檔:http://docs.pythonrequests.org/zh_CN/latest/index.html ? 解決

    2024年02月16日
    瀏覽(22)
  • Python爬蟲(chóng)之requests模塊

    requests文檔http://docs.python-requests.org/zh_CN/latest/index.html 1、requests模塊的作用: 發(fā)送http請(qǐng)求,獲取響應(yīng)數(shù)據(jù) 2、requests模塊是一個(gè)第三方模塊,需要在你的python(虛擬)環(huán)境中額外安裝 pip/pip3 install requests 3、requests模塊發(fā)送get請(qǐng)求 需求:通過(guò)requests向百度首頁(yè)發(fā)送請(qǐng)求,獲取該頁(yè)面

    2024年02月09日
    瀏覽(18)
  • 【python爬蟲(chóng)】設(shè)計(jì)自己的爬蟲(chóng) 1. request封裝

    通過(guò)requests.session().request 封裝request方法 考慮到請(qǐng)求HTTP/2.0 同時(shí)封裝httpx 來(lái)處理HTTP/2.0的請(qǐng)求 通過(guò)is_http2來(lái)區(qū)分 測(cè)試代碼如下

    2024年02月08日
    瀏覽(24)
  • python-requests庫(kù)(爬蟲(chóng))

    網(wǎng)頁(yè)數(shù)據(jù)獲取有python自帶的urllib,也有第三方庫(kù)requests requests.request(url) 構(gòu)造一個(gè)請(qǐng)求 requests.get(url,params=None) 發(fā)送get請(qǐng)求,結(jié)果為response對(duì)象 requests.post(url,data=None,json=None) 發(fā)送post請(qǐng)求 requests.put() 發(fā)送put請(qǐng)求 requests.head() 獲取html的頭信息 requests.delete() 提交刪除請(qǐng)求 requests.pat

    2024年02月08日
    瀏覽(19)
  • Python爬蟲(chóng)—requests模塊簡(jiǎn)單應(yīng)用

    Python爬蟲(chóng)—requests模塊簡(jiǎn)單應(yīng)用

    requests的作用與安裝 作用:發(fā)送網(wǎng)絡(luò)請(qǐng)求,返回響應(yīng)數(shù)據(jù) 安裝:pip install requests requests模塊發(fā)送簡(jiǎn)單的get請(qǐng)求、獲取響應(yīng) 需求:通過(guò)requests向百度首頁(yè)發(fā)送請(qǐng)求,獲取百度首頁(yè)的數(shù)據(jù) response的常用屬性: response.text 響應(yīng)體str類(lèi)型 response.encoding 從HTTP header中猜測(cè)的響應(yīng)內(nèi)容的編

    2024年01月24日
    瀏覽(32)
  • python爬蟲(chóng)2:requests庫(kù)-原理

    python爬蟲(chóng)2:requests庫(kù)-原理

    前言 ? python實(shí)現(xiàn)網(wǎng)絡(luò)爬蟲(chóng)非常簡(jiǎn)單,只需要掌握一定的基礎(chǔ)知識(shí)和一定的庫(kù)使用技巧即可。本系列目標(biāo)旨在梳理相關(guān)知識(shí)點(diǎn),方便以后復(fù)習(xí)。 目錄結(jié)構(gòu) 1. 概述 ? python其實(shí)自帶一個(gè)請(qǐng)求庫(kù),即urllib,不過(guò)這個(gè)庫(kù)并不是很好使,因此大部人都還是采用的第三方庫(kù)requests。 ?

    2024年02月14日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包