国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python爬蟲—requests

這篇具有很好參考價(jià)值的文章主要介紹了python爬蟲—requests。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、安裝

pip install requests

二、基本使用

1、基本使用

類型 : models.Response
r.text : 獲取網(wǎng)站源碼
r.encoding :訪問或定制編碼方式
r.url :獲取請(qǐng)求的 url
r.content :響應(yīng)的字節(jié)類型
r.status_code :響應(yīng)的狀態(tài)碼
r.headers :響應(yīng)的頭信息

import requests
 
url = 'http://www.baidu.com'
 
response = requests.get(url=url)
 
# 一個(gè)類型 六個(gè)屬性
# Response 類型
print(type(response))
 
# 設(shè)置響應(yīng)的編碼格式
response.encoding = 'utf-8'
 
# 以字符串形式返回網(wǎng)頁源碼
print(response.text)
 
# 返回url地址
print(response.url)
 
# 返回的是二進(jìn)制的數(shù)據(jù)
print(response.content)
 
# 返回響應(yīng)的狀態(tài)碼
print(response.status_code)
 
# 返回的是響應(yīng)頭
print(response.headers)

2、與urllib區(qū)別


# urllib
# (1) 一個(gè)類型以及六個(gè)方法
# (2)get請(qǐng)求
# (3)post請(qǐng)求   百度翻譯
# (4)ajax的get請(qǐng)求
# (5)ajax的post請(qǐng)求
# (6)cookie登陸 微博
# (7)代理


# requests
# (1)一個(gè)類型以及六個(gè)屬性
# (2)get請(qǐng)求
# (3)post請(qǐng)求
# (4)代理
# (5)cookie  驗(yàn)證碼


import requests

url = 'https://www.baidu.com/s'

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
}

data = {
    'wd':'北京'
}



############################### GET ##########################

# url  請(qǐng)求資源路徑
# params 參數(shù)
# kwargs 字典
response = requests.get(url=url,params=data,headers=headers)

content = response.text

print(content)

# 總結(jié):
# (1)參數(shù)使用params傳遞
# (2)參數(shù)無需urlencode編碼
# (3)不需要請(qǐng)求對(duì)象的定制
# (4)請(qǐng)求資源路徑中的?可以加也可以不加





############################# POST ##########################

# url 請(qǐng)求地址
# data 請(qǐng)求參數(shù)
# kwargs 字典
response = requests.post(url=url,data=data,headers=headers)

content =response.text

import json

obj = json.loads(content,encoding='utf-8')
print(obj)

# 總結(jié):
# (1)post請(qǐng)求 是不需要編解碼
# (2)post請(qǐng)求的參數(shù)是data
# (3)不需要請(qǐng)求對(duì)象的定制

?

三、代理

import requests
 
url = 'http://www.baidu.com/s?'
 
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
}
 
data = {
    'wd' : 'ip'
}
 
proxy = {
    'http':'120.194.55.139:6969'
}
 
response = requests.get(url=url,params=data,headers=headers,proxies=proxy)
 
content = response.text
 
with open('daili.html','w',encoding='utf-8')as fp:
    fp.write(content)

四、cookie定制(破解驗(yàn)證碼)

找登錄接口

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

?找參數(shù)的值

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

python代碼

import requests
 
# 登錄頁面的url地址
url = 'https://so.gushiwen.cn/user/login.aspx?from=http://so.gushiwen.cn/user/collect.aspx'
 
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
}
 
# 獲取頁面的源碼
response = requests.get(url=url,headers=headers)
content = response.text
 
# 解析頁面源碼  獲取__VIEWSTATE  __VIEWSTATEGENERATOR      這里使用bs4解析
from bs4 import BeautifulSoup
 
soup = BeautifulSoup(content,'lxml')
 
#   獲取__VIEWSTATE
viewstate = soup.select('#__VIEWSTATE')[0].attrs.get('value')
#   獲取__VIEWSTATEGENERATOR
viewstategenerator = soup.select('#__VIEWSTATEGENERATOR')[0].attrs.get('value')
 
# 接下來處理驗(yàn)證碼
# 獲取驗(yàn)證碼圖片
code = soup.select('#imgCode')[0].attrs.get('src')
code_url = 'https://so.gushiwen.cn' + code
 
# 下載驗(yàn)證碼圖片
# import urllib.request
# urllib.request.urlretrieve(url=code_url,filename='code.jpg')
# 使用上面方法下載驗(yàn)證碼后會(huì)使驗(yàn)證碼更新,從而使的每次都會(huì)提醒驗(yàn)證碼錯(cuò)誤
# requests里面有個(gè)方法session() 通過session的返回值就能使請(qǐng)求變?yōu)橐粋€(gè)對(duì)象
session = requests.session()
# 驗(yàn)證碼的url地址
response_code = session.get(code_url)
# 注意此時(shí)要使用二進(jìn)制的數(shù)據(jù) 因?yàn)槲覀円怯玫氖菆D片的下載
content_code = response_code.content
# wb的模式就是將二進(jìn)制的數(shù)據(jù)寫到文件
with open('code.jpg','wb')as fp:
    fp.write(content_code)
 
 
# 獲取了驗(yàn)證碼的圖片之后 下載到本地 然后觀察驗(yàn)證碼 然后在控制臺(tái)輸入這個(gè)驗(yàn)證碼 就可以將這個(gè)值給code的參數(shù)
code_name = input('請(qǐng)輸入你的驗(yàn)證碼:')
 
 
# 點(diǎn)擊登錄
url_post = 'https://so.gushiwen.cn/user/login.aspx?from=http%3a%2f%2fso.gushiwen.cn%2fuser%2fcollect.aspx'
 
data_post = {
    '__VIEWSTATE': viewstate,
    '__VIEWSTATEGENERATOR': viewstategenerator,
    'from': 'http://so.gushiwen.cn/user/collect.aspx',
    'email': '自己賬號(hào)',
    'pwd': '自己密碼',
    'code': code_name,
    'denglu': '登錄'
}
 
response_post = session.post(url=url_post,headers=headers,data=data_post)
 
content_post = response_post.text
 
with open('gushiwen.html','w',encoding='utf-8')as fp:
    fp.write(content_post)

?五、破解驗(yàn)證碼——超級(jí)鷹(公司級(jí)別)

登錄超級(jí)鷹官網(wǎng):超級(jí)鷹驗(yàn)證碼識(shí)別-專業(yè)的驗(yàn)證碼云端識(shí)別服務(wù),讓驗(yàn)證碼識(shí)別更快速、更準(zhǔn)確、更強(qiáng)大

若之前沒有注冊(cè),則需要注冊(cè)新的用戶,并且進(jìn)行充值。

?進(jìn)入 用戶中心 后點(diǎn)擊?開發(fā)文檔

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

選擇襲擊使用的語言案例。

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

?下載好壓縮包解壓,并且把一下兩個(gè)文件在pycharm中打開。

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

??代碼中修改如下四處地方。

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

軟件ID的獲取方法如下:

進(jìn)入用戶中心? -->?軟件id? -->? 生成軟件ID -->?復(fù)制軟件id到代碼中

python爬蟲—requests,python,爬蟲,python,爬蟲,開發(fā)語言

?到此,運(yùn)行代碼就可以自動(dòng)識(shí)別圖片中的驗(yàn)證碼了。?文章來源地址http://www.zghlxwxcb.cn/news/detail-689534.html

到了這里,關(guān)于python爬蟲—requests的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • python-網(wǎng)絡(luò)爬蟲.Request

    python-網(wǎng)絡(luò)爬蟲.Request

    Request python中requests庫使用方法詳解: 一簡介: ????????Requests 是Python語言編寫,基于urllib, ????????采用Apache2 Licensed開源協(xié)議的 HTTP 庫。 ????????與urllib相比,Requests更加方便,處理URL資源特別流暢。 ????????可以節(jié)約我們大量的工作,建議爬蟲使用Requests庫

    2024年02月14日
    瀏覽(27)
  • 【python爬蟲】設(shè)計(jì)自己的爬蟲 1. request封裝

    通過requests.session().request 封裝request方法 考慮到請(qǐng)求HTTP/2.0 同時(shí)封裝httpx 來處理HTTP/2.0的請(qǐng)求 通過is_http2來區(qū)分 測(cè)試代碼如下

    2024年02月08日
    瀏覽(24)
  • Python爬蟲之requests模塊

    requests文檔http://docs.python-requests.org/zh_CN/latest/index.html 1、requests模塊的作用: 發(fā)送http請(qǐng)求,獲取響應(yīng)數(shù)據(jù) 2、requests模塊是一個(gè)第三方模塊,需要在你的python(虛擬)環(huán)境中額外安裝 pip/pip3 install requests 3、requests模塊發(fā)送get請(qǐng)求 需求:通過requests向百度首頁發(fā)送請(qǐng)求,獲取該頁面

    2024年02月09日
    瀏覽(18)
  • python爬蟲——request模塊講解,Python詳解

    python爬蟲——request模塊講解,Python詳解

    對(duì)于GET方式的請(qǐng)求,瀏覽器會(huì)把http header和data一并發(fā)送出去,服務(wù)器響應(yīng)200(返回?cái)?shù)據(jù)); 而對(duì)于POST, 瀏覽器先發(fā)送header,服務(wù)器響應(yīng)100 continue,瀏覽器再發(fā)送data,服務(wù)器響應(yīng)200 ok(返回?cái)?shù)據(jù))。 (二)http常見請(qǐng)求參數(shù) url:請(qǐng)求url地址 headers:請(qǐng)求頭 **data:發(fā)送編碼為表

    2024年04月26日
    瀏覽(18)
  • python-requests庫(爬蟲)

    網(wǎng)頁數(shù)據(jù)獲取有python自帶的urllib,也有第三方庫requests requests.request(url) 構(gòu)造一個(gè)請(qǐng)求 requests.get(url,params=None) 發(fā)送get請(qǐng)求,結(jié)果為response對(duì)象 requests.post(url,data=None,json=None) 發(fā)送post請(qǐng)求 requests.put() 發(fā)送put請(qǐng)求 requests.head() 獲取html的頭信息 requests.delete() 提交刪除請(qǐng)求 requests.pat

    2024年02月08日
    瀏覽(18)
  • Python爬蟲—requests模塊簡單應(yīng)用

    Python爬蟲—requests模塊簡單應(yīng)用

    requests的作用與安裝 作用:發(fā)送網(wǎng)絡(luò)請(qǐng)求,返回響應(yīng)數(shù)據(jù) 安裝:pip install requests requests模塊發(fā)送簡單的get請(qǐng)求、獲取響應(yīng) 需求:通過requests向百度首頁發(fā)送請(qǐng)求,獲取百度首頁的數(shù)據(jù) response的常用屬性: response.text 響應(yīng)體str類型 response.encoding 從HTTP header中猜測(cè)的響應(yīng)內(nèi)容的編

    2024年01月24日
    瀏覽(32)
  • python爬蟲2:requests庫-原理

    python爬蟲2:requests庫-原理

    前言 ? python實(shí)現(xiàn)網(wǎng)絡(luò)爬蟲非常簡單,只需要掌握一定的基礎(chǔ)知識(shí)和一定的庫使用技巧即可。本系列目標(biāo)旨在梳理相關(guān)知識(shí)點(diǎn),方便以后復(fù)習(xí)。 目錄結(jié)構(gòu) 1. 概述 ? python其實(shí)自帶一個(gè)請(qǐng)求庫,即urllib,不過這個(gè)庫并不是很好使,因此大部人都還是采用的第三方庫requests。 ?

    2024年02月14日
    瀏覽(23)
  • python爬蟲_requests入門指引

    python爬蟲_requests入門指引

    大家好,我是yma16,本文分享關(guān)于python的requests庫用法。 該系列文章: python爬蟲_基本數(shù)據(jù)類型 python爬蟲_函數(shù)的使用 requests可以用來發(fā)送http請(qǐng)求。 對(duì)比瀏覽器發(fā)送的請(qǐng)求 requests是在python的運(yùn)行環(huán)境發(fā)送請(qǐng)求,不存在限制跨域,無ui界面,優(yōu)勢(shì)在于自動(dòng)化 瀏覽器發(fā)送請(qǐng)求被瀏

    2024年02月11日
    瀏覽(26)
  • python爬蟲03-request庫使用02

    目錄 ??????1、requests庫使用的通用框架: 2、requests下載圖片 3、發(fā)送get / post 請(qǐng)求傳遞參數(shù):? 4、requests庫下載視頻,并顯示進(jìn)度 5、requests.session進(jìn)行登錄保持 5.1 requests.session的作用和使用場(chǎng)景 5.2 使用方法 基礎(chǔ)鏈接 :?01-python-request庫使用01 1、requests庫使用的通用框

    2024年01月21日
    瀏覽(19)
  • Python(request)爬蟲有多強(qiáng)大?

    Python(request)爬蟲有多強(qiáng)大?

    requests是Python中的一種HTTP客戶端庫,用于發(fā)送HTTP請(qǐng)求并獲取服務(wù)器響應(yīng)。使用requests庫可以輕松地進(jìn)行常見的HTTP操作,如GET、POST、PUT、DELETE等,支持HTTPS和HTTP連接以及摘要驗(yàn)證、基本認(rèn)證等身份驗(yàn)證方式。 因此,Python的requests庫是一個(gè)很棒的選擇,如果您需要編寫一個(gè)簡單

    2024年02月09日
    瀏覽(15)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包