国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊

這篇具有很好參考價值的文章主要介紹了Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.?requests 模塊post 函數(shù)

1.1 post 函數(shù)的參數(shù) (簡單版)

參數(shù)1:? url??? ?網(wǎng)絡(luò)地址

參數(shù)2:? ?data? ?請求數(shù)據(jù) (一般數(shù)據(jù)是? 賬號,密碼)

參數(shù)3:? ? headers? 頭請求? (User-Agent:? 第一章講過)


1.2? post 請求中?url 參數(shù)的獲取

1.2.1 首先 打開一個 登錄界面 。(這里以淘寶的登錄界面為樣例)

1.2.2 打開控制界面 。(點擊F12 ,或者右鍵檢查)

1.2.3 點擊網(wǎng)絡(luò)。?再點擊下一行的 全部(all)

1.2.4 點擊登錄界面的 賬號輸入的地方,獲取一個 Ping 。

1.2.5 點擊網(wǎng)絡(luò)下面的鏈接,進入post? 數(shù)據(jù)界面。

1.2.6 觀看和獲取? URL 數(shù)據(jù)。

Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊,Python 爬蟲學(xué)習(xí),python,爬蟲,學(xué)習(xí)

1.3? post 請求中? data參數(shù)的 名字命名 (或者說是 data字典類型數(shù)據(jù)的 key 名字)

?1. 在淘寶登錄界面輸入賬號密碼

?2. 點擊登錄界面。

?3. 打開控制界面 -> 網(wǎng)絡(luò) --> 點擊包含check 的鏈接 --> 點擊負載 -- > 觀看參數(shù)的名字

Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊,Python 爬蟲學(xué)習(xí),python,爬蟲,學(xué)習(xí)


2.lxml 模塊

2.1 lxml 模塊的簡介

?lxml模塊? 是python的一個解析庫,支持HTML和XML解析,同時支持XPath解析方式。Lxml的解析速率相較BeautifulSoup更高,后者學(xué)習(xí)相較更簡單。

?功能:用于解析HTML與XML文件;進行文件讀?。籩tree和Xpath的配合使用


2.2? lxml 模塊的使用

主要是 Xpath 對于 HTML的解析

推薦文章:Python爬蟲基礎(chǔ)教程——lxml爬取入門 - 知乎 (zhihu.com)

參考文章:?lxml模塊詳解_手工&自動化測試開發(fā)小白的博客-CSDN博客

參考文章:XPath用法及常用函數(shù)_xpath 函數(shù)_SeeUa的博客-CSDN博客


2.3? 函數(shù)? Xpath的使用? (看參考文章)

Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊,Python 爬蟲學(xué)習(xí),python,爬蟲,學(xué)習(xí)

Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊,Python 爬蟲學(xué)習(xí),python,爬蟲,學(xué)習(xí)

參考文章:Xpath 用法總結(jié)_xpath //_free_xiaochen的博客-CSDN博客

參考文章:Xpath 用法總結(jié)_xpath //_free_xiaochen的博客-CSDN博客


2.4 樣例代碼? ?(幫我找找 bug? ,我的 xpath沒有找到所有的數(shù)據(jù))文章來源地址http://www.zghlxwxcb.cn/news/detail-629560.html

import requests  # http 請求函數(shù)的庫
import chardet   #chardet  支持檢測中文、日文、韓文等多種語言  和  字符串編碼 函數(shù)庫
from lxml import etree

headers1 = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.1901.188"}
url = 'https://cn.bing.com/images/search?q=%E5%9B%BE%E7%89%87&form=IQFRBA&id=4929EB0212CFAC8CB6AB59DB53A9D2D99C54FF6A&first=1&disoverlay=1' #圖片的網(wǎng)站
response = requests.get(url)
#print(response)
selector =etree.HTML(response.text)
s = selector.xpath('//img/@src')
for x in s:
    print(x)

到了這里,關(guān)于Python爬蟲的學(xué)習(xí)day02 requests 模塊post 函數(shù), lmxl 模塊的 etree 模塊的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • python爬蟲03-request庫使用02

    目錄 ??????1、requests庫使用的通用框架: 2、requests下載圖片 3、發(fā)送get / post 請求傳遞參數(shù):? 4、requests庫下載視頻,并顯示進度 5、requests.session進行登錄保持 5.1 requests.session的作用和使用場景 5.2 使用方法 基礎(chǔ)鏈接 :?01-python-request庫使用01 1、requests庫使用的通用框

    2024年01月21日
    瀏覽(20)
  • python爬蟲02-requests庫使用01

    目錄 1、requests庫簡介 2、requests庫-安裝 3、requests庫-使用 3.1 導(dǎo)入模塊 3.2 發(fā)送請求 3.3 requests庫常用方法 3.4 訪問控制參數(shù)kwargs ?4、請求返回對象 Response 5、requests訪問時的可能異常 1、requests庫簡介 requests是一個http的第三方請求庫,發(fā)送http請求,并獲取響應(yīng)結(jié)果; 2、requests庫

    2024年01月20日
    瀏覽(55)
  • 【Python爬蟲開發(fā)基礎(chǔ)?】requests庫概述(GET和POST請求)

    ?? 個人主頁 :為夢而生~ 關(guān)注我一起學(xué)習(xí)吧! ?? 專欄 :python網(wǎng)絡(luò)爬蟲從基礎(chǔ)到實戰(zhàn) 歡迎訂閱!后面的內(nèi)容會越來越有意思~ ?? 往期推薦 : ??前面比較重要的 基礎(chǔ)內(nèi)容 : 【Python爬蟲開發(fā)基礎(chǔ)⑥】計算機網(wǎng)絡(luò)基礎(chǔ)(Web和HTTP) 【Python爬蟲開發(fā)基礎(chǔ)⑦】urllib庫的基本使用

    2024年02月12日
    瀏覽(17)
  • Python爬蟲requests判斷請求超時并重新post/get發(fā)送請求

    在上面的示例中,send_request_get函數(shù)接受一個URL作為參數(shù),并可選地指定最大重試次數(shù)和超時時間。函數(shù)使用 requests.get 發(fā)送GET請求,并設(shè)置了超時時間為5秒。如果請求超時,會捕獲 requests.exceptions.Timeout 異常,并輸出重試信息。如果發(fā)生其他異常,會捕獲 requests.exceptions.Req

    2024年02月11日
    瀏覽(34)
  • 爬蟲學(xué)習(xí)(1)--requests模塊的使用

    爬蟲學(xué)習(xí)(1)--requests模塊的使用

    什么是爬蟲 爬蟲是一種自動化工具,用于從互聯(lián)網(wǎng)或其他計算機網(wǎng)絡(luò)上獲取數(shù)據(jù)。它可以模擬人的行為,自動訪問網(wǎng)頁,提取感興趣的數(shù)據(jù),并將其存儲到本地計算機或數(shù)據(jù)庫中。爬蟲通常用于搜索引擎、數(shù)據(jù)分析、信息聚合等領(lǐng)域,也被許多企業(yè)用于市場調(diào)研、競爭分析、

    2024年02月03日
    瀏覽(18)
  • Python爬蟲之requests模塊

    requests文檔http://docs.python-requests.org/zh_CN/latest/index.html 1、requests模塊的作用: 發(fā)送http請求,獲取響應(yīng)數(shù)據(jù) 2、requests模塊是一個第三方模塊,需要在你的python(虛擬)環(huán)境中額外安裝 pip/pip3 install requests 3、requests模塊發(fā)送get請求 需求:通過requests向百度首頁發(fā)送請求,獲取該頁面

    2024年02月09日
    瀏覽(18)
  • Python爬蟲—requests模塊簡單應(yīng)用

    Python爬蟲—requests模塊簡單應(yīng)用

    requests的作用與安裝 作用:發(fā)送網(wǎng)絡(luò)請求,返回響應(yīng)數(shù)據(jù) 安裝:pip install requests requests模塊發(fā)送簡單的get請求、獲取響應(yīng) 需求:通過requests向百度首頁發(fā)送請求,獲取百度首頁的數(shù)據(jù) response的常用屬性: response.text 響應(yīng)體str類型 response.encoding 從HTTP header中猜測的響應(yīng)內(nèi)容的編

    2024年01月24日
    瀏覽(32)
  • python爬蟲——request模塊講解,Python詳解

    python爬蟲——request模塊講解,Python詳解

    對于GET方式的請求,瀏覽器會把http header和data一并發(fā)送出去,服務(wù)器響應(yīng)200(返回數(shù)據(jù)); 而對于POST, 瀏覽器先發(fā)送header,服務(wù)器響應(yīng)100 continue,瀏覽器再發(fā)送data,服務(wù)器響應(yīng)200 ok(返回數(shù)據(jù))。 (二)http常見請求參數(shù) url:請求url地址 headers:請求頭 **data:發(fā)送編碼為表

    2024年04月26日
    瀏覽(18)
  • 『python爬蟲』05. requests模塊入門(保姆級圖文)

    『python爬蟲』05. requests模塊入門(保姆級圖文)

    歡迎關(guān)注 『python爬蟲』 專欄,持續(xù)更新中 歡迎關(guān)注 『python爬蟲』 專欄,持續(xù)更新中 由此可知,我們的請求方式是post,請求url是post的地址 https://fanyi.baidu.com/sug 觀察一下我們的formdata,在我們逐漸輸入apple的過程中,分別post請求,帶有kw參數(shù)為“a” “ap” “app” “appl”

    2024年02月02日
    瀏覽(22)
  • Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁內(nèi)容

    Python爬蟲基礎(chǔ):使用requests模塊獲取網(wǎng)頁內(nèi)容

    了解如何使用Python中的requests模塊進行網(wǎng)頁內(nèi)容獲取,包括獲取網(wǎng)頁步驟、代碼實現(xiàn)、狀態(tài)碼查看、提取信息等。

    2024年02月22日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包