国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python爬取pexels圖片

這篇具有很好參考價(jià)值的文章主要介紹了Python爬取pexels圖片。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

研究Python爬蟲(chóng),網(wǎng)上很多爬取pexels圖片的案例,我下載下來(lái)運(yùn)行沒(méi)有成功,總量有各種各樣的問(wèn)題。

作為菜鳥(niǎo)初學(xué)者,網(wǎng)上的各個(gè)案例代碼對(duì)我還是有不少啟發(fā)作用,我用搜索引擎+chatGPT逐步對(duì)代碼進(jìn)行了完善。

最終運(yùn)行成功。特此記錄。

運(yùn)行環(huán)境:Win10,Python3.10、Google Chrome111.0.5563.148(正式版本)

?
?

?

 1 import urllib.request
 2 from bs4 import BeautifulSoup
 3 import os
 4 import html
 5 import requests
 6 import urllib.parse
 7 
 8 path = r"C:\Users\xiaochao\pexels"
 9 url_lists = ['https://www.pexels.com/search/book/?page={}'.format(i) for i in range(1, 21)]  #頁(yè)面范圍請(qǐng)自行根據(jù)實(shí)際情況修改。
10 headers = {
11     "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36",
12     "Referer": "https://www.pexels.com/",
13     "Accept-Language": "en-US,en;q=0.9",
14 }
15 
16 for url in url_lists:
17     print(url)
18     req = urllib.request.Request(url, headers=headers)
19     try:
20         resp = urllib.request.urlopen(req)
21     except urllib.error.HTTPError as e:
22         print("HTTPError occurred: {}".format(e))
23         continue
24 
25     html_content = resp.read().decode()
26     soup = BeautifulSoup(html_content, "html.parser")
27 
28     import re
29     pattern = re.compile('"Download" href="(.*?)/?cs=', re.S)
30     matches = re.findall(pattern, html_content)
31     print(matches)
32 
33     if not os.path.exists(path):
34         os.makedirs(path)
35 
36     for match in matches:
37         match_cleaned = match.split('?')[0]    # 去除圖片URL地址最后帶的“?”號(hào)。
38         print(match_cleaned)   # 輸出去除圖片URL“?”號(hào)的地址
39         match_cleaned = html.unescape(match_cleaned)  #解碼 HTML 編碼字符,將文件鏈接還原為正常的 URL 格式
40         match_cleaned = urllib.parse.unquote(match_cleaned)   # 對(duì) URL 進(jìn)行進(jìn)一步處理,解碼URL,確保它的格式正確,包括刪除多余的引號(hào)和處理特殊字符。
41         match_cleaned = urllib.parse.urljoin(url, match_cleaned)  # 將相對(duì) URL 轉(zhuǎn)換為絕對(duì) URL
42 
43 
44         # 按URL地址后段命名
45         filename = match_cleaned.split("/")[-1]
46         with open(os.path.join(path, filename), "wb") as f:
47             f.write(requests.get(match_cleaned).content)

?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-410904.html

到了這里,關(guān)于Python爬取pexels圖片的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Python爬蟲(chóng)開(kāi)發(fā)實(shí)戰(zhàn)①】使用urllib以及XPath爬取可愛(ài)小貓圖片

    【Python爬蟲(chóng)開(kāi)發(fā)實(shí)戰(zhàn)①】使用urllib以及XPath爬取可愛(ài)小貓圖片

    個(gè)人主頁(yè) :為夢(mèng)而生~ 關(guān)注我一起學(xué)習(xí)吧! 專(zhuān)欄 :python網(wǎng)絡(luò)爬蟲(chóng)從基礎(chǔ)到實(shí)戰(zhàn) 歡迎訂閱!后面的內(nèi)容會(huì)越來(lái)越有意思~ 往期推薦 : 【Python爬蟲(chóng)開(kāi)發(fā)基礎(chǔ)⑦】urllib庫(kù)的基本使用 【Python爬蟲(chóng)開(kāi)發(fā)基礎(chǔ)⑧】XPath庫(kù)及其基本用法 我們?cè)谥耙呀?jīng)有8篇文章講述基礎(chǔ)知識(shí)了,下面我們

    2024年02月11日
    瀏覽(168)
  • Python爬蟲(chóng)之Scrapy框架系列(21)——重寫(xiě)媒體管道類(lèi)實(shí)現(xiàn)保存圖片名字自定義及多頁(yè)爬取

    spider文件中要拿到圖片列表并yield item; item里需要定義特殊的字段名:image_urls=scrapy.Field(); settings里設(shè)置IMAGES_STORE存儲(chǔ)路徑,如果路徑不存在,系統(tǒng)會(huì)幫助我們創(chuàng)建; 使用默認(rèn)管道則在s

    2024年02月10日
    瀏覽(94)
  • 《爬蟲(chóng)》爬取頁(yè)面圖片并保存

    《爬蟲(chóng)》爬取頁(yè)面圖片并保存

    title: 《小·意·思》爬取頁(yè)面圖片并保存 date: 2023-08-10 22:12:30 updated: 2023-08-29 17:07:55 categories: 番外:小·意·思 excerpt: 上下標(biāo)號(hào)、標(biāo)點(diǎn)、運(yùn)算符、標(biāo)號(hào)、時(shí)間相關(guān)、語(yǔ)言、貨幣、音樂(lè)、形狀符號(hào)、其他符號(hào)。 comments: false tags: top_image: /images/backimg/SunsetClimbing.png 簡(jiǎn)單的爬取圖片

    2024年02月13日
    瀏覽(23)
  • 爬蟲(chóng)實(shí)例(二)—— 爬取高清4K圖片

    爬蟲(chóng)實(shí)例(二)—— 爬取高清4K圖片

    大家好,我是 Enovo飛魚(yú),今天繼續(xù)分享一個(gè)爬蟲(chóng)案例,爬取高清4K圖片,加油??。 ? ? 目錄 前言 增加異常處理 增加代碼靈活性 基本環(huán)境配置 爬取目標(biāo)網(wǎng)站 分析網(wǎng)站頁(yè)面 具體代碼實(shí)現(xiàn) 圖片下載示例 感謝支持???+?? ? ? 上篇內(nèi)容,我們已經(jīng)了解并驚嘆于5行Python代碼的強(qiáng)

    2024年02月21日
    瀏覽(775)
  • 利用爬蟲(chóng)爬取圖片并保存

    1 問(wèn)題 在工作中,有時(shí)會(huì)遇到需要相當(dāng)多的圖片資源,可是如何才能在短時(shí)間內(nèi)獲得大量的圖片資源呢? 2 方法 我們知道,網(wǎng)頁(yè)中每一張圖片都是一個(gè)連接,所以我們提出利用爬蟲(chóng)爬取網(wǎng)頁(yè)圖片并下載保存下來(lái)。 首先通過(guò)網(wǎng)絡(luò)搜索找到需要的圖片集,將其中圖片鏈接復(fù)制然

    2024年02月13日
    瀏覽(19)
  • Java爬蟲(chóng)爬取圖片壁紙

    Java爬蟲(chóng)爬取圖片壁紙

    以 sougou 圖片為例: https://pic.sogou.com/ JDK17、SpringBoot3.2.X、hutool5.8.24實(shí)現(xiàn)Java爬蟲(chóng),爬取頁(yè)面圖片 開(kāi)發(fā)工具: IDEA2023.2.5 JDK: Java17 SpringBoot: 3.2.x 通過(guò) SpringBoot 快速構(gòu)建開(kāi)發(fā)環(huán)境,通過(guò) Jsoup 實(shí)現(xiàn)對(duì)網(wǎng)頁(yè)的解析,并獲取想要的資源數(shù)據(jù) 使用 hutool 工具,將所需要的字符串轉(zhuǎn)成 J

    2024年01月17日
    瀏覽(17)
  • 六個(gè)步驟學(xué)會(huì)使用Python爬蟲(chóng)爬取數(shù)據(jù)(爬蟲(chóng)爬取微博實(shí)戰(zhàn))

    六個(gè)步驟學(xué)會(huì)使用Python爬蟲(chóng)爬取數(shù)據(jù)(爬蟲(chóng)爬取微博實(shí)戰(zhàn))

    用python的爬蟲(chóng)爬取數(shù)據(jù)真的很簡(jiǎn)單,只要掌握這六步就好,也不復(fù)雜。以前還以為爬蟲(chóng)很難,結(jié)果一上手,從初學(xué)到把東西爬下來(lái),一個(gè)小時(shí)都不到就解決了。 第一步:安裝requests庫(kù)和BeautifulSoup庫(kù) 在程序中兩個(gè)庫(kù)的書(shū)寫(xiě)是這樣的: 由于我使用的是pycharm進(jìn)行的python編程。所以

    2024年02月08日
    瀏覽(88)
  • 【爬蟲(chóng)】python爬蟲(chóng)爬取網(wǎng)站頁(yè)面(基礎(chǔ)講解)

    【爬蟲(chóng)】python爬蟲(chóng)爬取網(wǎng)站頁(yè)面(基礎(chǔ)講解)

    ??博__主??:米碼收割機(jī) ??技__能??:C++/Python語(yǔ)言 ??公眾號(hào)??:測(cè)試開(kāi)發(fā)自動(dòng)化【獲取源碼+商業(yè)合作】 ??榮__譽(yù)??:阿里云博客專(zhuān)家博主、51CTO技術(shù)博主 ??專(zhuān)__注??:專(zhuān)注主流機(jī)器人、人工智能等相關(guān)領(lǐng)域的開(kāi)發(fā)、測(cè)試技術(shù)。 1. 導(dǎo)入必要的庫(kù) requests 庫(kù)用于發(fā)送HTTP請(qǐng)

    2024年02月08日
    瀏覽(30)
  • 【python爬蟲(chóng)】閑魚(yú)爬蟲(chóng),可以爬取商品

    【python爬蟲(chóng)】閑魚(yú)爬蟲(chóng),可以爬取商品

    目錄 前言 一、介紹 二、爬蟲(chóng)流程 1. 確定并構(gòu)造URL 2. 發(fā)送網(wǎng)絡(luò)請(qǐng)求 3. 解析HTML并提取數(shù)據(jù) 4. 保存數(shù)據(jù) 三、使用代理IP 四、完整代碼 五、總結(jié) 前言 閑魚(yú)是一個(gè)很受歡迎的二手交易平臺(tái),但是由于沒(méi)有開(kāi)放API,我們需要使用爬蟲(chóng)來(lái)獲取數(shù)據(jù)。本文將介紹如何使用Python爬

    2024年02月08日
    瀏覽(30)
  • 【Python 爬蟲(chóng)腳本】Python爬取歌曲

    【Python 爬蟲(chóng)腳本】Python爬取歌曲

    目標(biāo):爬取酷狗音樂(lè) 右鍵--檢查 進(jìn)入網(wǎng)絡(luò),查看所有請(qǐng)求,事先先清空歷史數(shù)據(jù) 點(diǎn)擊刷新,重新進(jìn)入頁(yè)面 找到index請(qǐng)求,在預(yù)覽中可以看到? play_backup_url:\\\"https://webfs.tx.kugou.com/202308251554/97c6fef48119300dd2a238ee8025c521/v2/409ebc56ea4ba76e58d8c89af8d03b6a/KGTX/CLTX001/409ebc56ea4ba76e58d8c89af8d03b6a.

    2024年01月17日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包