国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python爬取圖片(thumbURL和html文件標(biāo)簽分別爬?。?/h1>

這篇具有很好參考價(jià)值的文章主要介紹了python爬取圖片(thumbURL和html文件標(biāo)簽分別爬?。?。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

??當(dāng)查看源代碼,發(fā)現(xiàn)網(wǎng)址在thumbURL之后時(shí),用此代碼:

# 當(dāng)查看源代碼,發(fā)現(xiàn)網(wǎng)址在thumbURL之后時(shí),用此代碼:

import requests

headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:121.0) Gecko/20100101 Firefox/121.0',
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,*/*;q=0.8',
    'Accept-Encoding':'gzip, deflate, br',
    'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2'
}

url = input("請(qǐng)輸入你想保存的圖片的網(wǎng)址:")
response = requests.get(url, headers = headers)
print(response)
print(response.status_code)

file = input("請(qǐng)輸入你想圖片保存在的文件夾名稱:")

import os
os.makedirs(f'./{file}', exist_ok = True)
# 新建目錄,用于存儲(chǔ)圖片
# def makedirs(name, mode=0o777, exist_ok=False):
# 參數(shù)說(shuō)明:
#     name:用于指定要?jiǎng)?chuàng)建目錄的路徑。
#     mode:指定目錄的模式,默認(rèn)模式為八進(jìn)制的 777。類似于 chmod() 方法。
#     exist_ok:可選參數(shù),如果值為 False,當(dāng)要?jiǎng)?chuàng)建的目錄已經(jīng)存在時(shí),拋出 FileExistsError 異常;如果值為True,
#         當(dāng)要?jiǎng)?chuàng)建的目錄已經(jīng)存在時(shí),不會(huì)拋出異常。默認(rèn)值為 False。

import re
html = response.text
image_url_list = re.findall('"thumbURL":"(.*?)",', html, re.S)
# 用于查找得到thumbURL后面的圖片網(wǎng)址,目前還不會(huì)正則表達(dá)式

# print(image_url_list)
q = 0
for url in image_url_list:
   # print(url)
    res=requests.get(url)
    picture=res.content
    q+=1
    with open(f'{file}\\{q}.jpg',mode='wb') as f:
        f.write(picture)
    # 在小貓文件夾下保存圖片,以q為圖片文件名
    

?

#? 當(dāng)用requests.get請(qǐng)求得到的源代碼是html文件,每一行是一個(gè)標(biāo)簽時(shí),可以用此代碼

# 當(dāng)用requests.get請(qǐng)求得到的源代碼是html文件,每一行是一個(gè)標(biāo)簽時(shí),可以用此代碼
import requests
from bs4 import BeautifulSoup

headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:121.0) Gecko/20100101 Firefox/121.0',
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,*/*;q=0.8',
    'Accept-Encoding':'gzip, deflate, br',
    'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2'
}

url = input("請(qǐng)輸入你想保存的圖片的網(wǎng)址:")
response = requests.get(url, headers = headers)
print(response)
print(response.status_code)

file = input("請(qǐng)輸入你想圖片保存在的文件夾名稱:")
# response=requests.get('https://www.umei.cc/meinvtupian/')
response.encoding='utf-8'
# print(response.text)
soup=BeautifulSoup(response.text,'html.parser')
# print(soup)
  
import os
os.makedirs(f'./圖片/{file}', exist_ok=True)

lis = soup.find_all('div',class_="taotu-main")
# print(a)
print("*********")

q=0

t = 0
for l in lis:
    if(t == 0):
        print(l)
    t += 1
    p=l.find_all('img')
    for i in p:
        pic=i.get('data-original')
        print(pic)
        res=requests.get(pic)
        picture=res.content
        q+=1
        with open(f'圖片/{file}\\{q}.jpg',mode='wb') as f:
            f.write(picture)

python爬取圖片(thumbURL和html文件標(biāo)簽分別爬?。?python爬蟲,python文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-809780.html

到了這里,關(guān)于python爬取圖片(thumbURL和html文件標(biāo)簽分別爬取)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Python爬蟲——BeautifulSoup,獲取HTML中文檔,標(biāo)簽等內(nèi)容

    Python爬蟲——BeautifulSoup,獲取HTML中文檔,標(biāo)簽等內(nèi)容

    將復(fù)雜的HTML文檔轉(zhuǎn)換成一個(gè)復(fù)雜的樹形結(jié)構(gòu),每個(gè)結(jié)點(diǎn)都是一個(gè)Python對(duì)象,所有對(duì)象可以分為四種: Tag NavigableString BeautifulSoup Comment 首先要引入該函數(shù),再打開相應(yīng)的html文件讀取其中的內(nèi)容,在使用BeautiSoup對(duì)其進(jìn)行解析,解析的時(shí)候要使用相應(yīng)類型的解析器html.parser bs當(dāng)中

    2024年02月06日
    瀏覽(28)
  • 【Python爬蟲開發(fā)基礎(chǔ)⑤】HTML概述與基本標(biāo)簽詳解

    【Python爬蟲開發(fā)基礎(chǔ)⑤】HTML概述與基本標(biāo)簽詳解

    專欄 :python網(wǎng)絡(luò)爬蟲從基礎(chǔ)到實(shí)戰(zhàn) 歡迎訂閱!近期還會(huì)不斷更新~ 往期推薦 : 【Python爬蟲開發(fā)基礎(chǔ)①】Python基礎(chǔ)(變量及其命名規(guī)范) 【Python爬蟲開發(fā)基礎(chǔ)②】Python基礎(chǔ)(正則表達(dá)式) 【Python爬蟲開發(fā)基礎(chǔ)③】Python基礎(chǔ)(文件操作方法匯總) 【Python爬蟲開發(fā)基礎(chǔ)④】爬蟲

    2024年02月09日
    瀏覽(36)
  • 【Python爬蟲開發(fā)實(shí)戰(zhàn)①】使用urllib以及XPath爬取可愛小貓圖片

    【Python爬蟲開發(fā)實(shí)戰(zhàn)①】使用urllib以及XPath爬取可愛小貓圖片

    個(gè)人主頁(yè) :為夢(mèng)而生~ 關(guān)注我一起學(xué)習(xí)吧! 專欄 :python網(wǎng)絡(luò)爬蟲從基礎(chǔ)到實(shí)戰(zhàn) 歡迎訂閱!后面的內(nèi)容會(huì)越來(lái)越有意思~ 往期推薦 : 【Python爬蟲開發(fā)基礎(chǔ)⑦】urllib庫(kù)的基本使用 【Python爬蟲開發(fā)基礎(chǔ)⑧】XPath庫(kù)及其基本用法 我們?cè)谥耙呀?jīng)有8篇文章講述基礎(chǔ)知識(shí)了,下面我們

    2024年02月11日
    瀏覽(168)
  • Python爬蟲之Scrapy框架系列(21)——重寫媒體管道類實(shí)現(xiàn)保存圖片名字自定義及多頁(yè)爬取

    spider文件中要拿到圖片列表并yield item; item里需要定義特殊的字段名:image_urls=scrapy.Field(); settings里設(shè)置IMAGES_STORE存儲(chǔ)路徑,如果路徑不存在,系統(tǒng)會(huì)幫助我們創(chuàng)建; 使用默認(rèn)管道則在s

    2024年02月10日
    瀏覽(94)
  • python爬蟲-獲取某某在線翻譯的查詢結(jié)果,爬取json文件并解析

    python爬蟲-獲取某某在線翻譯的查詢結(jié)果,爬取json文件并解析

    url,請(qǐng)求方式,請(qǐng)求格式,都在此請(qǐng)求的header中 (此內(nèi)容瀏覽器不同顯示內(nèi)容應(yīng)該也是一樣的,我用的edge瀏覽器,我也試過(guò)chrom瀏覽器,效果一樣) ctrl + b進(jìn)入方法體內(nèi)即可 解讀response.text,這是一個(gè)包含Unicode字符的JSON字符串編碼 也許我們需要翻譯一下 將API接口返回的JS

    2024年02月06日
    瀏覽(24)
  • 【爬蟲實(shí)戰(zhàn)】用python爬取微博任意關(guān)鍵詞搜索結(jié)果、exe文件

    【爬蟲實(shí)戰(zhàn)】用python爬取微博任意關(guān)鍵詞搜索結(jié)果、exe文件

    項(xiàng)目功能簡(jiǎn)介: 1.交互式配置; 2.兩種任意來(lái)源(直接輸入、本地文件); 3.自動(dòng)翻頁(yè)(無(wú)限爬取); 4.指定最大翻頁(yè)頁(yè)碼; 5.數(shù)據(jù)保存到csv文件; 6.程序支持打包成exe文件; 7.項(xiàng)目操作說(shuō)明文檔; 一.最終效果 視頻演示: 用python爬取微博搜索結(jié)果、exe文件

    2024年02月02日
    瀏覽(28)
  • Python爬蟲入門之2022軟科中國(guó)大學(xué)排名爬取保存到csv文件

    Python爬蟲入門之2022軟科中國(guó)大學(xué)排名爬取保存到csv文件

    1、獲得“2022軟科中國(guó)大學(xué)排名”數(shù)據(jù),從【軟科排名】2022年最新軟科中國(guó)大學(xué)排名|中國(guó)最好大學(xué)排名網(wǎng)頁(yè)中獲得排名數(shù)據(jù)信息,并將數(shù)據(jù)保存到csv文件中。 2、調(diào)用兩個(gè)CSV文件,將他們合成一個(gè)文件,并按排名先后對(duì)其進(jìn)行排序 3、將合并文件儲(chǔ)存為txt文件和json文件 我們采

    2024年02月07日
    瀏覽(29)
  • 《爬蟲》爬取頁(yè)面圖片并保存

    《爬蟲》爬取頁(yè)面圖片并保存

    title: 《小·意·思》爬取頁(yè)面圖片并保存 date: 2023-08-10 22:12:30 updated: 2023-08-29 17:07:55 categories: 番外:小·意·思 excerpt: 上下標(biāo)號(hào)、標(biāo)點(diǎn)、運(yùn)算符、標(biāo)號(hào)、時(shí)間相關(guān)、語(yǔ)言、貨幣、音樂(lè)、形狀符號(hào)、其他符號(hào)。 comments: false tags: top_image: /images/backimg/SunsetClimbing.png 簡(jiǎn)單的爬取圖片

    2024年02月13日
    瀏覽(22)
  • 爬蟲實(shí)例(二)—— 爬取高清4K圖片

    爬蟲實(shí)例(二)—— 爬取高清4K圖片

    大家好,我是 Enovo飛魚,今天繼續(xù)分享一個(gè)爬蟲案例,爬取高清4K圖片,加油??。 ? ? 目錄 前言 增加異常處理 增加代碼靈活性 基本環(huán)境配置 爬取目標(biāo)網(wǎng)站 分析網(wǎng)站頁(yè)面 具體代碼實(shí)現(xiàn) 圖片下載示例 感謝支持???+?? ? ? 上篇內(nèi)容,我們已經(jīng)了解并驚嘆于5行Python代碼的強(qiáng)

    2024年02月21日
    瀏覽(775)
  • 利用爬蟲爬取圖片并保存

    1 問(wèn)題 在工作中,有時(shí)會(huì)遇到需要相當(dāng)多的圖片資源,可是如何才能在短時(shí)間內(nèi)獲得大量的圖片資源呢? 2 方法 我們知道,網(wǎng)頁(yè)中每一張圖片都是一個(gè)連接,所以我們提出利用爬蟲爬取網(wǎng)頁(yè)圖片并下載保存下來(lái)。 首先通過(guò)網(wǎng)絡(luò)搜索找到需要的圖片集,將其中圖片鏈接復(fù)制然

    2024年02月13日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包