国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

用python爬取某個圖片網(wǎng)站的圖片

這篇具有很好參考價值的文章主要介紹了用python爬取某個圖片網(wǎng)站的圖片。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、爬取單張圖片

# 爬取單張圖片
import requests  # 導(dǎo)入requests庫

url = "https://scpic.chinaz.net/files/pic/pic9/202112/hpic4875.jpg"  # 圖片地址
response = requests.get(url)  # 獲取圖片
with open("img/test1.jpg", "wb") as f:  # wb:寫入二進(jìn)制文件
    f.write(response.content)  # 寫入圖片
print("圖片下載完成")

2、爬取批量圖片

# 爬取批量圖片
import requests  # 導(dǎo)入requests庫
import os  # 導(dǎo)入os庫
from bs4 import BeautifulSoup  # 從bs4庫中導(dǎo)入BeautifulSoup

name_path = 'img2'
if not os.path.exists(name_path):  # 判斷文件夾是否存在
    os.mkdir(name_path)  # 創(chuàng)建文件夾


def getUrl():
    url = "https://sc.chinaz.com/tupian/gudianmeinvtupian.html"  # 圖片地址
    response = requests.get(url)
    img_txt = BeautifulSoup(response.content, "html.parser")  # 解析網(wǎng)頁
    find = img_txt.find("div", attrs={'class': 'tupian-list com-img-txt-list'})  # 查找圖片
    find_all = find.find_all("div", attrs={'class': 'item'})  # 查找所有圖片
    for i in find_all:
        url = 'https:' + i.find('img').get('data-original')  # 獲取圖片地址
        name = i.find('a').text  # 獲取圖片名字
        # print(name, url)
        try:
            getImg(url, name)  # 調(diào)用getImg方法
        except:  # 相當(dāng)于java中的catch
            print("下載失敗");
            continue  # 如果下載失敗,跳過


def getImg(ImageUrl, ImageName):
    response = requests.get(ImageUrl).content  # 獲取圖片
    with open(f'{name_path}/{ImageName}.jpg', 'wb') as f:  # 保存圖片,wb表示寫入二進(jìn)制文件
        f.write(response)
    print(ImageName, "下載完成")


if __name__ == '__main__':
    getUrl()

3、如果一個網(wǎng)頁的圖片很多,可以進(jìn)行分頁爬取文章來源地址http://www.zghlxwxcb.cn/news/detail-705062.html

# 分頁爬取圖片
import requests  # 導(dǎo)入requests庫
import os  # 導(dǎo)入os庫
from bs4 import BeautifulSoup  # 從bs4庫中導(dǎo)入BeautifulSoup

name_path = 'img2'
if not os.path.exists(name_path):  # 判斷文件夾是否存在
    os.mkdir(name_path)  # 創(chuàng)建文件夾

Sum = 0  # 用于記錄下載的圖片數(shù)量


def getUrl(num):
    if num == '1':  # 第一頁特殊處理
        url = "https://sc.chinaz.com/tupian/gudianmeinvtupian.html"
    else:
        url = f"https://sc.chinaz.com/tupian/gudianmeinvtupian_{num}.html"  # 圖片地址
    response = requests.get(url)
    img_txt = BeautifulSoup(response.content, "html.parser")  # 解析網(wǎng)頁
    find = img_txt.find("div", attrs={'class': 'tupian-list com-img-txt-list'})  # 查找圖片
    find_all = find.find_all("div", attrs={'class': 'item'})  # 查找所有圖片
    for i in find_all:
        url = 'https:' + i.find('img').get('data-original')  # 獲取圖片地址
        name = i.find('a').text  # 獲取圖片名字
        # print(name, url)
        try:
            getImg(url, name)  # 調(diào)用getImg方法
        except:  # 相當(dāng)于java中的catch
            print("下載失敗");
            continue  # 如果下載失敗,跳過


def getImg(ImageUrl, ImageName):
    response = requests.get(ImageUrl).content  # 獲取圖片
    with open(f'{name_path}/{ImageName}.jpg', 'wb') as f:  # 保存圖片,wb表示寫入二進(jìn)制文件
        f.write(response)
    print(ImageName, "下載完成")
    global Sum
    Sum += 1


if __name__ == '__main__':
    num = input_num = input("請輸入要爬取的總頁數(shù):[1-7]\n")
    if (int(num) > 7):
        print("輸入有誤,最大為7")
        exit()
    else:
        for i in range(1, int(num) + 1):
            getUrl(num)
            print(f"第{i}頁爬取完成")
        print(f"共下載{Sum}張圖片")

到了這里,關(guān)于用python爬取某個圖片網(wǎng)站的圖片的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Python 爬蟲:如何用 BeautifulSoup 爬取網(wǎng)頁數(shù)據(jù)

    Python 爬蟲:如何用 BeautifulSoup 爬取網(wǎng)頁數(shù)據(jù)

    在網(wǎng)絡(luò)時代,數(shù)據(jù)是最寶貴的資源之一。而爬蟲技術(shù)就是一種獲取數(shù)據(jù)的重要手段。Python 作為一門高效、易學(xué)、易用的編程語言,自然成為了爬蟲技術(shù)的首選語言之一。而 BeautifulSoup 則是 Python 中最常用的爬蟲庫之一,它能夠幫助我們快速、簡單地解析 HTML 和 XML 文檔,從而

    2024年02月04日
    瀏覽(92)
  • Python爬蟲|使用Selenium輕松爬取網(wǎng)頁數(shù)據(jù)

    Python爬蟲|使用Selenium輕松爬取網(wǎng)頁數(shù)據(jù)

    1. 什么是selenium? Selenium是一個用于Web應(yīng)用程序自動化測試工具。Selenium測試直接運行在瀏覽器中,就像真正的用戶在操作瀏覽器一樣。支持的瀏覽器包括IE,F(xiàn)irefox,Safari,Chrome等。 Selenium可以驅(qū)動瀏覽器自動執(zhí)行自定義好的邏輯代碼,也就是可以通過代碼完全模擬成人類使用

    2024年02月04日
    瀏覽(32)
  • 初學(xué)python爬蟲學(xué)習(xí)筆記——爬取網(wǎng)頁中小說標(biāo)題

    初學(xué)python爬蟲學(xué)習(xí)筆記——爬取網(wǎng)頁中小說標(biāo)題

    一、要爬取的網(wǎng)站小說如下圖 二、打開網(wǎng)頁的“檢查”,查看html頁面 發(fā)現(xiàn)每個標(biāo)題是列表下的一個個超鏈接,從183.html到869.html 可以使用for循環(huán)依次得到: 三、具體代碼如下: 第一次學(xué)習(xí)爬蟲,能得出查詢結(jié)果,心中還是無限的高興。 不過,還是發(fā)現(xiàn)的很多,比如for循環(huán)

    2024年02月09日
    瀏覽(25)
  • python爬蟲實戰(zhàn) scrapy+selenium爬取動態(tài)網(wǎng)頁

    python爬蟲實戰(zhàn) scrapy+selenium爬取動態(tài)網(wǎng)頁

    最近學(xué)習(xí)了scrapy爬蟲框架,想要找個目標(biāo)練練手。由于現(xiàn)在很多網(wǎng)頁都是動態(tài)的,因此還需要配合selenium爬取。本文旨在記錄這次學(xué)習(xí)經(jīng)歷,如有疑問或不當(dāng)之處,可以在評論區(qū)指出,一起學(xué)習(xí)。 對scrapy不了解的同學(xué)可以閱讀這篇文章 爬蟲框架 Scrapy 詳解,對scrapy框架介紹的

    2024年02月07日
    瀏覽(51)
  • Python爬蟲:如何使用Python爬取網(wǎng)站數(shù)據(jù)

    更新:2023-08-13 15:30 想要獲取網(wǎng)站的數(shù)據(jù)?使用Python爬蟲是一個絕佳的選擇。Python爬蟲是通過自動化程序來提取互聯(lián)網(wǎng)上的信息。本文章將會詳細(xì)介紹Python爬蟲的相關(guān)技術(shù)。 在使用Python爬蟲之前,我們需要理解網(wǎng)絡(luò)協(xié)議和請求。HTTP是網(wǎng)絡(luò)傳輸?shù)闹匾獏f(xié)議,它是在Web瀏覽器和

    2024年02月13日
    瀏覽(31)
  • Python應(yīng)用開發(fā)——爬取網(wǎng)頁圖片

    Python應(yīng)用開發(fā)——爬取網(wǎng)頁圖片

    當(dāng)我們需要從網(wǎng)頁上面下載很多圖片的時候,一個一個手動保存實在是太累人了。那么有沒有批量下載的辦法呢? 答案是有的,Python爬蟲就可以完美的做到這一點,而且作為一個Python的初學(xué)者,我可以很負(fù)責(zé)任的告訴你,這門語言入門挺簡單的,特別是對于那些有其他編程語

    2024年02月02日
    瀏覽(31)
  • 輕松爬取網(wǎng)頁數(shù)據(jù):低代碼&零編程技巧的自動化爬蟲神器!

    輕松爬取網(wǎng)頁數(shù)據(jù):低代碼&零編程技巧的自動化爬蟲神器!

    在以前的文章中,我們學(xué)習(xí)了通過playwright+python+requests可以實現(xiàn)繞過瀏覽器鑒權(quán)進(jìn)行接口請求。 在曾經(jīng)的一次數(shù)據(jù)爬取的時候,我嘗試去獲取Boss直聘的崗位信息,可是很不巧,boss直聘的反爬機(jī)制把我的IP直接封了,妙啊。 在這里給大家推薦一款工具:亮數(shù)據(jù)。 他可以使用真

    2024年02月03日
    瀏覽(24)
  • 【python爬蟲】—圖片爬取

    【python爬蟲】—圖片爬取

    從https://pic.netbian.com/4kfengjing/網(wǎng)站爬取圖片,并保存 獲取待爬取網(wǎng)頁 獲取所有圖片,并下載 爬取結(jié)果展示

    2024年02月10日
    瀏覽(91)
  • Python爬蟲 爬取圖片

    Python爬蟲 爬取圖片

    在我們?nèi)粘I暇W(wǎng)瀏覽網(wǎng)頁的時候,經(jīng)常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設(shè)計的素材。 我們最常規(guī)的做法就是通過鼠標(biāo)右鍵,選擇另存為。但有些圖片鼠標(biāo)右鍵的時候并沒有另存為選項,還有辦法就通過就是通過

    2024年02月13日
    瀏覽(92)
  • [爬蟲篇]Python爬蟲之爬取網(wǎng)頁音頻_爬蟲怎么下載已經(jīng)找到的聲頻

    [爬蟲篇]Python爬蟲之爬取網(wǎng)頁音頻_爬蟲怎么下載已經(jīng)找到的聲頻

    audio_DATA_get = requests.get(url=audio_DATA,headers=headers) audio_DATA_get_text = audio_DATA_get.text audio_DATA_download_url = re.findall(‘“src”:“(.*?)”’,audio_DATA_get_text) print(audio_DATA_download_url) download_data_url = audio_DATA_download_url[0] try: open_download_data_url = urllib.request.urlopen(download_data_url) except: print(downlo

    2024年04月22日
    瀏覽(98)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包