国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python爬蟲:實現(xiàn)爬取、下載網(wǎng)站數(shù)據(jù)的幾種方法

這篇具有很好參考價值的文章主要介紹了Python爬蟲:實現(xiàn)爬取、下載網(wǎng)站數(shù)據(jù)的幾種方法。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

使用腳本進行下載的需求很常見,可以是常規(guī)文件、web頁面、Amazon S3和其他資源。Python 提供了很多模塊從 web 下載文件。下面介紹

一、使用 requests

requests 模塊是模仿網(wǎng)頁請求的形式從一個URL下載文件

示例代碼:

import requests

url = 'xxxxxxxx'  # 目標下載鏈接
r = requests.get(url)  # 發(fā)送請求
# 保存
with open ('r.txt', 'rb') as f:
    f.write(r.content)
    f.close

二、使用 wget

安裝 wget 庫

pip install wget

示例代碼

import wget

url = 'https://pic.cnblogs.com/avatar/1197773/20170712160655.png'  # 目標路由,下載的資源是圖片
path = 'D:/x.png'  # 保存的路徑
wget.download(url, path)  # 下載

三、下載重定向資源

有些 URL 會被重定向到另一個 URL,后者是真正的下載鏈接。很多軟件的下載其實都是這樣的形式。URL看起來如下

https://readthedocs.org/projects/python-guide/downloads/pdf/latest

重定向的 URL 也可以用 requests 庫進行下載,只需加一個參數(shù)就可以

import requests

url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'

# allow_redirect參數(shù)True表示允許重定向
r = requests.get(url, allow_redirect=True)
with open('r.txt', 'wb') as f:
    f.write(r)
    f.close()

四、大文件分塊下載

有些文件非常的大,如果我們直接下載,可能會因為事件原因或者網(wǎng)絡(luò)原因造成下載失敗,這時候我可以使用分塊下載的形式進行下載。

requests 支持分塊下載,只需要將 stream 設(shè)為True 即可

import requests

url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'

# stream參數(shù)True表示分塊下載
r = requests.get(url, stream=True)
with open('r.txt', 'wb') as f:
    for ch in r:
        f.write(r)
    f.close()

五、并行下載

多線程、多進程并發(fā)下載,大大提高下載速度

import requests
from multiprocessing.poll import Pool

# 定義下載函數(shù)
def url_response(url):
    path, url = url
    r = requests.get(url, stream=True)
    with open(path, 'wb') as f:
        for ch in r:
            f.write(ch)
        f.close()

urls = ['aaa', 'bbb', 'ccc']  # 假設(shè)有好多個下載鏈接

# 排隊下載的方式
for x in urls:
    url_response(x)

# 并行下載的方式
ThreadPool(3).imap_unordered(url_response, urls)

六、下載中加入進度條

使用進度條更直觀的查看下載進度,這里使用 clint 模塊實現(xiàn)進度條功能

pip install clint

下載

import requests
from clint.textui import progess

url = 'xxxxxxxxxxx'
r = requests.get(url, stream=True)
with open('x.txt', 'wb') as f
    total_length = int(r.headers.get('content-length'))
    for ch in progress.bar(r.iter_content(chunk_size=2391975, expected)size=(total_length/1024)+1)):
        if ch:
            f.write(ch)
    f.close()

七、使用 urllib 模塊下載

urllib庫是Python的標準庫,因此不需要安裝它。

下載代碼

urllib.request.urlretrieve(URL, PATH)

八、通過代理下載

因為一些眾所周知的原因我們下載國外的資源會非常的慢,這時候可以使用代理的方式進行下載

requests 模塊使用代理

import requests

# 定義代理,假設(shè)本機上有個梯子的服務(wù),代理端口是2258
proxy = {'http': 'http://127.0.0.1:2258'} 

url = 'xxxxxx'
r = requests.get(url, proxies=proxy )
.......

urllib 模塊使用代理

import urllib.request
#Python小白學習交流群:153708845
url = 'xxxxxxxxxx'
proxy = urllib.request.ProxyHandler({'http': '127.0.0.1'})
open_proxy = urllib.request.build_opener(proxy )  # 打開代理
urllib.request.urlretrieve(url)

九、使用 urllib3

urllib3 是 urllib 模塊的改進版本。使用pip下載并安裝文章來源地址http://www.zghlxwxcb.cn/news/detail-750477.html

pip install urllib3

到了這里,關(guān)于Python爬蟲:實現(xiàn)爬取、下載網(wǎng)站數(shù)據(jù)的幾種方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包