国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

5分鐘上手Python爬蟲(chóng):從干飯開(kāi)始,輕松掌握技巧

這篇具有很好參考價(jià)值的文章主要介紹了5分鐘上手Python爬蟲(chóng):從干飯開(kāi)始,輕松掌握技巧。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

很多人都聽(tīng)說(shuō)過(guò)爬蟲(chóng),我也不例外。曾看到別人編寫(xiě)的爬蟲(chóng)代碼,雖然沒(méi)有深入研究,但感覺(jué)非常強(qiáng)大。因此,今天我決定從零開(kāi)始,花費(fèi)僅5分鐘學(xué)習(xí)入門(mén)爬蟲(chóng)技術(shù),以后只需輕輕一爬就能查看所有感興趣的網(wǎng)站內(nèi)容。廣告?不存在的,因?yàn)槲铱床灰?jiàn)。爬蟲(chóng)只會(huì)獲取我感興趣的信息,不需要的內(nèi)容對(duì)我而言只是一堆代碼。我們不在乎網(wǎng)站的界面,爬取完數(shù)據(jù)后只會(huì)關(guān)注最核心的內(nèi)容。

在這個(gè)過(guò)程中,技術(shù)方面實(shí)際上沒(méi)有太多復(fù)雜的內(nèi)容,實(shí)際上就是一項(xiàng)耐心細(xì)致的工作。因此才會(huì)有那么多人選擇從事爬蟲(chóng)兼職工作,因?yàn)殡m然耗時(shí)較長(zhǎng),但技術(shù)要求并不是很高。今天學(xué)完之后,你就不會(huì)像我一樣認(rèn)為爬蟲(chóng)很困難了?;蛟S在未來(lái)你會(huì)需要考慮如何保持會(huì)話(session)或者繞過(guò)驗(yàn)證等問(wèn)題,因?yàn)榫W(wǎng)站越難爬取,說(shuō)明對(duì)方并不希望被爬取。實(shí)際上,這部分內(nèi)容是最具挑戰(zhàn)性的,有機(jī)會(huì)的話我們可以在以后的學(xué)習(xí)中深入討論。

今天我們以選擇菜譜為案例,來(lái)解決我們?cè)诔燥垥r(shí)所面臨的“吃什么”的生活難題。

爬蟲(chóng)解析

爬蟲(chóng)的工作原理類似于模擬用戶在瀏覽網(wǎng)站時(shí)的操作:首先訪問(wèn)官方網(wǎng)站,檢查是否有需要點(diǎn)擊的鏈接,若有,則繼續(xù)點(diǎn)擊查看。當(dāng)直接發(fā)現(xiàn)所需的圖片或文字時(shí),即可進(jìn)行下載或復(fù)制。這種爬蟲(chóng)的基本架構(gòu)如圖所示,希望這樣的描述能幫助你更好地理解。

5分鐘上手Python爬蟲(chóng):從干飯開(kāi)始,輕松掌握技巧

爬網(wǎng)頁(yè)HTML

在進(jìn)行爬蟲(chóng)工作時(shí),我們通常從第一步開(kāi)始,即發(fā)送一個(gè)HTTP請(qǐng)求以獲取返回的數(shù)據(jù)。在我們的工作中,通常會(huì)請(qǐng)求一個(gè)鏈接以獲取JSON格式的信息,以便進(jìn)行業(yè)務(wù)處理。然而,爬蟲(chóng)的工作方式略有不同,因?yàn)槲覀冃枰紫全@取網(wǎng)頁(yè)內(nèi)容,因此這一步通常返回的是HTML頁(yè)面。在Python中,有許多請(qǐng)求庫(kù)可供選擇,我只舉一個(gè)例子作為參考,但你可以根據(jù)實(shí)際需求選擇其他第三方庫(kù),只要能夠完成任務(wù)即可。

在開(kāi)始爬蟲(chóng)工作之前,首先需要安裝所需的第三方庫(kù)依賴。這部分很簡(jiǎn)單,只需根據(jù)需要安裝相應(yīng)的庫(kù)即可,沒(méi)有太多復(fù)雜的步驟。

讓我們不多廢話,直接看下面的代碼示例:

from urllib.request import urlopen,Request
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0'}
req = Request("https://www.meishij.net/?from=space_block",headers=headers)
# 發(fā)出請(qǐng)求,獲取html
# 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
html = urlopen(req)
html_text = bytes.decode(html.read())
print(html_text)

通常情況下,我們可以獲取這個(gè)菜譜網(wǎng)頁(yè)的完整內(nèi)容,就像我們?cè)跒g覽器中按下F12查看的網(wǎng)頁(yè)源代碼一樣。

解析元素

最笨的方法是使用字符串解析,但由于Python有許多第三方庫(kù)可以解決這個(gè)問(wèn)題,因此我們可以使用BeautifulSoup來(lái)解析HTML。其他更多的解析方法就不一一介紹了,我們需要用到什么就去搜索即可,不需要經(jīng)常使用的也沒(méi)必要死記硬背。

熱搜菜譜

在這里,讓我們對(duì)熱門(mén)搜索中的菜譜進(jìn)行解析和分析。

from urllib.request import urlopen,Request
from bs4 import BeautifulSoup as bf
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0'}
req = Request("https://www.meishij.net/?from=space_block",headers=headers)
# 發(fā)出請(qǐng)求,獲取html
# 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
html = urlopen(req)
html_text = bytes.decode(html.read())
# print(html_text)
 # 用BeautifulSoup解析html
obj = bf(html_text,'html.parser')
# print(html_text)
# 使用find_all函數(shù)獲取所有圖片的信息
index_hotlist = obj.find_all('a',class_='sancan_item')
# 分別打印每個(gè)圖片的信息
for ul in index_hotlist:
    for li in ul.find_all('strong',class_='title'):
        print(li.get_text())

主要步驟是,首先在上一步中打印出HTML頁(yè)面,然后通過(guò)肉眼觀察確定所需內(nèi)容位于哪個(gè)元素下,接著利用BeautifulSoup定位該元素并提取出所需信息。在我的情況下,我提取的是文字內(nèi)容,因此成功提取了所有l(wèi)i列表元素。

隨機(jī)干飯

在生活中,實(shí)際上干飯并不復(fù)雜,難點(diǎn)在于選擇吃什么。因此,我們可以將所有菜譜解析并存儲(chǔ)在一個(gè)列表中,然后讓程序隨機(jī)選擇菜譜。這樣,就能更輕松地解決每頓飯吃什么的難題了。

隨機(jī)選取一道菜時(shí),可以使用以下示例代碼:

from urllib.request import urlopen,Request
from bs4 import BeautifulSoup as bf
for i in range(3):
    url = f"https://www.meishij.net/chufang/diy/jiangchangcaipu/?&page={i}"
    html = urlopen(url)
    # 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
    html_text = bytes.decode(html.read())
    # print(html_text)
    obj = bf(html_text,'html.parser')
    index_hotlist = obj.find_all('img')
    for p in index_hotlist:
        if p.get('alt'):
            print(p.get('alt'))

這里我們?cè)谶@個(gè)網(wǎng)站上找到了新的鏈接地址,我已經(jīng)獲取了前三頁(yè)的數(shù)據(jù),并進(jìn)行了隨機(jī)選擇,你可以選擇全部獲取。

菜譜教程

其實(shí)上一步已經(jīng)完成了,接下來(lái)只需下單外賣(mài)了。外賣(mài)種類繁多,但對(duì)于像我這樣的顧家奶爸來(lái)說(shuō)并不合適,因此我必須自己動(dòng)手做飯。這時(shí)候教程就顯得尤為重要了。

我們現(xiàn)在繼續(xù)深入解析教程內(nèi)容:

from urllib.request import urlopen,Request
import urllib,string
from bs4 import BeautifulSoup as bf

url = f"https://so.meishij.net/index.php?q=紅燒排骨"
url = urllib.parse.quote(url, safe=string.printable)
html = urlopen(url)
# 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
html_text = bytes.decode(html.read())
obj = bf(html_text,'html.parser')
index_hotlist = obj.find_all('a',class_='img')
# 分別打印每個(gè)圖片的信息
url = index_hotlist[0].get('href')
html = urlopen(url)
html_text = bytes.decode(html.read())
obj = bf(html_text,'html.parser')
index_hotlist = obj.find_all('div',class_='step_content')
for div in index_hotlist:
    for p in div.find_all('p'):
        print(p.get_text())

包裝一下

上面提到的方法已經(jīng)滿足了我們的需求,但是重復(fù)手動(dòng)執(zhí)行每個(gè)步驟并不是一個(gè)高效的方式。因此,我將這些步驟封裝成一個(gè)簡(jiǎn)單的應(yīng)用程序。這個(gè)應(yīng)用程序使用控制臺(tái)作為用戶界面,不需要依賴任何第三方庫(kù)。讓我們一起來(lái)看一下這個(gè)應(yīng)用程序吧:

# 導(dǎo)入urllib庫(kù)的urlopen函數(shù)
from urllib.request import urlopen,Request
import urllib,string
# 導(dǎo)入BeautifulSoup
from bs4 import BeautifulSoup as bf
from random import choice,sample
from colorama import init
from os import system
from termcolor import colored
from readchar import  readkey


FGS = ['green', 'yellow', 'blue', 'cyan', 'magenta', 'red']
print(colored('搜索食譜中.....',choice(FGS)))
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0'}
req = Request("https://www.meishij.net/?from=space_block",headers=headers)
# 發(fā)出請(qǐng)求,獲取html
# 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
html = urlopen(req)
html_text = bytes.decode(html.read())
hot_list = []
all_food = []
food_page = 3


# '\n'.join(pos(y, OFFSET[1]) + ' '.join(color(i) for i in l)
def draw_menu(menu_list):
    clear()
    for idx,i in enumerate(menu_list):
        print(colored(f'{idx}:{i}',choice(FGS)))
    print(colored('8:隨機(jī)選擇',choice(FGS)))


def draw_word(word_list):
    clear()
    for i in word_list:
        print(colored(i,choice(FGS)))

def clear():
    system("CLS")

def hot_list_func() :
    global html_text
    # 用BeautifulSoup解析html
    obj = bf(html_text,'html.parser')
    # print(html_text)
    # 使用find_all函數(shù)獲取所有圖片的信息
    index_hotlist = obj.find_all('a',class_='sancan_item')
    # 分別打印每個(gè)圖片的信息
    for ul in index_hotlist:
        for li in ul.find_all('strong',class_='title'):
            hot_list.append(li.get_text())
            # print(li.get_text())

def search_food_detail(food) :
    print('正在搜索詳細(xì)教程,請(qǐng)稍等30秒左右!')
    url = f"https://so.meishij.net/index.php?q={food}"
    # print(url)
    url = urllib.parse.quote(url, safe=string.printable)
    html = urlopen(url)
    # 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
    html_text = bytes.decode(html.read())
    obj = bf(html_text,'html.parser')
    index_hotlist = obj.find_all('a',class_='img')
    # 分別打印每個(gè)圖片的信息
    url = index_hotlist[0].get('href')
    # print(url)
    html = urlopen(url)
    html_text = bytes.decode(html.read())
    # print(html_text)
    obj = bf(html_text,'html.parser')
    random_color = choice(FGS)
    print(colored(f"{food}做法:",random_color))
    index_hotlist = obj.find_all('div',class_='step_content')
    # print(index_hotlist)
    random_color = choice(FGS)
    for div in index_hotlist:
        for p in div.find_all('p'):
            print(colored(p.get_text(),random_color))



def get_random_food():
    global food_page
    if not all_food :
        for i in range(food_page):
            url = f"https://www.meishij.net/chufang/diy/jiangchangcaipu/?&page={i}"
            html = urlopen(url)
            # 獲取的html內(nèi)容是字節(jié),將其轉(zhuǎn)化為字符串
            html_text = bytes.decode(html.read())
            # print(html_text)
            obj = bf(html_text,'html.parser')
            index_hotlist = obj.find_all('img')
            for p in index_hotlist:
                if p.get('alt'):
                    all_food.append(p.get('alt'))
    my_food = choice(all_food)
    print(colored(f'隨機(jī)選擇,今天吃:{my_food}',choice(FGS)))
    return my_food


init() ## 命令行輸出彩色文字
hot_list_func()
print(colored('已搜索完畢!',choice(FGS)))
my_array = list(range(0, 9))
my_key = ['q','c','d','m']
my_key.extend(my_array)
print(colored('m:代表今日菜譜',choice(FGS)))
print(colored('c:代表清空控制臺(tái)',choice(FGS)))
print(colored('d:代表菜譜教程',choice(FGS)))
print(colored('q:退出菜譜',choice(FGS)))
print(colored('0~8:選擇菜譜中的菜',choice(FGS)))
while True:
    while True:
        move = readkey()
        if move in my_key or (move.isdigit() and int(move) <= len(random_food)):
            break
    if move == 'q': ## 鍵盤(pán)‘Q’是退出
        break
    if move == 'c': ## 鍵盤(pán)‘C’是清空控制臺(tái)
        clear()
    if move == 'm':
        random_food = sample(hot_list,8)
        draw_menu(random_food)
    if move.isdigit() and int(move) <= len(random_food):
        if int(move) == 8:
            my_food = get_random_food()
        else:
            my_food = random_food[int(move)]
        print(my_food)
    if move == 'd' and my_food : ## 鍵盤(pán)‘D’是查看教程
        search_food_detail(my_food)
        my_food = ''

完成一個(gè)簡(jiǎn)單的小爬蟲(chóng)其實(shí)并不復(fù)雜,如果不考慮額外的封裝步驟,僅需5分鐘即可完成,這已經(jīng)足夠快速讓你入門(mén)爬蟲(chóng)技術(shù)。開(kāi)始爬取某個(gè)網(wǎng)站的數(shù)據(jù)實(shí)際上是一項(xiàng)細(xì)致的工作。只需在網(wǎng)上搜索相關(guān)技術(shù)信息,找到適合的方法即可,如果有效就繼續(xù)使用,不行就試試其他方法。

總結(jié)

本文的重點(diǎn)在于引導(dǎo)讀者如何初步掌握爬蟲(chóng)技術(shù)。初步掌握爬蟲(chóng)技術(shù)并不難,但是在實(shí)際操作中可能會(huì)遇到一些困難,比如一些網(wǎng)站不允許直接訪問(wèn),需要登錄或者進(jìn)行各種人機(jī)驗(yàn)證等。因此,最好先從爬取一些新聞資訊類的網(wǎng)站開(kāi)始,因?yàn)檫@樣相對(duì)容易。涉及用戶支付等敏感信息的網(wǎng)站就不那么容易獲取了。因此,在入門(mén)階段,建議不要糾結(jié)于選擇一個(gè)復(fù)雜的網(wǎng)站,先嘗試入門(mén)即可。一旦理解了基本原理,遇到問(wèn)題時(shí)就可以考慮添加組件或者使用第三方庫(kù)來(lái)解決。

最終,我真誠(chéng)地希望本文對(duì)你有所幫助。如果你覺(jué)得內(nèi)容有趣或有用,不妨動(dòng)動(dòng)小手,點(diǎn)個(gè)關(guān)注支持一下,嘻嘻。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-840157.html

到了這里,關(guān)于5分鐘上手Python爬蟲(chóng):從干飯開(kāi)始,輕松掌握技巧的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 不會(huì)數(shù)學(xué)統(tǒng)計(jì)沒(méi)關(guān)系——5分鐘教你輕松掌握箱線圖

    不會(huì)數(shù)學(xué)統(tǒng)計(jì)沒(méi)關(guān)系——5分鐘教你輕松掌握箱線圖

    箱線圖也稱箱須圖、箱形圖、盒圖,用于反映一組或多組連續(xù)型定量數(shù)據(jù)分布的中心位置和散布范圍。箱形圖包含數(shù)學(xué)統(tǒng)計(jì)量,不僅能夠分析不同類別數(shù)據(jù)各層次水平差異,還能揭示數(shù)據(jù)間離散程度、異常值、分布差異等等。 箱線圖(Box plot)也稱箱須圖(Box-whisker Plot)、箱

    2024年01月25日
    瀏覽(32)
  • 輕松掌握Flutter中的鍵盤(pán)操作技巧

    嗨!這里是 甜瓜看代碼 ,我們來(lái)聊聊如何避免你的用戶在鍵盤(pán)彈起時(shí)受到驚嚇。 ??我們都知道,在Flutter中,可以通過(guò)TextField或TextFormField來(lái)實(shí)現(xiàn)文本輸入框。但是,這些輸入框與鍵盤(pán)之間的交互可能會(huì)導(dǎo)致一些棘手的問(wèn)題,例如鍵盤(pán)覆蓋輸入框、滾動(dòng)問(wèn)題等等。下面是一

    2024年02月11日
    瀏覽(17)
  • C++ 異常處理機(jī)制詳解:輕松掌握異常處理技巧

    C++ 異常處理機(jī)制允許程序在運(yùn)行時(shí)處理錯(cuò)誤或意外情況。它提供了捕獲和處理錯(cuò)誤的一種結(jié)構(gòu)化方式,使程序更加健壯和可靠。 異常: 程序在運(yùn)行時(shí)發(fā)生的錯(cuò)誤或意外情況。 拋出異常: 使用 throw 將異常傳遞給調(diào)用堆棧。 捕獲異常: 使用 try-catch 塊捕獲和處理異常。 異

    2024年04月28日
    瀏覽(36)
  • 快速上手Webpack打包指南:用簡(jiǎn)單的步驟掌握Webpack的使用技巧

    快速上手Webpack打包指南:用簡(jiǎn)單的步驟掌握Webpack的使用技巧

    Webpack的打包過(guò)程可以總結(jié)為以下幾個(gè)步驟: 1.入口點(diǎn)配置:在Webpack的配置文件中,我們需要指定一個(gè)或多個(gè)入口點(diǎn)(entry points),這些入口點(diǎn)是我們應(yīng)用程序的起點(diǎn),Webpack會(huì)從這些入口點(diǎn)開(kāi)始分析和構(gòu)建依賴關(guān)系。 2.模塊解析:Webpack會(huì)根據(jù)入口點(diǎn)的依賴關(guān)系圖,遞歸地解析

    2024年02月15日
    瀏覽(31)
  • 每天五分鐘計(jì)算機(jī)視覺(jué):掌握遷移學(xué)習(xí)使用技巧

    每天五分鐘計(jì)算機(jī)視覺(jué):掌握遷移學(xué)習(xí)使用技巧

    隨著深度學(xué)習(xí)的發(fā)展,遷移學(xué)習(xí)已成為一種流行的機(jī)器學(xué)習(xí)方法,它能夠?qū)㈩A(yù)訓(xùn)練模型應(yīng)用于各種任務(wù),從而實(shí)現(xiàn)快速模型訓(xùn)練和優(yōu)化。然而,要想充分利用遷移學(xué)習(xí)的優(yōu)勢(shì),我們需要掌握一些關(guān)鍵技巧。本文將介紹這些技巧,幫助您更好地應(yīng)用遷移學(xué)習(xí)技術(shù)。 選擇合適的預(yù)

    2024年01月23日
    瀏覽(25)
  • 輕松掌握J(rèn)avaScript字符串操作的10個(gè)小技巧

    ????????在JavaScript中,字符串是一種基本的數(shù)據(jù)類型,表示文本字符序列。JavaScript提供了許多內(nèi)置的字符串操作方法和屬性,可以方便地對(duì)字符串進(jìn)行處理。本教程將介紹一些常用的JavaScript字符串操作。 訪問(wèn)字符串長(zhǎng)度 可以使用 length 屬性獲取一個(gè)字符串的長(zhǎng)度。例如

    2024年02月06日
    瀏覽(37)
  • 從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能④

    從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能④

    ??????個(gè)人簡(jiǎn)介:以山河作禮。 ??????: Python領(lǐng)域新星創(chuàng)作者,CSDN實(shí)力新星認(rèn)證,阿里云社區(qū)專家博主 ????:Web全棧開(kāi)發(fā)專欄:《Web全棧開(kāi)發(fā)》免費(fèi)專欄,歡迎閱讀! ?? JavaScript 可用來(lái)在數(shù)據(jù)被送往服務(wù)器前對(duì) HTML 表單中的這些輸入數(shù)據(jù)進(jìn)行驗(yàn)證。 表單數(shù)據(jù)經(jīng)常需

    2024年02月08日
    瀏覽(28)
  • 從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能①

    從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能①

    ??????個(gè)人簡(jiǎn)介:以山河作禮。 ??????: Python領(lǐng)域新星創(chuàng)作者,CSDN實(shí)力新星認(rèn)證,阿里云社區(qū)專家博主 ????:Web全棧開(kāi)發(fā)專欄:《Web全棧開(kāi)發(fā)》免費(fèi)專欄,歡迎閱讀! ???? JavaScript 是一種腳本語(yǔ)言,用于在 Web 頁(yè)面上執(zhí)行交互式操作和動(dòng)態(tài)效果 。它最初由 Brendan

    2024年02月07日
    瀏覽(27)
  • 從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能⑤

    從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能⑤

    ??????個(gè)人簡(jiǎn)介:以山河作禮。 ??????: Python領(lǐng)域新星創(chuàng)作者,CSDN實(shí)力新星認(rèn)證,阿里云社區(qū)專家博主 ????:Web全棧開(kāi)發(fā)專欄:《Web全棧開(kāi)發(fā)》免費(fèi)專欄,歡迎閱讀! ???? 在 JavaScript 中,函數(shù)可以通過(guò) function 來(lái)定義 。 ?? 函數(shù)定義的一般語(yǔ)法如下: 其中,

    2024年02月08日
    瀏覽(32)
  • 從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能②

    從零開(kāi)始學(xué)習(xí)JavaScript:輕松掌握編程語(yǔ)言的核心技能②

    ??????個(gè)人簡(jiǎn)介:以山河作禮。 ??????: Python領(lǐng)域新星創(chuàng)作者,CSDN實(shí)力新星認(rèn)證,阿里云社區(qū)專家博主 ????:Web全棧開(kāi)發(fā)專欄:《Web全棧開(kāi)發(fā)》免費(fèi)專欄,歡迎閱讀! ?? ?? JavaScript 函數(shù)是一段可以被重復(fù)調(diào)用的代碼塊。它可以接收輸入?yún)?shù),處理這些參數(shù),然后返

    2024年02月08日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包