国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

簡(jiǎn)單的用Python采集獵聘招聘數(shù)據(jù)內(nèi)容,并做可視化分析!

這篇具有很好參考價(jià)值的文章主要介紹了簡(jiǎn)單的用Python采集獵聘招聘數(shù)據(jù)內(nèi)容,并做可視化分析!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

現(xiàn)在剛畢業(yè),很多小伙伴因?yàn)檎也坏焦ぷ骰蛘哒伊撕芏嘁膊幌矚g,再有懶一點(diǎn)的,太熱了根本不想出門到處找。

所以今天給大家分享如何在家就能找到心儀工作

使用Python批量采集招聘數(shù)據(jù),進(jìn)行可視化分析,輕松找到心儀工作!

話不多說,我們直接開始~

準(zhǔn)備工作

軟件工具

  • Python 3.8
  • Pycharm
  • 谷歌瀏覽器
  • 谷歌驅(qū)動(dòng)

selenium --> 自動(dòng)化測(cè)試模塊
模擬人的行為去操作瀏覽器

手動(dòng)操作

  1. 打開瀏覽器
  2. 輸入網(wǎng)址
  3. 找到我們需要的數(shù)據(jù)內(nèi)容
  4. 手動(dòng)復(fù)制粘貼放到表格文件

模塊使用

selenium  # pip install selenium==3.141.0 自動(dòng)化測(cè)試 操作瀏覽器
csv  # 保存數(shù)據(jù) 保存csv文件

?

win + R 輸入cmd 輸入安裝命令 pip install 模塊名 (如果你覺得安裝速度比較慢, 你可以切換國(guó)內(nèi)鏡像源)

數(shù)據(jù)獲取部分代碼

打開瀏覽器

瀏覽器驅(qū)動(dòng)選擇以及下載:

  • 查看瀏覽器版本
  • 驅(qū)動(dòng)版本選擇和你瀏覽器版本最相近的
  • 驅(qū)動(dòng)文件<不需要雙擊安裝>, 直接放到你python安裝目錄里面

主要代碼

driver = webdriver.Chrome()
# 訪問網(wǎng)站
# 完整代碼+視頻講解+軟件工具領(lǐng)取
# 直接加這個(gè)摳裙:592539176
driver.get(
    'https://www.liepin.com/zhaopin/?inputFrom=www_index&workYearCode=0&key=python&scene=input&ckId=rn8762mqhk78fi3d9fiqzzoobk7f66u9&dq=')
"""
找到我們需要的數(shù)據(jù)內(nèi)容
    前提 -> 你要讓網(wǎng)頁(yè)元素<數(shù)據(jù)>加載出來
    通過元素定位, 獲取數(shù)據(jù)內(nèi)容 <通過標(biāo)簽提取數(shù)據(jù)> 
"""
# 設(shè)置延時(shí), 讓網(wǎng)頁(yè)元素加載完整
driver.implicitly_wait(10)  # 隱式等待, 只要網(wǎng)頁(yè)加載出來就運(yùn)行下面的代碼
time.sleep(1)  # 死等, 一定要等夠
# 獲取所有招聘信息對(duì)應(yīng)div標(biāo)簽
divs = driver.find_elements_by_css_selector('.job-list-box div .job-card-left-box')
# print(driver) # webdriver.Chrome() 返回selenium對(duì)象
# print(divs)  # 返回列表, 列表里面元素是selenium對(duì)象
for div in divs:
    """
    提取具體數(shù)據(jù)內(nèi)容, 提取每個(gè)div標(biāo)簽里面所包含的數(shù)據(jù)內(nèi)容
        .job-title-box div.ellipsis-1
    """
    # 職位
    title = div.find_element_by_css_selector('.job-title-box div.ellipsis-1').text
    # 城市
    city = div.find_element_by_css_selector('.job-title-box span.ellipsis-1').text
    salary = div.find_element_by_css_selector('.job-salary').text
    # 列表推導(dǎo)式
    info_list = [i.text for i in div.find_elements_by_css_selector('.job-labels-box .labels-tag')]
    print(info_list)
    exp = info_list[0]
    edu = info_list[1]
    labels = ','.join(info_list[2:])
    company = div.find_element_by_css_selector('.company-name').text
    company_type = div.find_element_by_css_selector('.company-tags-box span').text
    company_num = div.find_element_by_css_selector('.company-tags-box span:last-of-type').text
    href = div.find_element_by_css_selector('.job-detail-box a').get_attribute('href')
    dit = {
        '職位': title,
        '城市': city,
        '薪資': salary,
        '經(jīng)驗(yàn)': exp,
        '學(xué)歷': edu,
        '技術(shù)點(diǎn)': labels,
        '公司': company,
        '公司領(lǐng)域': company_type,
        '公司規(guī)模': company_num,
        '詳情頁(yè)': href,
    }
    csv_writer.writerow(dit)
    print(dit)

?

保存表格

f = open('python.csv', mode='w', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
    '職位',
    '城市',
    '薪資',
    '經(jīng)驗(yàn)',
    '學(xué)歷',
    '技術(shù)點(diǎn)',
    '公司',
    '公司領(lǐng)域',
    '公司規(guī)模',
    '詳情頁(yè)',
])
csv_writer.writeheader()

?

可視化展示

讀取文件

import pandas as pd

df = pd.read_csv('data.csv')
df.head()

?

python職位學(xué)歷需求分布

from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.globals import CurrentConfig, NotebookType
CurrentConfig.NOTEBOOK_TYPE = NotebookType.JUPYTER_LAB
c = (
    Pie()
    .add(
        "",
        [
            list(z)
            for z in zip(
                edu_type,
                edu_num,
            )
        ],
        center=["40%", "50%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="python職位學(xué)歷需求分布"),
        legend_opts=opts.LegendOpts(type_="scroll", pos_left="80%", orient="vertical"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter=": {c}"))
    
)
c.load_javascript()

?

python職位學(xué)歷需求分布

edu_num = df['經(jīng)驗(yàn)'].value_counts().to_list()
edu_type = df['經(jīng)驗(yàn)'].value_counts().index.to_list()
c = (
    Pie()
    .add(
        "",
        [
            list(z)
            for z in zip(
                edu_type,
                edu_num,
            )
        ],
        center=["40%", "50%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="python職位經(jīng)驗(yàn)需求分布"),
        legend_opts=opts.LegendOpts(type_="scroll", pos_left="80%", orient="vertical"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter=": {c}"))
    
)
c.render_notebook()

?

python職位城市分布

edu_num = df['城市'].str[:2].value_counts().to_list()
edu_type = df['城市'].str[:2].value_counts().index.to_list()
c = (
    Pie()
    .add(
        "",
        [
            list(z)
            for z in zip(
                edu_type,
                edu_num,
            )
        ],
        center=["40%", "50%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="python職位城市分布"),
        legend_opts=opts.LegendOpts(type_="scroll", pos_left="80%", orient="vertical"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter=": {c}"))
    
)
c.render_notebook()

?

python公司領(lǐng)域分布

edu_num = df['公司領(lǐng)域'].value_counts().to_list()
edu_type = df['公司領(lǐng)域'].value_counts().index.to_list()
c = (
    Pie()
    .add(
        "",
        [
            list(z)
            for z in zip(
                edu_type,
                edu_num,
            )
        ],
        center=["40%", "50%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="python公司領(lǐng)域分布"),
        legend_opts=opts.LegendOpts(type_="scroll", pos_left="80%", orient="vertical"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter=": {c}"))
    
)
c.render_notebook()

?

好了今天的分享就到這結(jié)束了,咱們下次再見!文章來源地址http://www.zghlxwxcb.cn/news/detail-582900.html

到了這里,關(guān)于簡(jiǎn)單的用Python采集獵聘招聘數(shù)據(jù)內(nèi)容,并做可視化分析!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Python采集二手房源數(shù)據(jù)信息并做可視化展示

    Python采集二手房源數(shù)據(jù)信息并做可視化展示

    前言 嗨嘍~大家好呀,這里是魔王吶 ? ~! 環(huán)境使用: Python 3.8 jupyter -- pip install jupyter notebook pycharm 也可以 模塊使用: requests pip install requests 數(shù)據(jù)請(qǐng)求模塊 parsel pip install parsel 數(shù)據(jù)解析模塊 csv 內(nèi)置模塊 第三方模塊安裝: win + R 輸入 cmd 點(diǎn)擊確定, 輸入安裝命令 pip install 模塊名

    2024年02月10日
    瀏覽(24)
  • 【Python爬蟲+數(shù)據(jù)分析】采集電商平臺(tái)數(shù)據(jù)信息,并做可視化演示

    【Python爬蟲+數(shù)據(jù)分析】采集電商平臺(tái)數(shù)據(jù)信息,并做可視化演示

    隨著電商平臺(tái)的興起,越來越多的人開始在網(wǎng)上購(gòu)物。而對(duì)于電商平臺(tái)來說,商品信息、價(jià)格、評(píng)論等數(shù)據(jù)是非常重要的。因此,抓取電商平臺(tái)的商品信息、價(jià)格、評(píng)論等數(shù)據(jù)成為了一項(xiàng)非常有價(jià)值的工作。本文將介紹如何使用Python編寫爬蟲程序,抓取電商平臺(tái)的商品信息、

    2024年02月08日
    瀏覽(20)
  • 【Python爬蟲+數(shù)據(jù)分析】采集電商平臺(tái)數(shù)據(jù)信息,并做可視化演示(帶視頻案例)

    【Python爬蟲+數(shù)據(jù)分析】采集電商平臺(tái)數(shù)據(jù)信息,并做可視化演示(帶視頻案例)

    隨著電商平臺(tái)的興起,越來越多的人開始在網(wǎng)上購(gòu)物。而對(duì)于電商平臺(tái)來說,商品信息、價(jià)格、評(píng)論等數(shù)據(jù)是非常重要的。因此,抓取電商平臺(tái)的商品信息、價(jià)格、評(píng)論等數(shù)據(jù)成為了一項(xiàng)非常有價(jià)值的工作。 接下來就讓我來教你 如何使用Python編寫爬蟲程序,抓取電商平臺(tái)的

    2024年02月11日
    瀏覽(25)
  • 簡(jiǎn)單的用Python抓取動(dòng)態(tài)網(wǎng)頁(yè)數(shù)據(jù),實(shí)現(xiàn)可視化數(shù)據(jù)分析

    簡(jiǎn)單的用Python抓取動(dòng)態(tài)網(wǎng)頁(yè)數(shù)據(jù),實(shí)現(xiàn)可視化數(shù)據(jù)分析

    一眨眼明天就周末了,一周過的真快! 今天咱們用Python來實(shí)現(xiàn)一下動(dòng)態(tài)網(wǎng)頁(yè)數(shù)據(jù)的抓取 最近不是有消息說世界首富馬上要變成中國(guó)人了嗎,這要真成了,可就是歷史上首位中國(guó)世界首富了! 那我們就以富豪排行榜為例,爬取一下2023年國(guó)內(nèi)富豪五百?gòu)?qiáng),最后實(shí)現(xiàn)一下可視化分

    2024年02月05日
    瀏覽(24)
  • 基于python重慶招聘數(shù)據(jù)爬蟲采集系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)(django框架)

    ?博主介紹 :黃菊華老師《Vue.js入門與商城開發(fā)實(shí)戰(zhàn)》《微信小程序商城開發(fā)》圖書作者,CSDN博客專家,在線教育專家,CSDN鉆石講師;專注大學(xué)生畢業(yè)設(shè)計(jì)教育和輔導(dǎo)。 所有項(xiàng)目都配有從入門到精通的基礎(chǔ)知識(shí)視頻課程,免費(fèi) 項(xiàng)目配有對(duì)應(yīng)開發(fā)文檔、開題報(bào)告、任務(wù)書、

    2024年01月23日
    瀏覽(21)
  • 基于Python的51job(前程無憂)招聘網(wǎng)站數(shù)據(jù)采集,通過selenium繞過網(wǎng)站反爬,可以采集全國(guó)各地?cái)?shù)十萬(wàn)條招聘信息

    使用Python編程語(yǔ)言和Selenium庫(kù)來實(shí)現(xiàn)自動(dòng)化的網(wǎng)頁(yè)操作,從而實(shí)現(xiàn)登錄、搜索和爬取職位信息的功能。 首先,導(dǎo)入了所需的庫(kù),包括time用于處理時(shí)間,selenium用于模擬瀏覽器操作,csv用于寫入CSV文件,BeautifulSoup用于解析網(wǎng)頁(yè)數(shù)據(jù)。然后,定義了一個(gè)名為login的函數(shù),該函數(shù)接

    2024年01月19日
    瀏覽(38)
  • 基于python四川成都招聘數(shù)據(jù)爬蟲采集系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)(django框架)

    ?博主介紹 :黃菊華老師《Vue.js入門與商城開發(fā)實(shí)戰(zhàn)》《微信小程序商城開發(fā)》圖書作者,CSDN博客專家,在線教育專家,CSDN鉆石講師;專注大學(xué)生畢業(yè)設(shè)計(jì)教育和輔導(dǎo)。 所有項(xiàng)目都配有從入門到精通的基礎(chǔ)知識(shí)視頻課程,免費(fèi) 項(xiàng)目配有對(duì)應(yīng)開發(fā)文檔、開題報(bào)告、任務(wù)書、

    2024年02月03日
    瀏覽(23)
  • 簡(jiǎn)單的用Python獲取一下視頻彈幕,新手練手實(shí)戰(zhàn)項(xiàng)目,非常簡(jiǎn)單!

    昨天看到個(gè)視頻,彈幕挺有意思的,于是想著用Python給他全部扒下來。 代碼非常簡(jiǎn)單,接下來我們看看 具體操作。 軟件 Python 3.8 Pycharm 模塊使用 import requests 數(shù)據(jù)請(qǐng)求 import jieba 分詞 import wordcloud 詞云 import parsel 數(shù)據(jù)解析 import re 正則 win + R 輸入cmd 輸入安裝命令 pip install 模塊

    2024年02月14日
    瀏覽(18)
  • Python網(wǎng)絡(luò)爬蟲爬取招聘數(shù)據(jù)(利用python簡(jiǎn)單零基礎(chǔ))可做可視化

    Python網(wǎng)絡(luò)爬蟲爬取招聘數(shù)據(jù)(利用python簡(jiǎn)單零基礎(chǔ))可做可視化

    身為一個(gè)求職者,或者說是對(duì)于未來的職業(yè)規(guī)劃還沒明確目標(biāo)的大學(xué)生來說,獲取各大招聘網(wǎng)上的數(shù)據(jù)對(duì)我們自身的發(fā)展具有的幫助作用,本文章就簡(jiǎn)答零基礎(chǔ)的來介紹一下如何爬取招聘數(shù)據(jù)。 我們以東莞的Python數(shù)據(jù)分析師這個(gè)職位來做一個(gè)簡(jiǎn)單的分析,頁(yè)面如下圖所示:

    2024年02月03日
    瀏覽(27)
  • python采集數(shù)據(jù)保存csv, 文件內(nèi)容亂碼了怎么解決?

    如果你的 Python 程序采集到的數(shù)據(jù)在保存成 CSV 格式的文件時(shí)出現(xiàn)了亂碼,那么可嘗試以下解決方法: 1. 在打開 CSV 文件時(shí)指定編碼方式 你可以使用 Python 中的 open() 函數(shù)打開 CSV 文件,并在 open() 函數(shù)中指定文件編碼方式為 CSV 文件原始編碼方式。如果 CSV 文件原始編碼方式為

    2024年02月16日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包