国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!

這篇具有很好參考價值的文章主要介紹了Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

網(wǎng)站關鍵詞查詢挖掘,包括三大常用網(wǎng)站seo查詢工具站點,愛站,站長,以及5118,其中,愛站及站長最多可查詢到50頁,5118可查詢到100頁,如果想要查詢完整網(wǎng)站關鍵詞排名數(shù)據(jù),需充值購買會員,當然免費的查詢也是需要注冊會員的,不然也是沒有查詢權限!

5118

須自行補齊網(wǎng)站地址及Cookie協(xié)議頭,查詢需要登陸權限!

#?5118網(wǎng)站關鍵詞采集
#?-*-?coding:?utf-8?-*-
import?requests
from?lxml?import?etree
import?time
import?logging

logging.basicConfig(filename='s5118.log',?level=logging.DEBUG,format='%(asctime)s?-?%(levelname)s?-?%(message)s')

#獲取關鍵詞
def?get_keywords(site,page):
????url="https://www.5118.com/seo/baidupc"
????headers={
????????"Cookie":Cookie,
????????"User-Agent":?"Mozilla/5.0?(Windows?NT?6.1;?WOW64)?AppleWebKit/537.36?(KHTML,?like?Gecko)?Chrome/86.0.4240.198?Safari/537.36",
????}
????data={
????????"isPager":?"true",
????????"viewtype":?2,
????????"days":?90,
????????"url":?site,
????????"orderField":?"Rank",
????????"orderDirection"?:?"sc",
????????"pageIndex":?page,
????????"catalogName":?"",
????????"referKeyword":?"",
????}
????response=requests.post(url=url,data=data,headers=headers,timeout=10)
????print(response.status_code)
????html=response.content.decode('utf-8')
????tree=etree.HTML(html)
????keywords=tree.xpath('//td[@class="list-col?justify-content?"]/a[@class="w100?all_array"]/text()')
????print(keywords)
????save_txt(keywords,?site)
????return?keywords


#存儲為csv文件
def?save_csv(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'5118_{filename}.csv','a+',encoding='utf-8-sig')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")


#存儲為txt文件
def?save_txt(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'5118_{filename}.txt','a+',encoding='utf-8')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")


def?main(site):
????logging.info(f"開始爬取網(wǎng)站{site}關鍵詞數(shù)據(jù)..")
????num?=?100
????keys=[]
????for?page?in?range(1,num+1):
????????print(f"正在爬取第{page}頁數(shù)據(jù)..")
????????logging.info(f"正在爬取第{page}頁數(shù)據(jù)..")
????????try:
????????????keywords?=?get_keywords(site,?page)
????????????keys.extend(keywords)
????????????time.sleep(8)
????????except?Exception?as?e:
????????????print(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????logging.error(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????time.sleep(10)

????keys?=?set(keys)??#去重
????save_csv(keys,?site)


if?__name__?==?'__main__':
????site=""
????main(site)

Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!

愛站

須自行補齊網(wǎng)站地址及Cookie協(xié)議頭,查詢需要登陸權限!

#?愛站網(wǎng)站關鍵詞采集
#?-*-?coding:?utf-8?-*-
import?requests
from?lxml?import?etree
import?time
import?logging

logging.basicConfig(filename='aizhan.log',?level=logging.DEBUG,format='%(asctime)s?-?%(levelname)s?-?%(message)s')

#獲取關鍵詞
def?get_keywords(site,page):
????url=f"https://baidurank.aizhan.com/baidu/{site}/-1/0/{page}/position/1/"
????headers?=?{
????????"Cookie":Cookie?,
????}
????response?=?requests.get(url=url,headers=headers,?timeout=10)
????print(response.status_code)
????html?=?response.content.decode('utf-8')
????tree?=?etree.HTML(html)
????keywords?=?tree.xpath('//td[@class="title"]/a[@class="gray"]/@title')
????print(keywords)
????save_txt(keywords,?site)
????return?keywords


#存儲為csv文件
def?save_csv(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'aizhan_{filename}.csv','a+',encoding='utf-8-sig')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")


#存儲為txt文件
def?save_txt(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'aizhan_{filename}.txt','a+',encoding='utf-8')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")


def?main(site):
????logging.info(f"開始爬取網(wǎng)站{site}關鍵詞數(shù)據(jù)..")
????num?=?50
????keys=[]
????for?page?in?range(1,num+1):
????????print(f"正在爬取第{page}頁數(shù)據(jù)..")
????????logging.info(f"正在爬取第{page}頁數(shù)據(jù)..")
????????try:
????????????keywords?=?get_keywords(site,?page)
????????????keys.extend(keywords)
????????????time.sleep(8)
????????except?Exception?as?e:
????????????print(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????logging.error(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????time.sleep(10)

????keys?=?set(keys)??#去重
????save_csv(keys,?site)


if?__name__?==?'__main__':
????site=""
????main(site)

Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!

站長

須自行補齊網(wǎng)站地址及Cookie協(xié)議頭,查詢需要登陸權限!

#?站長之家網(wǎng)站關鍵詞采集
#?-*-?coding:?utf-8?-*-
import?requests
from?lxml?import?etree
import?time
import?logging

logging.basicConfig(filename='chinaz.log',?level=logging.DEBUG,format='%(asctime)s?-?%(levelname)s?-?%(message)s')


#獲取關鍵詞
def?get_keywords(site,page):
????headers={
????????"Cookie":Cookie,
????????"User-Agent":?"Mozilla/5.0?(Windows?NT?6.1;?WOW64)?AppleWebKit/537.36?(KHTML,?like?Gecko)?Chrome/86.0.4240.198?Safari/537.36",
????}
????url=f"https://rank.chinaz.com/{site}-0---0-{page}"
????response=requests.get(url=url,headers=headers,timeout=8)
????print(response)
????html=response.content.decode('utf-8')
????tree=etree.HTML(html)
????keywords=tree.xpath('//ul[@class="_chinaz-rank-new5b"]/li[@class="w230?"]/a/text()')
????print(keywords)
????save_txt(keywords,?site)
????return?keywords


#存儲為csv文件
def?save_csv(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'chinaz_{filename}.csv','a+',encoding='utf-8-sig')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")

#存儲為txt文件
def?save_txt(keywords,site):
????filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')
????for?keyword?in?keywords:
????????with?open(f'chinaz_{filename}.txt','a+',encoding='utf-8')?as?f:
????????????f.write(f'{keyword}\n')
????print("保存關鍵詞列表成功!")

def?main(site):
????logging.info(f"開始爬取網(wǎng)站{site}關鍵詞數(shù)據(jù)..")
????num?=?50
????keys=[]
????for?page?in?range(1,num+1):
????????print(f"正在爬取第{page}頁數(shù)據(jù)..")
????????logging.info(f"正在爬取第{page}頁數(shù)據(jù)..")
????????try:
????????????keywords?=?get_keywords(site,?page)
????????????keys.extend(keywords)
????????????time.sleep(8)
????????except?Exception?as?e:
????????????print(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????logging.error(f"爬取第{page}頁數(shù)據(jù)失敗--錯誤代碼:{e}")
????????????time.sleep(10)

????keys?=?set(keys)??#去重
????save_csv(keys,?site)


if?__name__?==?'__main__':
????site=""
????main(site)

往期推薦:

Python爬蟲三種解析方式帶你360搜索排名查詢

Python與Seo工具全網(wǎng)搜錄查詢助手exe

Python百度下拉框關鍵詞采集工具

Python制作sitemap.xml文件工具源碼

Python調(diào)用翻譯API接口實現(xiàn)“智能”偽原創(chuàng)

百度快排之Python selenium 實現(xiàn)搜索訪問目標網(wǎng)站

·················END·················

你好,我是二大爺,

革命老區(qū)外出進城務工人員,

互聯(lián)網(wǎng)非早期非專業(yè)站長,

喜好python,寫作,閱讀,英語

不入流程序,自媒體,seo . . .

公眾號不掙錢,交個網(wǎng)友。

讀者交流群已建立,找到我備注 “交流”,即可獲得加入我們~

聽說點 “在看” 的都變得更好看吶~

關注關注二大爺唄~給你分享python,寫作,閱讀的內(nèi)容噢~

掃一掃下方二維碼即可關注我噢~

Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!

Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!

關注我的都變禿了

說錯了,都變強了!

不信你試試

掃碼關注最新動態(tài)

公眾號ID:eryeji文章來源地址http://www.zghlxwxcb.cn/news/detail-495562.html

到了這里,關于Python與SEO,三大SEO網(wǎng)站查詢工具關鍵詞查詢采集源碼!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • SEO如何讓自己的網(wǎng)站可以在百度搜索到通過關鍵詞搜索

    SEO如何讓自己的網(wǎng)站可以在百度搜索到通過關鍵詞搜索

    將你的網(wǎng)站網(wǎng)址提交給百度 在另外的頁面中加入鏈接路徑 選擇完美的 管理您的元標記(meta) 針對移動設備進行優(yōu)化 備案好你的網(wǎng)站 需要了解什么是 SEO以及其對在百度上面被發(fā)現(xiàn)的重要性。雖然您的網(wǎng)站很可能會在某個時候被不斷抓取網(wǎng)絡信息的百度機器人找到,

    2024年02月10日
    瀏覽(39)
  • 掌握SEO關鍵詞布局技巧:讓您的網(wǎng)站在搜索引擎中翻云覆雨,提升排名和流量

    掌握SEO關鍵詞布局技巧:讓您的網(wǎng)站在搜索引擎中翻云覆雨,提升排名和流量

    每個網(wǎng)站,如果想要去做seo,得到免費的流量,那么它就必須要做布局。 并且,對于整個網(wǎng)站的seo策略來說,布局是尤為重要并且不得不做的一塊。 在做某件事情之前,我們需要先了解它的本質(zhì),或者說它是什么。所以大家會發(fā)現(xiàn)我寫的大部分文章,都會

    2024年02月12日
    瀏覽(135)
  • 提升網(wǎng)站關鍵詞排名的工具

    提升網(wǎng)站關鍵詞排名的工具

    隨著互聯(lián)網(wǎng)的蓬勃發(fā)展,網(wǎng)站的排名成為衡量網(wǎng)站流量和曝光度的重要指標。在這個競爭激烈的數(shù)字時代,站在搜索引擎結果的前列變得至關重要。為了實現(xiàn)這一目標,合理利用排名優(yōu)化工具是必不可少的。本文將重點介紹147SEO軟件,探討其在提升官網(wǎng)排名方面

    2024年01月22日
    瀏覽(41)
  • Midjourney自學相關網(wǎng)站:【教程】【關鍵詞生成工具】【后期插件神器】

    【Midjourney注冊相關網(wǎng)址】 Midjourney網(wǎng)址: https://www.midjourney.com/home/ discord網(wǎng)址: https://discord.com/ 【教程類】 Midjourney官方幫助指南: https://docs.midjourney.com/docs/models 點擊藍字,查看文章: AI繪畫-Midjourney入門指南【注冊賬號】? Midjourney最簡單入門操作指南? Midjourney4種生圖玩法

    2024年02月15日
    瀏覽(54)
  • seo如何優(yōu)化關鍵詞上首頁

    優(yōu)化是百度搜索引擎優(yōu)化的一個重要方面,我們?nèi)绾卧谠S多網(wǎng)站中脫穎而出,獲得更多的訪問量?seo如何優(yōu)化上首頁?以下是百度搜索引擎優(yōu)化如何優(yōu)化的一些方法。 1.選擇合適的; 2.建立正確的; 3.合理使用標題和內(nèi)容; 4.充分利用圖片;

    2024年02月16日
    瀏覽(38)
  • seo關鍵詞排名點擊優(yōu)化軟件

    seo關鍵詞排名點擊優(yōu)化軟件

    seo優(yōu)化軟件,什么是SEO優(yōu)化軟件?SEO優(yōu)化軟件有什么用? SEO優(yōu)化軟件是輔助網(wǎng)站排名的軟件,增加網(wǎng)站SEO排名,SEO排名不單單全靠SEO優(yōu)化軟件,更多的是需要網(wǎng)站自身的SEO優(yōu)化。今天給大家分享一款萬能的SEO優(yōu)化軟

    2023年04月09日
    瀏覽(33)
  • 掌握Python爬蟲實現(xiàn)網(wǎng)站關鍵詞擴展提升曝光率

    掌握Python爬蟲實現(xiàn)網(wǎng)站關鍵詞擴展提升曝光率

    目錄 一、優(yōu)化的重要性 二、優(yōu)化的基本方法 1、選擇與網(wǎng)站內(nèi)容相關的 2、控制的密度和分布 3、的層次布局 三、Python爬蟲實現(xiàn)網(wǎng)站擴展 1、確定目標網(wǎng)站 2、分析目標網(wǎng)站的HTML結構 3、編寫Python爬蟲代碼 4、分析爬取到的數(shù)據(jù)

    2024年02月07日
    瀏覽(21)
  • SEO優(yōu)化怎么快速把關鍵詞優(yōu)化至首頁

    為了確?;镜拿芏然蛘呔W(wǎng)頁內(nèi)容相關性,更多的時候應該分布在頁面中的固定位置,而不是在可變因素上,像一些網(wǎng)站的評論、在線問答之類。如果是在頁面上方的位置,就是穩(wěn)定出現(xiàn)且不會變動的,這樣的布局至少保證了在頁面的一開始就會出現(xiàn)一次

    2024年02月10日
    瀏覽(30)
  • 關鍵詞采集軟件在SEO優(yōu)化中的應用與效果

    關鍵詞采集軟件在SEO優(yōu)化中的應用與效果

    搜索引擎的優(yōu)化被廣泛認為是提高網(wǎng)站排名和在線可見性的重要方法之一。SEO人員需要進行大量的工作以確保網(wǎng)站的內(nèi)容和標簽可以被搜索引擎正確地解析和索引。在這項任務中,使用搜索引擎采集軟件可以幫助SEO人員完成許多繁瑣的任務并簡化他們的工作流程。在本

    2023年04月26日
    瀏覽(40)
  • SEO教程:如何優(yōu)化長尾關鍵詞達到快速排名(干貨)

    SEO教程:如何優(yōu)化長尾關鍵詞達到快速排名(干貨)

    前言 做SEO網(wǎng)站優(yōu)化,挖掘長尾是站內(nèi)優(yōu)化的核心之一,網(wǎng)站的核心流量以及站外流量基本都是來自長尾,長尾的排名越好,就能為網(wǎng)站帶來更多的精準流量,以及高轉化。 目錄 01.為什么要優(yōu)化長尾 02.如何挖掘長尾詞(干貨干貨) 03.如何布局長尾詞

    2023年04月09日
    瀏覽(37)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包