国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!

這篇具有很好參考價值的文章主要介紹了【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄
  • 一、背景介紹
    • 1.1 爬取目標
    • 1.2 演示視頻
    • 1.3 軟件說明
  • 二、代碼講解
    • 2.1 爬蟲采集模塊
    • 2.2 軟件界面模塊
    • 2.3 日志模塊
  • 三、獲取源碼及軟件

一、背景介紹

1.1 爬取目標

您好!我是@馬哥python說 ,一名10年程序猿。

我用python開發(fā)了一個爬蟲采集軟件,可自動按關鍵詞抓取小紅書筆記數(shù)據(jù)。

為什么有了源碼還開發(fā)界面軟件呢?方便不懂編程代碼的小白用戶使用,無需安裝python,無需改代碼,雙擊打開即用!

軟件界面截圖:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓取!

爬取結果截圖:

結果截圖1:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓?。? referrerpolicy=

結果截圖2:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!

結果截圖3:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!

以上。

1.2 演示視頻

軟件運行演示:
【軟件演示】小紅書搜索采集工具,可同時多個關鍵詞,并支持篩選筆記類型、排序等

1.3 軟件說明

幾點重要說明:

  1. Windows用戶可直接雙擊打開使用,無需Python運行環(huán)境,非常方便!
  2. 需要填入cookie中的a1值和web_session值
  3. 支持按筆記類型(綜合/視頻/圖文)和排序方式(綜合/最新/最熱)爬取
  4. 支持同時爬多個關鍵詞
  5. 每個關鍵詞最多可采集220條左右的筆記,與網頁端數(shù)量一致
  6. 爬取過程中,有l(wèi)og文件詳細記錄運行過程,方便回溯
  7. 爬取完成后,自動導出結果到csv文件
  8. 爬取字段含:關鍵詞, 頁碼, 筆記id, 筆記鏈接, 筆記標題, 筆記類型, 點贊數(shù), 用戶id, 用戶主頁鏈接, 用戶昵稱。

以上。

二、代碼講解

2.1 爬蟲采集模塊

首先,定義接口地址作為請求地址:

# 請求地址
url = 'https://edith.xiaohongshu.com/api/sns/web/v1/search/notes'

定義一個請求頭,用于偽造瀏覽器:

# 請求頭
h1 = {
	'Accept': 'application/json, text/plain, */*',
	'Accept-Encoding': 'gzip, deflate, br',
	'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
	'Content-Type': 'application/json;charset=UTF-8',
	'Cookie': '換成自己的cookie值',
	'Origin': 'https://www.xiaohongshu.com',
	'Referer': 'https://www.xiaohongshu.com/',
	'Sec-Ch-Ua': '"Microsoft Edge";v="119", "Chromium";v="119", "Not?A_Brand";v="24"',
	'Sec-Ch-Ua-Mobile': '?0',
	'Sec-Ch-Ua-Platform': '"macOS"',
	'Sec-Fetch-Dest': 'empty',
	'Sec-Fetch-Mode': 'cors',
	'Sec-Fetch-Site': 'same-site',
	'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0',
}

說明一下,cookie是個關鍵參數(shù)。

其中,cookie里的a1和web_session獲取方法,如下:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!

這兩個值非常重要,軟件界面需要填寫??!

加上請求參數(shù),告訴程序你的爬取條件是什么:

# 請求參數(shù)
post_data = {
	"keyword": search_keyword,
	"page": page,
	"page_size": 20,
	"search_id": v_search_id,
	"sort": v_sort,
	"note_type": v_note_type,
	"image_scenes": "FD_PRV_WEBP,FD_WM_WEBP",
}

下面就是發(fā)送請求和接收數(shù)據(jù):

# 發(fā)送請求
r = requests.post(url, headers=h1, data=data_json.encode('utf8'))
print(r.status_code)
# 以json格式接收返回數(shù)據(jù)
json_data = r.json()

定義一些空列表,用于存放解析后字段數(shù)據(jù):

# 定義空列表
note_id_list = []  # 筆記id
note_title_list = []  # 筆記標題
note_type_list = []  # 筆記類型
like_count_list = []  # 點贊數(shù)
user_id_list = []  # 用戶id
user_name_list = []  # 用戶昵稱

循環(huán)解析字段數(shù)據(jù),以"筆記標題"為例:

# 循環(huán)解析
for data in json_data['data']['items']:
	# 筆記標題
	try:
		note_title = data['note_card']['display_title']
	except:
		note_title = ''
	print('note_title:', note_title)
	note_title_list.append(note_title)

其他字段同理,不再贅述。

最后,是把數(shù)據(jù)保存到csv文件:

# 把數(shù)據(jù)保存到Dataframe
df = pd.DataFrame(
	{
		'關鍵詞': search_keyword,
		'頁碼': page,
		'筆記id': note_id_list,
		'筆記鏈接': ['https://www.xiaohongshu.com/explore/' + i for i in note_id_list],
		'筆記標題': note_title_list,
		'筆記類型': note_type_list,
		'點贊數(shù)': like_count_list,
		'用戶id': user_id_list,
		'用戶主頁鏈接': ['https://www.xiaohongshu.com/user/profile/' + i for i in user_id_list],
		'用戶昵稱': user_name_list,
	}
)
if os.path.exists(result_file):
	header = False
else:
	header = True
# 把數(shù)據(jù)保存到csv文件
df.to_csv(result_file, mode='a+', index=False, header=header, encoding='utf_8_sig')

完整代碼中,還含有:判斷循環(huán)結束條件、js逆向解密、筆記類型(綜合/視頻圖文)篩選、排序方式篩選(綜合/最新/最熱)等關鍵實現(xiàn)邏輯。

2.2 軟件界面模塊

主窗口部分:

# 創(chuàng)建主窗口
root = tk.Tk()
root.title('小紅書搜索采集軟件v1 | 馬哥python說 |')
# 設置窗口大小
root.minsize(width=850, height=650)

輸入控件部分:

# 搜索關鍵詞
tk.Label(root, justify='left', text='搜索關鍵詞:').place(x=30, y=160)
entry_kw = tk.Text(root, bg='#ffffff', width=60, height=2, )
entry_kw.place(x=125, y=160, anchor='nw')  # 擺放位置

底部版權部分:

# 版權信息
copyright = tk.Label(root, text='@馬哥python說 All rights reserved.', font=('仿宋', 10), fg='grey')
copyright.place(x=290, y=625)

以上。

2.3 日志模塊

好的日志功能,方便軟件運行出問題后快速定位原因,修復bug。

核心代碼:

def get_logger(self):
	self.logger = logging.getLogger(__name__)
	# 日志格式
	formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
	# 日志級別
	self.logger.setLevel(logging.DEBUG)
	# 控制臺日志
	sh = logging.StreamHandler()
	log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
	# info日志文件名
	info_file_name = time.strftime("%Y-%m-%d") + '.log'
	# 將其保存到特定目錄,ap方法就是尋找項目根目錄,該方法博主前期已經寫好。
	case_dir = r'./logs/'
	info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
						when='MIDNIGHT',
						interval=1,
						backupCount=7,
						encoding='utf-8')

日志文件截圖:
【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓取!

以上。

三、獲取源碼及軟件

get完整源碼:【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓取


by 馬哥python說文章來源地址http://www.zghlxwxcb.cn/news/detail-759403.html

到了這里,關于【GUI軟件】小紅書搜索結果批量采集,支持多個關鍵詞同時抓??!的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • es的搜索結果處理

    es的搜索結果處理

    elasticsearch默認是根據(jù)相關度算分(_score)來排序,但是也支持自定義方式對搜索結果排序??梢耘判蜃侄晤愋陀校簁eyword類型、數(shù)值類型、地理坐標類型、日期類型等。 1.1.普通字段排序 keyword、數(shù)值、日期類型排序的語法基本一致。 語法 : 排序條件是一個數(shù)組,也就是可以

    2024年02月01日
    瀏覽(29)
  • Elasticsearch(八)搜索---搜索輔助功能(上)--指定搜索返回字段,結果計數(shù)和分頁

    Elasticsearch(八)搜索---搜索輔助功能(上)--指定搜索返回字段,結果計數(shù)和分頁

    前面我們已經將ES的基礎操作(索引,映射,文檔)學習過了,從這一章開始,我們便開始學習ES的最大的功能—搜索 ES為用戶提供了豐富的搜索功能:既有基本的搜索功能,又有搜索建議功能;既有常用的普通類型的匹配功能,又有基于地理位置的搜索功能;既提供了分頁搜

    2024年02月05日
    瀏覽(20)
  • 織夢dedecms在搜索結果頁按欄目分類顯示搜索數(shù)據(jù)

    搜索結果示范 1、搜索框代碼里使用name=\\\"q\\\"作為搜索框屬性,例如 ?2、打開 /include/taglib/arclist.lib.php 找到,大概在188行 $innertext = trim($innertext); 在它下面加入 preg_match(\\\"/~([A-Za-z0-9_]+)~/s\\\", $keyword, $conditions); if(isset($_REQUEST[\\\'q\\\']) $keyword = \\\'~q~\\\') { preg_match(\\\"/~([A-Za-z0-9_]+)~/s\\\", $keyword, $cond

    2024年02月03日
    瀏覽(23)
  • 詳解dedecms搜索頁面單獨調用搜索結果條數(shù)的實現(xiàn)方法

    DEDE的搜索結果數(shù)量都集成在了列表分頁標簽里,并沒有使用單獨的函數(shù)來提供這個結果數(shù)量,因此對有單獨調用搜索結果數(shù)量的用戶來說,就有使用問題,這里提供二次開發(fā)的方法。 非常簡單只要修改幾個地方就行了: 第一步,打開/include/arc.searchview.class.php文件,查找代碼

    2024年02月02日
    瀏覽(23)
  • 帝國CMS搜索結果顯示數(shù)量的實現(xiàn)方法

    最近在做帝國CMS的搜索功能,記錄一下方便大家以后使用,本文主要講解一下修改帝國CMS搜索結果每頁顯示的數(shù)量的兩種方法。 1、方法一:在后臺搜索模板中直接設置數(shù)量 在后臺——系統(tǒng)——系統(tǒng)參數(shù)設置——搜索設置——頁面設置,如下圖: 2、方法二:直接更改搜索系

    2024年02月03日
    瀏覽(19)
  • 提升搜索效率-----使用chatGPT插件讓搜索結果直接展示在谷歌界面右側

    提升搜索效率-----使用chatGPT插件讓搜索結果直接展示在谷歌界面右側

    今天分享一個chatGPT的進階玩法,使用谷歌瀏覽器插件的形式,將chatGPT植入到瀏覽器的搜索結果內。 而chatGPT會將你的搜索問題的結果,同步展示在谷歌搜索界面的右側。 但還是要注意科學上網??!但畢竟谷歌也需要科學才能擠進去 以下為插件網址(火狐需要自己測試測試)

    2024年02月08日
    瀏覽(49)
  • 微服務分布式搜索引擎 ElasticSearch 搜索結果處理 排序、分頁與高亮

    微服務分布式搜索引擎 ElasticSearch 搜索結果處理 排序、分頁與高亮

    本文參考黑馬 分布式Elastic search Elasticsearch是一款非常強大的開源搜索引擎,具備非常多強大功能,可以幫助我們從海量數(shù)據(jù)中快速找到需要的內容 搜索結果處理 搜索的結果可以按照用戶指定的方式去處理或展示。 elasticsearch默認是根據(jù)相關度算分(_score)來排序,但是也支

    2024年02月02日
    瀏覽(44)
  • Edge瀏覽器搜索欄固定為360搜索引擎 || 瀏覽器地址欄搜索,結果都是360搜索引擎

    Edge瀏覽器搜索欄固定為360搜索引擎 || 瀏覽器地址欄搜索,結果都是360搜索引擎

    搜索引擎的URL被篡改成了360搜索 ,很惡心。 打開 設置 = 隱私、搜索和服務 = 地址欄和搜索 (最下面) 可以看到可以選擇 必應 或者 Google 再進入 管理搜索引擎 可以看到必應的URL已經被改成了 http://lx.pub/s?a=3b=%s ,正常應該是 https://www.bing.com/search?q=%s ,%s代表你搜索的內容。

    2024年02月10日
    瀏覽(26)
  • Elasticsearch --- DSL、RestClient查詢文檔、搜索結果處理

    Elasticsearch --- DSL、RestClient查詢文檔、搜索結果處理

    elasticsearch的查詢依然是基于JSON風格的DSL來實現(xiàn)的。 ? Elasticsearch提供了基于JSON的DSL(Domain Specific Language)來定義查詢。常見的查詢類型包括: 查詢所有 :查詢出所有數(shù)據(jù),一般測試用。例如:match_all 全文檢索(full text)查詢 :利用分詞器對用戶輸入內容分詞,然后去倒排

    2024年02月05日
    瀏覽(27)
  • vim 使用/進行關鍵字搜索,跳轉到下一個搜索結果的快捷鍵

    在命令行中使用 `/` 或 `?` 向下或向上搜索指定的字符,字符可手動輸入 或 粘貼指定寄存器里的字符輸入。通過 ` n ` 或 ` N ` 繼續(xù) 原方向 或 反向跳 轉到下一個匹配到的位置。 此外還可以同時進行多個匹配()的搜索,不同匹配項之間使用` | `隔開即可。只要找到滿足這

    2024年02月10日
    瀏覽(92)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包