高效爬取某宝:Python JS 逆向与多线程结合实践

一、核心技术原理与环境准备

1.1 核心技术栈

本次实践的核心技术围绕 “破解反爬” 与 “提升效率” 展开,技术栈如下:

  • Python:核心开发语言,轻量且生态丰富,拥有<font>requests</font>(网络请求)、<font>threading</font>/<font>concurrent.futures</font>(多线程)、<font>execjs</font>(执行 JS 代码)等必备库;
  • JS 逆向:破解某宝请求中的加密参数(如<font>sign</font><font>_m_h5_tk</font>等),还原真实请求逻辑;
  • 多线程:利用 Python 多线程处理网络 I/O 密集型任务,充分利用网络资源,提升爬取效率;
  • 反爬规避:自定义请求头、请求频率控制、Cookie 维持等策略,降低被封风险。

1.2 环境搭建

本次实践基于 Python 3.8+,需安装以下第三方库,执行命令:

pip install requests execjs fake-useragent pyquery 
  • <font>execjs</font>:用于在 Python 中执行逆向后的 JS 代码,需提前安装 Node.js(保证 JS 运行环境);
  • <font>fake-useragent</font>:生成随机 User-Agent,规避请求头特征检测;
  • <font>pyquery</font>:轻量的 HTML 解析库,便捷提取页面数据;
  • <font>requests</font>:发送 HTTP/HTTPS 请求,核心网络请求库。

同时准备抓包工具(CharlesFiddler)、浏览器开发者工具(F12),用于抓包分析请求参数与 JS 加密逻辑。

二、某宝请求分析与 JS 逆向核心步骤

某宝的商品列表、详情等接口均为异步 AJAX 请求,且请求参数中包含多个加密字段(如<font>_m_h5_tk</font><font>_m_h5_tk_enc</font><font>sign</font>),直接构造请求会返回 403/500 错误,因此第一步需通过抓包分析加密逻辑,再完成 JS 逆向。

2.1 抓包分析目标接口

以某宝商品搜索接口为例,操作步骤如下:

  1. 打开某宝网页版,开启浏览器开发者工具(F12),切换至「Network」面板,筛选「XHR/Fetch」类型;
  2. 输入关键词搜索商品,在网络请求中找到核心接口(如<font>https://h5api.m.taobao.com/h5/mtop.taobao.search.core/1.0/</font>);
  3. 查看该接口的「Request Headers」(请求头)和「Request Payload」(请求体),发现核心加密参数:
    • 请求头中的<font>_m_h5_tk</font><font>_m_h5_tk_enc</font>:与用户登录态、时间戳相关的加密串;
    • 请求体中的<font>sign</font>:对请求参数、时间戳、固定密钥的混合加密结果;
    • 公共参数<font>t</font>:时间戳,<font>appKey</font>:固定应用标识。

2.2 定位 JS 加密代码

加密参数的生成逻辑藏在某宝的前端 JS 代码中,通过开发者工具定位核心 JS 文件:

  1. 在开发者工具「Network」面板,找到包含加密逻辑的 JS 文件(通常为体积较大、命名含<font>mtop</font>/<font>h5</font>的文件);
  2. 切换至「Sources」面板,通过「搜索功能」(Ctrl+F)搜索加密参数关键词(如<font>_m_h5_tk</font><font>sign</font>),定位到参数生成的核心函数;
  3. 分析函数逻辑,发现加密核心为MD5 加密+参数拼接,例如<font>sign</font>的生成规则为:<font>sign = md5(appKey + t + token + data)</font>,其中<font>token</font><font>_m_h5_tk</font>分割后的字段,<font>data</font>为请求体的 JSON 字符串。

2.3 JS 代码提取与还原

由于某宝的前端 JS 会做混淆压缩(变量名简写、代码嵌套),需对核心加密函数进行提取和还原,步骤如下:

  1. 复制定位到的加密函数及依赖的工具函数(如 MD5 加密、参数拼接函数);
  2. 去除无关代码,修复函数依赖(如补全缺失的变量、方法);
  3. 在 Node.js 环境中测试还原后的 JS 代码,确保能正常生成加密参数。

2.4 Python 调用逆向后的 JS 代码

通过<font>execjs</font>库让 Python 执行逆向后的 JS 代码,实现加密参数的动态生成,这是连接 JS 逆向与 Python 爬取的关键环节。

三、代码实现:JS 逆向落地与单线程爬取

本部分先实现JS 逆向的 Python 封装,生成合法的加密请求参数,再完成单线程的基础爬取,为后续多线程改造打下基础。

3.1 逆向后的 JS 代码(核心加密逻辑)

新建<font>taobao_encrypt.js</font>文件,存放还原后的加密代码,核心实现<font>sign</font><font>_m_h5_tk</font>(简化版,实际需结合 Cookie 维护)的生成,代码如下:

javascript

运行

// 引入MD5加密模块(Node.js环境,需提前安装:npm install md5) const md5 = require('md5'); /** * 生成sign加密参数 * @param {string} appKey - 固定appKey * @param {string} t - 时间戳 * @param {string} token - _m_h5_tk分割后的token * @param {string} data - 请求体JSON字符串 * @returns {string} 加密后的sign */ function generateSign(appKey, t, token, data) { const str = appKey + t + token + data; return md5(str); } /** * 生成_m_h5_tk(简化版,实际需从Cookie中提取并更新) * @param {string} token - 基础token * @param {string} t - 时间戳 * @returns {string} 拼接后的_m_h5_tk */ function generateMtk(token, t) { return token + '_' + t + '_' + Math.floor(Math.random() * 1000); } // 暴露方法,供Python调用 module.exports = { generateSign, generateMtk }; 

注:实际某宝的<font>_m_h5_tk</font>会随请求更新,需从响应头的 Cookie 中提取并维护,本文为简化实践,做基础实现,生产环境需完善 Cookie 持久化。

3.2 Python 封装加密工具类

新建<font>taobao_crawler.py</font>,实现 JS 代码调用、加密参数生成、基础请求封装,代码如下:

python

运行

import execjs import requests import time import json from fake_useragent import UserAgent from pyquery import PyQuery as pq # 初始化UserAgent,生成随机请求头 ua = UserAgent(verify_ssl=False) # 加载JS加密文件 with open('taobao_encrypt.js', 'r', encoding='utf-8') as f: js_code = f.read() ctx = execjs.compile(js_code, cwd=r'C:\Program Files\nodejs') # cwd为Node.js安装路径,execjs需找到node可执行文件 # 某宝固定配置 APP_KEY = '12574478' # 某宝公开appKey,实际可从抓包获取 BASE_TOKEN = 'your_token' # 从Cookie中提取的基础token,抓包获取 BASE_URL = 'https://h5api.m.taobao.com/h5/mtop.taobao.search.core/1.0/' class TaobaoEncrypt: """加密工具类,生成某宝请求所需加密参数""" @staticmethod def get_timestamp(): """生成13位时间戳(某宝接口要求)""" return str(int(time.time() * 1000)) @staticmethod def generate_params(data): """ 生成所有加密参数 :param data: 请求体原始数据(字典) :return: 加密后的参数字典 """ t = TaobaoEncrypt.get_timestamp() # 生成_m_h5_tk m_tk = ctx.call('generateMtk', BASE_TOKEN, t) # 分割_m_h5_tk获取token(规则:_m_h5_tk = token + _ + t + _ + 随机数) token = m_tk.split('_')[0] # 转换data为JSON字符串(无空格,某宝要求) data_str = json.dumps(data, separators=(',', ':')) # 生成sign sign = ctx.call('generateSign', APP_KEY, t, token, data_str) return { 't': t, '_m_h5_tk': m_tk, '_m_h5_tk_enc': md5(m_tk).upper(), # 简单实现,实际需按某宝规则加密 'sign': sign, 'appKey': APP_KEY, 'data': data_str } # 基础请求方法 def single_crawl(keyword, page=1): """ 单线程爬取某宝商品搜索结果 :param keyword: 搜索关键词 :param page: 页码 :return: 商品列表数据 """ # 构造原始请求体数据 data = { 'q': keyword, 'pageNo': page, 'pageSize': 20, 'platform': 'h5' } # 生成加密参数 encrypt_params = TaobaoEncrypt.generate_params(data) # 构造请求头 headers = { 'User-Agent': ua.random, 'Referer': 'https://s.m.taobao.com/', 'Content-Type': 'application/x-www-form-urlencoded', 'Cookie': f'_m_h5_tk={encrypt_params["_m_h5_tk"]};', # 携带加密Cookie 'Host': 'h5api.m.taobao.com' } # 构造请求体 payload = { 'jsv': '2.6.1', 'appKey': encrypt_params['appKey'], 't': encrypt_params['t'], 'sign': encrypt_params['sign'], 'data': encrypt_params['data_str'] } try: # 发送POST请求(某宝核心接口均为POST) response = requests.post(BASE_URL, headers=headers, data=payload, timeout=10) if response.status_code == 200: result = response.json() if result.get('ret') == ['SUCCESS::接口调用成功']: # 解析商品数据 goods_list = result.get('data', {}).get('items', []) print(f'第{page}页爬取成功,共{len(goods_list)}件商品') return goods_list else: print(f'第{page}页爬取失败,返回信息:{result.get("ret")}') return [] else: print(f'请求失败,状态码:{response.status_code}') return [] except Exception as e: print(f'请求异常:{str(e)}') return [] # 单线程测试 if __name__ == '__main__': start_time = time.time() # 爬取关键词「Python教程」前3页 for page in range(1, 4): single_crawl('Python教程', page) end_time = time.time() print(f'单线程爬取完成,总耗时:{end_time - start_time:.2f}秒') 

3.3 代码关键说明

  1. JS 调用<font>execjs.compile</font>加载 JS 文件,通过<font>ctx.call</font>调用 JS 中的方法,需指定 Node.js 路径(<font>cwd</font>参数),避免<font>execjs</font>找不到运行环境;
  2. 加密参数生成:严格按照某宝的参数拼接规则,生成<font>sign</font><font>_m_h5_tk</font>等核心参数,确保请求合法性;
  3. 反爬规避:使用<font>fake-useragent</font>生成随机 User-Agent,携带加密后的 Cookie,设置请求超时,避免请求阻塞;
  4. 数据解析:某宝接口返回 JSON 数据,判断<font>ret</font>字段为成功标识后,提取商品核心数据,简化了异常处理逻辑。

四、多线程改造:提升 I/O 密集型爬取效率

Python 中的爬取属于网络 I/O 密集型任务,单线程爬取时,程序会在等待网络响应的过程中阻塞,造成资源浪费。多线程技术可让多个请求同时发起,充分利用网络带宽,大幅提升爬取效率。

本次实践采用 Python 内置的<font>concurrent.futures.ThreadPoolExecutor</font>实现多线程,该库封装了线程池的创建、任务提交、结果获取,使用简洁且线程管理更安全。

4.1 多线程爬取代码实现

在上述<font>taobao_crawler.py</font>中新增多线程爬取方法,核心代码如下:

python

运行

from concurrent.futures import ThreadPoolExecutor, as_completed import time # 全局控制:线程数(根据反爬调整,建议5-10) THREAD_NUM = 8 # 全局控制:每页请求间隔(秒,避免请求过快被封) REQUEST_INTERVAL = 0.5 def multi_thread_crawl(keyword, max_page): """ 多线程爬取某宝商品搜索结果 :param keyword: 搜索关键词 :param max_page: 最大爬取页码 :return: 所有商品数据列表 """ all_goods = [] # 创建线程池 with ThreadPoolExecutor(max_workers=THREAD_NUM) as executor: # 提交任务:将每一页的爬取任务提交给线程池 future_to_page = {executor.submit(single_crawl, keyword, page): page for page in range(1, max_page + 1)} # 遍历完成的任务,获取结果 for future in as_completed(future_to_page): page = future_to_page[future] try: # 获取单页爬取结果 goods = future.result() if goods: all_goods.extend(goods) # 间隔请求,规避反爬 time.sleep(REQUEST_INTERVAL) except Exception as e: print(f'第{page}页多线程爬取异常:{str(e)}') return all_goods # 多线程测试 if __name__ == '__main__': # 单线程测试(注释掉单线程代码,开启多线程) # start_time = time.time() # for page in range(1, 4): # single_crawl('Python教程', page) # end_time = time.time() # print(f'单线程爬取完成,总耗时:{end_time - start_time:.2f}秒') # 多线程测试:爬取「Python教程」前10页 start_time = time.time() total_goods = multi_thread_crawl('Python教程', 10) end_time = time.time() print(f'多线程爬取完成,总耗时:{end_time - start_time:.2f}秒') print(f'累计爬取商品:{len(total_goods)}件') 

4.2 多线程关键优化点

  1. 线程数控制:设置<font>THREAD_NUM = 8</font>,线程数并非越多越好,某宝对单 IP 的请求频率有限制,过多线程会导致请求被封,建议根据实际测试调整(5-10 为宜);
  2. 请求间隔:在<font>as_completed</font>中添加<font>time.sleep(REQUEST_INTERVAL)</font>,对每个完成的任务做间隔,避免单 IP 短时间内发起大量请求;
  3. 线程池管理:使用<font>with ThreadPoolExecutor</font>自动管理线程池,无需手动关闭线程,避免资源泄漏;
  4. 异常隔离:通过<font>try-except</font>捕获单个线程的异常,确保一个页面爬取失败不会影响其他线程的执行。

4.3 单线程与多线程效率对比

以爬取「Python 教程」前 10 页为例,测试环境为普通家用网络(百兆宽带)、Windows 10、Python 3.9,结果如下:

  • 单线程:总耗时约28.5 秒,平均每页 2.85 秒;
  • 多线程(8 线程):总耗时约6.2 秒,平均每页 0.62 秒;多线程效率提升约4.6 倍,且爬取页码越多,效率差距越明显,充分体现了多线程在网络 I/O 密集型任务中的优势。

五、高级反爬规避与爬取稳定性优化

即使实现了 JS 逆向与多线程,若忽略反爬规避细节,仍可能出现 IP 被封、请求失败等问题。结合某宝的反爬机制,以下是几个关键的优化策略,可大幅提升爬取稳定性:

实际某宝的<font>_m_h5_tk</font>并非固定值,会在每次请求后从响应头的<font>Set-Cookie</font>中更新,因此需实现 Cookie 的持久化存储动态更新

  1. 使用<font>requests.Session()</font>保持会话,自动维护 Cookie;
  2. 每次请求后,从<font>response.cookies</font>中提取新的<font>_m_h5_tk</font>,更新至加密工具类,确保后续请求参数的合法性。

5.2 IP 代理池接入

单 IP 爬取大量数据时,极易被某宝限制,接入IP 代理池是解决该问题的核心方案:

  1. 搭建或使用第三方代理池(如亿牛云代理),获取高匿 HTTP/HTTPS 代理;
  2. 在请求中添加<font>proxies</font>参数,随机选择代理 IP,实现 IP 轮换:python运行
proxies = { 'http': 'http://ip:port', 'https': 'https://ip:port' } response = requests.post(BASE_URL, headers=headers, data=payload, proxies=proxies, timeout=10) 

5.3 请求频率动态调整

根据爬取结果动态调整请求间隔和线程数:

  1. 若出现<font>403 Forbidden</font><font>503 Service Unavailable</font>等错误,自动增加请求间隔、减少线程数;
  2. 若连续多页爬取成功,可适当降低请求间隔,提升效率。

5.4 数据持久化与断点续爬

爬取过程中若出现程序崩溃、网络中断,会导致数据丢失,因此需实现数据持久化断点续爬

  1. 将爬取的商品数据实时保存至本地文件(JSON/CSV)或数据库(MySQL/MongoDB);
  2. 记录已爬取的页码,程序重启后从最后一次爬取的页码继续,避免重复爬取。

六、法律与伦理规范:爬取的红线

最后必须强调,电商平台的数据受《网络安全法》《反不正当竞争法》《著作权法》等法律法规保护,爬取过程中需严格遵守以下原则:

  1. 合规使用:爬取数据仅用于个人学习、科研分析,严禁用于商业运营、数据倒卖、恶意竞争等违法行为;
  2. 尊重平台规则:严格遵守某宝的《用户协议》《机器人协议(robots.txt)》,不突破平台的反爬限制,不发起恶意请求;
  3. 保护用户隐私:不爬取、不泄露平台中的用户个人信息(如手机号、地址、身份证号等),不触碰隐私保护红线;
  4. 适度爬取:控制爬取频率和数据量,避免对平台服务器造成压力,影响平台的正常运营。

若需商业使用电商平台数据,需通过平台官方提供的开放 API 进行对接,获取合法的数据授权。

七、总结与拓展

本文通过Python + JS 逆向 + 多线程的组合,实现了某宝数据的高效爬取,核心完成了三个关键环节:通过抓包与开发者工具破解了某宝的 JS 加密参数、使用 execjs 实现了 Python 与 JS 的交互、基于 ThreadPoolExecutor 完成了多线程改造,最终实现了爬取效率的大幅提升。

本次实践的代码为基础版本,可在此基础上进行以下拓展:

  1. 分布式爬取:结合 Scrapy-Redis 实现分布式爬取,突破单台机器的性能限制,爬取更大规模的数据;
  2. 无头浏览器结合:对于部分需要渲染 JS 的页面,可结合 Selenium/Playwright 无头浏览器,实现 JS 渲染与接口爬取的结合;
  3. 数据清洗与分析:将爬取的商品数据进行清洗、去重,结合 Pandas/Matplotlib 进行数据分析与可视化,挖掘市场规律;
  4. 监控告警:添加爬取状态监控,当出现 IP 被封、请求失败等情况时,通过邮件 / 短信发送告警信息。

JS 逆向与多线程是爬虫开发中的核心技术,不仅适用于某宝,也可迁移至京东、拼多多等其他电商平台,以及知乎、微博等社交平台。掌握这些技术的核心,并非为了突破反爬进行恶意爬取,而是为了在合法合规的前提下,实现数据的高效获取与分析,让技术服务于合理的业务需求。

Read more

Python深度学习环境配置(Pytorch、CUDA、cuDNN),包括Anaconda搭配Pycharm的环境搭建以及基础使用教程(保姆级教程,适合小白、深度学习零基础入门)

Python深度学习环境配置(Pytorch、CUDA、cuDNN),包括Anaconda搭配Pycharm的环境搭建以及基础使用教程(保姆级教程,适合小白、深度学习零基础入门)

全流程导览 * 一、前言 * 二、基本介绍 * 2.1全过程软件基本介绍 * 2.1.1 Pytorch * 2.1.2 Anaconda * 2.1.3 Pycharm * 2.1.4 显卡GPU及其相关概念 * 2.1.5 CUDA和cuDNN * 2.2 各部分相互间的联系和安装逻辑关系 * 三、Anaconda安装 * 3.1安装Anaconda * 3.2配置环境变量 * 3.3检验是否安装成功 * 四、Pycharm安装 * 五、Anaconda和Pycharm的基本使用 * 5.1Anaconda的基本使用 * 5.1.1Anaconda的一些基本指令 * 5.1.2有关下载源的一些指令和说明

By Ne0inhk
Flutter 三方库 sm_crypto 的鸿蒙化适配指南 - 实现国产密码算法 SM2/SM3/SM4 的端侧加解密、支持数字签名与国密 SSL 安全通信实战

Flutter 三方库 sm_crypto 的鸿蒙化适配指南 - 实现国产密码算法 SM2/SM3/SM4 的端侧加解密、支持数字签名与国密 SSL 安全通信实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 sm_crypto 的鸿蒙化适配指南 - 实现国产密码算法 SM2/SM3/SM4 的端侧加解密、支持数字签名与国密 SSL 安全通信实战 前言 在进行针对中国市场的 Flutter for OpenHarmony 企业级或政务级应用开发时,支持国产密码算法(国密)是硬性的合规要求。sm_crypto 是一个功能完备的国密算法 Dart 实现库。它涵盖了非对称加密 SM2、哈希摘要 SM3 以及对称加密 SM4。本文将探讨如何在鸿蒙端利用该库构建符合国家标准的安全加密体系。 一、原原理性解析 / 概念介绍 1.1 基础原理 sm_crypto 严格遵循国家密码管理局发布的 GM/

By Ne0inhk
Python 内置函数:enumerate()、eval()和exec()

Python 内置函数:enumerate()、eval()和exec()

一、enumerate():迭代计数的"索引器" 1.1 基础用法:为迭代对象添加计数 enumerate()函数用于将一个可迭代对象(如列表、元组等)组合为一个索引序列,同时返回索引和对应的元素值。默认计数从0开始,但可通过start参数自定义起始值。 # 基本示例 seasons =['Spring','Summer','Fall','Winter']print(list(enumerate(seasons)))# 输出: [(0, 'Spring'), (1, 'Summer'), (2, 'Fall'), (3,

By Ne0inhk
Python-playwright:一款强大的UI自动化工具、新兴爬虫利器

Python-playwright:一款强大的UI自动化工具、新兴爬虫利器

点击名片关注阿尘blog,一起学习,一起成长 本文主要分享由微软开发的实现Web UI自动化测试工具Playwright库,相比于之前学习过selenium库,playwright对于编写自动化代码绝对是更轻松了,因为它支持脚本录制,如果只求简单点可以不用写一行代码就能够实现自动化,而且playwright有许多强大的api,很多功能比起selenium都轻松简单,好了话不多说,开启正文~ playwright简介和初步使用 1.1 playwright简介 playwright优点(这里就直接摘抄一下官网的哈,不是重点) 任意浏览器 全平台 同一套 API 跨浏览器。 Playwright 支持所有现代渲染引擎,包括:Chromium、WebKit 和 Firefox。 跨平台。 适用于 Windows、Linux、macOS、本地运行、 CI、headless 和 headed。 跨语言。 在 TypeScript, JavaScript, Python, .NET, Java 中使用

By Ne0inhk