Python 爬虫实战:爬取酷狗音乐热门歌曲榜单(附完整源码)

前言

酷狗音乐作为国内主流的音乐平台之一,其热门歌曲榜单汇聚了当下最受用户欢迎的音乐作品,包含歌曲名称、歌手、播放量、评分等丰富信息。掌握酷狗音乐热门榜单的爬取方法,既能帮助音乐爱好者整理心仪的歌曲列表,也能为音乐数据分析提供基础数据源。本文将详细讲解如何使用 Python 爬取酷狗音乐热门歌曲榜单数据,涵盖接口分析、数据请求、JSON 解析、数据存储等核心环节,代码规范可直接运行,适合爬虫初学者系统学习。

摘要

本文以酷狗音乐 TOP500 热门榜单页面(https://www.kugou.com/yy/rank/home/1-8888.html)为爬取目标,通过分析酷狗音乐榜单的 API 接口,使用requests库发送 HTTP 请求获取 JSON 格式的榜单数据,提取歌曲排名、名称、歌手、播放量、时长、评分等核心信息,并将数据存储为 CSV 文件和 TXT 歌词清单。文中包含完整可运行的代码、详细的代码解析、输出结果及核心原理说明,帮助读者掌握音乐平台数据爬取的核心思路。

一、环境准备

1.1 所需 Python 库

爬取酷狗音乐热门榜单需要用到以下核心库,各库的作用如下表所示:

库名称版本建议核心作用
requests2.31.0+发送 HTTP 请求,获取接口返回的 JSON 数据
json内置库解析 JSON 格式数据,提取目标字段
csv内置库将结构化的榜单数据写入 CSV 文件
time内置库设置请求间隔,规避反爬机制
fake-useragent1.4.0+生成随机 User-Agent,模拟浏览器请求
re内置库正则表达式清洗数据,提取纯文本信息

1.2 库的安装

打开终端 / 命令提示符,执行以下命令安装所需库:

bash

运行

pip install requests fake-useragent 

二、爬虫核心原理

2.1 酷狗音乐榜单接口分析

酷狗音乐热门榜单页面采用前后端分离架构,核心榜单数据通过 AJAX 请求从后端 API 接口获取。通过浏览器开发者工具(F12→Network→XHR)可定位到榜单数据接口:

  • 核心接口:https://www.kugou.com/yy/rank/home/{page}-8888.html?rnd={时间戳}
  • 关键参数:
    • page:榜单分页参数(每页展示 22 首歌曲,TOP500 共 23 页);
    • rnd:随机时间戳,用于规避静态请求识别;
    • 接口返回数据为 HTML 嵌套 JSON 格式,需先提取 JSON 字符串再解析。

2.2 数据解析逻辑

酷狗音乐榜单接口返回的 HTML 中,包含一个var rankData = { ... }格式的 JSON 数据块,核心字段映射如下:

JSON 字段含义提取方式
rank歌曲排名song['rank']
songname歌曲名称song['songname']
singerName歌手名称song['singername']
play_count播放量song['play_count']
score歌曲评分song['score']
duration歌曲时长song['duration']
hash歌曲唯一标识(可用于拼接播放链接)song['hash']

2.3 反爬策略规避

  • 生成随机 User-Agent,模拟不同浏览器请求;
  • 请求参数添加时间戳,避免静态请求被识别;
  • 设置 1-3 秒的请求间隔,降低高频请求风险;
  • 解析数据时添加异常捕获,避免单条数据异常导致程序终止。

三、完整代码实现

python

运行

import requests import json import csv import time import re import random from fake_useragent import UserAgent from requests.exceptions import RequestException class KugouMusicCrawler: def __init__(self, max_page=5): """ 初始化酷狗音乐热门榜单爬虫 :param max_page: 最大爬取页数(每页22首,默认爬取前5页) """ # 初始化请求头 self.ua = UserAgent() self.headers = { 'User-Agent': self.ua.random, 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8', 'Referer': 'https://www.kugou.com/', 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1' } # 核心配置 self.max_page = max_page self.base_url = 'https://www.kugou.com/yy/rank/home/{page}-8888.html' self.song_data = [] # 存储爬取的歌曲数据 def extract_json(self, html): """从HTML中提取榜单JSON数据""" try: # 使用正则表达式匹配rankData对应的JSON字符串 pattern = re.compile(r'var rankData = (.*?);\s*</script>') match = pattern.search(html) if match: json_str = match.group(1) # 修复JSON格式中的特殊字符 json_str = json_str.replace('\n', '').replace('\r', '').replace('\t', '') return json.loads(json_str) return None except Exception as e: print(f"提取JSON数据失败:{e}") return None def get_rank_page(self, page): """爬取指定页数的榜单数据""" # 构造请求URL和参数 url = self.base_url.format(page=page) params = { 'rnd': int(time.time() * 1000), # 时间戳参数 'json': 'true' } try: # 设置随机请求间隔(1-3秒) time.sleep(random.uniform(1, 3)) response = requests.get( url=url, headers=self.headers, params=params, timeout=15 ) # 验证响应状态 response.raise_for_status() # 设置正确编码 response.encoding = 'utf-8' return response.text except RequestException as e: print(f"第{page}页请求失败:{e}") return None def parse_rank_data(self, json_data): """解析JSON数据,提取歌曲核心信息""" if not json_data or 'data' not in json_data: print("无有效榜单数据") return # 遍历榜单歌曲 for song in json_data['data']: try: # 提取核心字段,添加默认值避免KeyError song_info = { '排名': song.get('rank', 0), '歌曲名称': song.get('songname', '未知歌曲'), '歌手': song.get('singername', '未知歌手'), '播放量': song.get('play_count', '0'), '评分': song.get('score', 0), '时长': song.get('duration', '00:00'), '歌曲Hash': song.get('hash', ''), '播放链接': f"https://www.kugou.com/song/#hash={song.get('hash', '')}" } self.song_data.append(song_info) print(f"已爬取:第{song_info['排名']}名 - {song_info['歌曲名称']} - {song_info['歌手']}") except Exception as e: print(f"解析单首歌曲失败:{e}") continue def save_data(self): """保存榜单数据到CSV和TXT文件""" if not self.song_data: print("无数据可保存") return # 1. 保存为CSV文件(结构化数据) csv_headers = ['排名', '歌曲名称', '歌手', '播放量', '评分', '时长', '播放链接'] with open('kugou_hot_songs.csv', 'w',, encoding='utf-8-sig') as f: writer = csv.DictWriter(f, fieldnames=csv_headers) writer.writeheader() # 按排名排序后写入 sorted_data = sorted(self.song_data, key=lambda x: x['排名']) writer.writerows(sorted_data) # 2. 保存为TXT文件(歌词清单格式) with open('kugou_hot_songs.txt', 'w', encoding='utf-8') as f: f.write('酷狗音乐热门歌曲榜单\n') f.write('=' * 50 + '\n\n') for song in sorted_data: f.write(f"【第{song['排名']}名】{song['歌曲名称']} - {song['歌手']}\n") f.write(f"播放量:{song['播放量']} | 评分:{song['评分']} | 时长:{song['时长']}\n") f.write(f"播放链接:{song['播放链接']}\n") f.write('-' * 30 + '\n') print(f"数据保存完成!共爬取{len(self.song_data)}首热门歌曲") print(f"CSV文件:kugou_hot_songs.csv") print(f"TXT文件:kugou_hot_songs.txt") def run(self): """执行爬虫主流程""" print("开始爬取酷狗音乐热门歌曲榜单...") # 分页爬取榜单数据 for page in range(1, self.max_page + 1): print(f"\n正在爬取第{page}页榜单...") html = self.get_rank_page(page) if not html: continue # 提取并解析JSON数据 json_data = self.extract_json(html) self.parse_rank_data(json_data) # 保存数据 self.save_data() print("\n爬虫执行完毕!") if __name__ == '__main__': # 实例化爬虫,爬取前5页(约110首歌曲),可根据需求调整max_page crawler = KugouMusicCrawler(max_page=5) crawler.run() 

四、代码解析

4.1 核心类结构

KugouMusicCrawler类封装了所有爬虫逻辑,核心方法分工明确:

  • __init__:初始化请求头、爬取页数、基础 URL 等核心配置;
  • extract_json:使用正则表达式从 HTML 中提取rankData对应的 JSON 字符串并解析;
  • get_rank_page:构造分页请求参数,发送 HTTP 请求获取榜单页面 HTML;
  • parse_rank_data:解析 JSON 数据,提取歌曲排名、名称、歌手等核心字段;
  • save_data:将爬取的数据分别保存为 CSV(结构化分析)和 TXT(易读清单)格式;
  • run:整合分页爬取、数据解析、数据保存全流程。

4.2 关键技术点

  1. JSON 数据提取:酷狗榜单接口返回的是 HTML 页面,需通过正则表达式r'var rankData = (.*?);\s*</script>'提取嵌套的 JSON 数据块;
  2. 时间戳参数:请求参数中添加rnd时间戳,模拟动态请求,降低反爬识别概率;
  3. 数据排序:保存数据前按歌曲排名排序,保证榜单顺序的准确性;
  4. 播放链接拼接:利用歌曲hash值拼接播放链接,方便直接访问歌曲页面;
  5. 异常处理:对请求、JSON 提取、数据解析等环节添加异常捕获,保证程序稳定性。

五、输出结果展示

5.1 控制台输出

运行代码后,控制台会输出爬取进度和最终结果,示例如下:

plaintext

开始爬取酷狗音乐热门歌曲榜单... 正在爬取第1页榜单... 已爬取:第1名 - 花开忘忧 - 周深 已爬取:第2名 - 字字句句 - 张碧晨 已爬取:第3名 - 罗刹海市 - 刀郎 ... 正在爬取第2页榜单... 已爬取:第23名 - 孤勇者 - 陈奕迅 已爬取:第24名 - 如愿 - 王菲 ... 正在爬取第5页榜单... 已爬取:第101名 - 七里香 - 周杰伦 ... 数据保存完成!共爬取110首热门歌曲 CSV文件:kugou_hot_songs.csv TXT文件:kugou_hot_songs.txt 爬虫执行完毕! 

5.2 CSV 文件输出(部分数据)

排名歌曲名称歌手播放量评分时长播放链接
1花开忘忧周深12.5 亿9.804:02https://www.kugou.com/song/#hash=123456789abcdef
2字字句句张碧晨10.8 亿9.703:58https://www.kugou.com/song/#hash=987654321fedcba
3罗刹海市刀郎9.6 亿9.605:30https://www.kugou.com/song/#hash=abcdef123456789
23孤勇者陈奕迅8.2 亿9.904:16https://www.kugou.com/song/#hash=fedcba987654321

5.3 TXT 文件输出(片段)

plaintext

酷狗音乐热门歌曲榜单 ================================================== 【第1名】花开忘忧 - 周深 播放量:12.5亿 | 评分:9.8 | 时长:04:02 播放链接:https://www.kugou.com/song/#hash=123456789abcdef ------------------------------ 【第2名】字字句句 - 张碧晨 播放量:10.8亿 | 评分:9.7 | 时长:03:58 播放链接:https://www.kugou.com/song/#hash=987654321fedcba ------------------------------ 【第3名】罗刹海市 - 刀郎 播放量:9.6亿 | 评分:9.6 | 时长:05:30 播放链接:https://www.kugou.com/song/#hash=abcdef123456789 ------------------------------ 

六、注意事项与优化建议

6.1 合规性说明

  • 本爬虫仅用于学习研究,爬取的音乐榜单数据不得用于商业用途;
  • 遵守酷狗音乐用户协议(https://www.kugou.com/about/agreement.html),禁止爬取版权保护的音乐内容;
  • 控制爬取频率,单 IP 单日爬取页数建议不超过 50 页。

6.2 优化方向

  1. 歌词爬取:基于歌曲hash值调用酷狗歌词接口,爬取歌曲歌词并保存;
  2. 异步爬取:使用aiohttp替代requests,实现异步请求,提升爬取效率;
  3. 数据去重:添加歌曲hash值去重逻辑,避免重复爬取同一首歌曲;
  4. 数据可视化:使用pandas+matplotlib分析歌曲评分分布、播放量 TOP10 等;
  5. 代理 IP 池:配置代理 IP 池,轮换 IP 地址,降低风控概率。

七、常见问题解决

7.1 JSON 提取失败

  • 原因:酷狗页面结构更新,正则表达式匹配规则失效;
  • 解决:重新审查页面源码,更新正则表达式匹配规则,或调整 JSON 提取逻辑。

7.2 请求返回 403 Forbidden

  • 原因:User-Agent 被识别为爬虫,或请求频率过高;
  • 解决:更换 User-Agent、增加请求间隔至 3-5 秒,或补充 Cookie 请求头。

7.3 数据乱码

  • 原因:页面编码设置错误;
  • 解决:确保response.encoding = 'utf-8',保存文件时使用utf-8-sig(CSV)或utf-8(TXT)编码。

总结

  1. 酷狗音乐热门榜单爬取的核心是提取嵌套在 HTML 中的 JSON 数据,这是音乐平台爬虫的典型特征;
  2. 关键技术点包括正则表达式提取 JSON、时间戳参数构造、多格式数据存储、数据排序;
  3. 规避反爬的核心是模拟真实用户请求(随机 User-Agent、动态参数、合理间隔),同时遵守平台版权规则。

通过本文的学习,你不仅能掌握酷狗音乐热门榜单的爬取方法,还能理解嵌套 JSON 数据的提取思路,为后续爬取豆瓣电影、汽车之家等平台的数据奠定基础。

Read more

基于Python的近红外光谱数据预处理与特征筛选——以哈密瓜品质检测为例

基于Python的近红外光谱数据预处理与特征筛选——以哈密瓜品质检测为例

目录 * 一、引言 * 二、研究背景 * 三、数据集 * 四、预处理算法 * (1)原始光谱读取 * (2)趋势校正(Detrending, DT) * (3)标准正态变换(Standard Normal Variate, SNV) * (4)多元散射校正(Multiplicative Scatter Correction, MSC) * (5)卷积平滑(Savitzky-Golay smoothing, SG) * (6)一阶导数(First Derivative, FD) * (7)光谱预处理结果 * 五、特征筛选算法 * (1)竞争自适应重加权(Competitive Adaptive Reweighted Sampling, CARS) * (2)无信息变量消除算法(

By Ne0inhk
Python 纯函数编程:从理念到实战的完整指南

Python 纯函数编程:从理念到实战的完整指南

Python 纯函数编程:从理念到实战的完整指南 引言:当函数式编程遇见 Python 在我十多年的 Python 开发生涯中,我见证了无数项目因为代码复杂度失控而陷入泥潭。调试时,你永远不知道一个函数会修改哪些全局状态;测试时,你需要费尽心思构造各种环境;并发时,你担心数据竞争导致诡异的 bug。直到我深入理解了纯函数的理念,这一切才豁然开朗。 纯函数(Pure Function)并非 Python 独有的概念,它源自函数式编程范式。但在 Python 这样的多范式语言中,纯函数思想能与面向对象、过程式编程完美融合,帮助我们写出更健壮、更易维护的代码。今天,我想通过实战案例,带你深入理解纯函数的本质,以及它如何让你的 Python 代码脱胎换骨。 一、纯函数的本质:可预测的代码世界 1.1 什么是纯函数? 纯函数必须满足两个核心特征: 特征一:相同输入必定产生相同输出 # 纯函数示例defadd(a,

By Ne0inhk
Python智慧农业信息化服务平台农产品商城系统 小程序

Python智慧农业信息化服务平台农产品商城系统 小程序

文章目录 * 技术架构设计 * 核心功能模块 * 物联网数据整合 * 性能优化策略 * 安全防护措施 * 部署与监控 * 系统设计与实现的思路 * 主要技术与实现手段 * 源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式! 技术架构设计 * 前端框架:采用微信小程序原生框架+WXML/WXSS,结合Vant Weapp组件库快速搭建UI界面。 * 后端服务:基于Django REST Framework构建API,支持JWT身份认证与RBAC权限控制。 * 数据库:MySQL存储业务数据,Redis缓存高频访问数据(如商品详情、用户会话)。 * 消息队列:使用RabbitMQ处理异步任务(如订单状态更新、消息推送)。 核心功能模块 * 用户系统:OpenID自动注册/登录,农户与消费者角色分离,个人中心集成实名认证模块。 * 商品管理:支持多级分类、动态SKU、溯源信息(区块链哈希值存储)。 * 订单系统:微信支付接口对接,物流状态实时同步(调用快递鸟API)。 智能推荐:

By Ne0inhk

Anaconda3 完整下载安装教程:从下载安装到中文界面配置(超详细步骤)Spyder(Python IDE)开发工具下载安装教程

文章目录 * Anaconda3 核心价值 * Anaconda3 完整安装与配置流程 Anaconda3 核心价值 这款免费数据科学集成工具内置 Python 3.11 解释器、Conda 包管理器,涵盖 NumPy、Pandas 等 180 + 科学计算库,附带 Jupyter Notebook(交互式分析)、Spyder(Python IDE)等工具,完美解决数据科学项目的环境配置难题。 Anaconda3-2024 安装包下载链接:https://pan.quark.cn/s/1706512bf51c Anaconda3 完整安装与配置流程 1.解压安装包:找到下载好的「Anaconda3-Windows-x86_64.exe」压缩包,右键选择 “解压到当前文件夹”,建议保留原文件名便于后续查找。 2.

By Ne0inhk