Python 爬虫项目实战(一):爬取某云热歌榜歌曲

Python 爬虫项目实战(一):爬取某云热歌榜歌曲

前言

网络爬虫(Web Crawler),也称为网页蜘蛛(Web Spider)或网页机器人(Web Bot),是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索引、内容抓取等。

爬虫的基本原理

  1. 种子 URL:爬虫从一个或多个种子 URL 开始,这些 URL 是起点。
  2. 发送请求:爬虫向这些种子 URL 发送 HTTP 请求,通常是 GET 请求。
  3. 获取响应:服务器返回网页的 HTML 内容作为响应。
  4. 解析内容:爬虫解析 HTML 内容,提取所需的数据(如文本、链接、图片等)。
  5. 提取链接:从网页中提取出所有链接,并将这些链接加入待访问队列。
  6. 重复过程:爬虫重复上述步骤,直到达到某个停止条件,如爬取了一定数量的页面,或所有页面都被爬取完毕。

爬虫的分类

  1. 通用爬虫
    • 设计用于抓取整个互联网的大量网页。搜索引擎(如 Google、Bing)的爬虫就是通用爬虫。
  2. 聚焦爬虫
    • 专注于特定主题或领域,抓取相关网页。比如,一个新闻爬虫只抓取新闻网站的内容。
  3. 增量爬虫
    • 仅抓取自上次爬取以来发生变化或更新的网页,适用于动态内容更新频繁的网站。

爬虫的合法性和道德

在编写和运行爬虫时,必须遵循以下原则:

  1. 遵守网站的 robots.txt
    • 大多数网站都有一个 robots.txt 文件,规定了哪些页面允许被爬取,哪些不允许。爬虫应当尊重这些规则。
  2. 避免过度抓取
    • 设置适当的抓取频率,避免对服务器造成过大负担。
  3. 尊重版权和隐私
    • 不应抓取或使用受版权保护的内容,或涉及用户隐私的数据。
  4. 获取许可
    • 在某些情况下,最好获得网站管理员的许可,特别是当你打算频繁地抓取大量数据时。

通过以上方法和原则,可以编写高效、可靠且合规的网络爬虫来满足数据采集的需求。 

侦察

打开页面

F12 检查定位关键元素

在网络中刷新页面

搜索关键字

查看在页面中的渲染情况是不是我们想要的数据,可以看到这里列出了200首歌那么就是的

在标头中确定数据来源地址及请求方法

源代码

import re import os import requests filename = 'music\\' # 如果没有则创建文件夹 if not os.path.exists(filename): os.makedirs(filename) # 请求网址(如果想要爬取其他的榜单的歌曲内容,只需要改这个 url 即可) url = 'https://music.163.com/playlist?id=3778678' # 伪造请求头 headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36' } # 发送请求 response = requests.get(url, headers=headers) # re.findall # 这个函数用于在字符串中查找所有与正则表达式模式匹配的部分,并返回一个包含所有匹配项的列表 # r 前缀表示这是一个原始字符串,其中的反斜杠不会被解释为转义字符 # (\d+): 捕获组,匹配一个或多个数字 # (.*?): 捕获组,非贪婪匹配任何字符(包括空字符),直到遇到 </a> html_data = re.findall(r'<li><a href="/song\?id=(\d+)">(.*?)</a>', response.text) # 正则表达式提取出来的一个内容返回是列表 里面每一个元素都是元组 for num_id, title in html_data: # 调用接口 music_url = f'https://music.163.com/song/media/outer/url?id={num_id}.mp3' # 发送请求获取二进制数据 music_content = requests.get(music_url, headers=headers) # 保存 with open('music\\' + title + '.mp3', 'wb') as f: f.write(music_content.content) print(num_id, title) 

项目效果

Read more

AI Agent 架构:基础组成模块深度解析

AI Agent 架构:基础组成模块深度解析

AI Agent 架构:基础组成模块深度解析 📝 本章学习目标:本章是入门认知部分,帮助零基础读者建立对AI Agent的初步认知。通过本章学习,你将全面掌握"AI Agent 架构:基础组成模块深度解析"这一核心主题。 一、引言:为什么这个话题如此重要 在AI Agent快速发展的今天,AI Agent 架构:基础组成模块深度解析已经成为每个开发者和研究者必须了解的核心知识。无论你是技术背景还是非技术背景,理解这一概念都将帮助你更好地把握AI时代的机遇。 1.1 背景与意义 💡 核心认知:AI Agent正在从"对话工具"进化为"执行引擎",能够主动完成任务、调用工具、与外部世界交互。这一变革正在深刻改变我们的工作和生活方式。 从2023年AutoGPT的横空出世,到如今百花齐放的Agent生态,短短一年多时间,执行式AI已经从概念走向落地。根据最新统计,

By Ne0inhk

Flutter 三方库 adb 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、全能、跨平台的 Android Debug Bridge (ADB) 调试与设备管理连接引擎

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 adb 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、全能、跨平台的 Android Debug Bridge (ADB) 调试与设备管理连接引擎 在鸿蒙(OpenHarmony)系统的开发工具链(如鸿蒙版 IDE 配套工具)、自动化测试框架(Patrol/Appium)或多端协同管理应用中,如何通过 Dart 代码直接操纵安卓设备、执行 Shell 命令或进行文件传输?adb 为开发者提供了一套工业级的、基于 Dart 的标准 ADB 协议封装方案。本文将深入实战其在跨平台设备管理中的应用。 前言 什么是 ADB Dart Wrapper?它是针对 Android Debug

By Ne0inhk
【Linux】Linux基本使用和程序部署

【Linux】Linux基本使用和程序部署

🎬 那我掉的头发算什么:个人主页 🔥 个人专栏: 《javaSE》《数据结构》《数据库》《javaEE》 ⛺️待到苦尽甘来日 文章目录 * Linux环境搭建 * 环境搭建方式 * 使用云服务器 * 使用终端软件连接到Linux * Linux常用命令 * ls * pwd * cd * touch * cat * mkdir * rm * cp * mv * tail * vim * grep * ps * netstat * 搭建java部署环境 * apt * JDK * MYSQL * 部署web项目到Linux * 什么是部署 * 环境配置 * 构建项目并打包 * 上传jar包运行程序 * 杀死进程 Linux环境搭建 环境搭建方式 主要有四种: 1. 直接安装在物理机上。但是 Linux 桌面使用起来非常不友好。所以不建议。【不推荐】。 2. 使用虚拟机软件,

By Ne0inhk
Flutter 三方库 coverage_reporter 的鸿蒙化适配指南 - 实现具备 LCOV 自动分析与多格式统计的代码覆盖率报告引擎、支持端侧质量量化与 CI 流水线对齐实战

Flutter 三方库 coverage_reporter 的鸿蒙化适配指南 - 实现具备 LCOV 自动分析与多格式统计的代码覆盖率报告引擎、支持端侧质量量化与 CI 流水线对齐实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 coverage_reporter 的鸿蒙化适配指南 - 实现具备 LCOV 自动分析与多格式统计的代码覆盖率报告引擎、支持端侧质量量化与 CI 流水线对齐实战 前言 在进行 Flutter for OpenHarmony 的企业级应用交付时,如何客观地衡量测试用例的完备性?“代码覆盖率(Code Coverage)”是唯一的硬指标。虽然 Dart SDK 可以导出原始的 coverage 数据,但如何将其转化为直观、可读且能集成到工作流中的美观报告?coverage_reporter 是一款专为 Dart 项目设计的覆盖率报告聚合工具。本文将介绍如何在鸿蒙端构建极致、透明的质量度量底线。 一、原直观解析 / 概念介绍 1.1 基础原理 该库建立在“

By Ne0inhk