Python 爬虫项目实战(一):爬取某云热歌榜歌曲

Python 爬虫项目实战(一):爬取某云热歌榜歌曲

前言

网络爬虫(Web Crawler),也称为网页蜘蛛(Web Spider)或网页机器人(Web Bot),是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索引、内容抓取等。

爬虫的基本原理

  1. 种子 URL:爬虫从一个或多个种子 URL 开始,这些 URL 是起点。
  2. 发送请求:爬虫向这些种子 URL 发送 HTTP 请求,通常是 GET 请求。
  3. 获取响应:服务器返回网页的 HTML 内容作为响应。
  4. 解析内容:爬虫解析 HTML 内容,提取所需的数据(如文本、链接、图片等)。
  5. 提取链接:从网页中提取出所有链接,并将这些链接加入待访问队列。
  6. 重复过程:爬虫重复上述步骤,直到达到某个停止条件,如爬取了一定数量的页面,或所有页面都被爬取完毕。

爬虫的分类

  1. 通用爬虫
    • 设计用于抓取整个互联网的大量网页。搜索引擎(如 Google、Bing)的爬虫就是通用爬虫。
  2. 聚焦爬虫
    • 专注于特定主题或领域,抓取相关网页。比如,一个新闻爬虫只抓取新闻网站的内容。
  3. 增量爬虫
    • 仅抓取自上次爬取以来发生变化或更新的网页,适用于动态内容更新频繁的网站。

爬虫的合法性和道德

在编写和运行爬虫时,必须遵循以下原则:

  1. 遵守网站的 robots.txt
    • 大多数网站都有一个 robots.txt 文件,规定了哪些页面允许被爬取,哪些不允许。爬虫应当尊重这些规则。
  2. 避免过度抓取
    • 设置适当的抓取频率,避免对服务器造成过大负担。
  3. 尊重版权和隐私
    • 不应抓取或使用受版权保护的内容,或涉及用户隐私的数据。
  4. 获取许可
    • 在某些情况下,最好获得网站管理员的许可,特别是当你打算频繁地抓取大量数据时。

通过以上方法和原则,可以编写高效、可靠且合规的网络爬虫来满足数据采集的需求。 

侦察

打开页面

F12 检查定位关键元素

在网络中刷新页面

搜索关键字

查看在页面中的渲染情况是不是我们想要的数据,可以看到这里列出了200首歌那么就是的

在标头中确定数据来源地址及请求方法

源代码

import re import os import requests filename = 'music\\' # 如果没有则创建文件夹 if not os.path.exists(filename): os.makedirs(filename) # 请求网址(如果想要爬取其他的榜单的歌曲内容,只需要改这个 url 即可) url = 'https://music.163.com/playlist?id=3778678' # 伪造请求头 headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36' } # 发送请求 response = requests.get(url, headers=headers) # re.findall # 这个函数用于在字符串中查找所有与正则表达式模式匹配的部分,并返回一个包含所有匹配项的列表 # r 前缀表示这是一个原始字符串,其中的反斜杠不会被解释为转义字符 # (\d+): 捕获组,匹配一个或多个数字 # (.*?): 捕获组,非贪婪匹配任何字符(包括空字符),直到遇到 </a> html_data = re.findall(r'<li><a href="/song\?id=(\d+)">(.*?)</a>', response.text) # 正则表达式提取出来的一个内容返回是列表 里面每一个元素都是元组 for num_id, title in html_data: # 调用接口 music_url = f'https://music.163.com/song/media/outer/url?id={num_id}.mp3' # 发送请求获取二进制数据 music_content = requests.get(music_url, headers=headers) # 保存 with open('music\\' + title + '.mp3', 'wb') as f: f.write(music_content.content) print(num_id, title) 

项目效果

Read more

Flutter 三方库 flutter_cep2 的鸿蒙化适配指南 - 实现巴西邮政编码(CEP)的端侧校验与地理位置映射、支持地址自动补全与区域化数据解析实战

Flutter 三方库 flutter_cep2 的鸿蒙化适配指南 - 实现巴西邮政编码(CEP)的端侧校验与地理位置映射、支持地址自动补全与区域化数据解析实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 flutter_cep2 的鸿蒙化适配指南 - 实现巴西邮政编码(CEP)的端侧校验与地理位置映射、支持地址自动补全与区域化数据解析实战 前言 在进行 Flutter for OpenHarmony 的全球化电商、物流或本地服务应用开发时,针对特定地区的地址规范校检是提升用户下单转化率的关键。对于巴西市场,CEP(Código de Endereçamento Postal)是唯一的邮政编码标准。flutter_cep2 是一个功能完备的 CEP 处理库。它不仅能验证格式,还能通过在线或离线方式获取对应的街道、社区及城市信息。本文将介绍如何在鸿蒙端构建极致的南美区域化地址感知能力。 一、原原理性解析 / 概念介绍 1.1 基础原理 flutter_cep2 封装了对巴西邮政官方或第三方聚合接口(如 ViaCEP,

By Ne0inhk
鸿蒙APP开发从入门到精通:鸿蒙电商购物车全栈项目——用户管理、商品列表、购物车

鸿蒙APP开发从入门到精通:鸿蒙电商购物车全栈项目——用户管理、商品列表、购物车

《鸿蒙APP开发从入门到精通》第13篇:鸿蒙电商购物车全栈项目——用户管理、商品列表、购物车 🛒📱 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第13篇——用户管理、商品列表、购物车篇,100%承接第12篇的「运维监控、生态运营与专属变现」项目架构,完成鸿蒙电商购物车全栈项目的基础功能实现。 学习目标: * 掌握用户管理的设计与实现; * 实现用户注册、登录、用户信息管理; * 理解商品列表的设计与实现; * 实现商品列表、商品详情、商品搜索; * 掌握购物车管理的设计与实现; * 实现添加商品到购物车、修改购物车商品数量、删除购物车商品; * 优化用户管理、商品列表、购物车的用户体验(响应速度、数据安全、用户反馈)。 学习重点: * 鸿蒙APP用户管理的开发流程; * 用户管理的分类与使用场景; * 商品列表的设计与实现; * 购物车管理的设计与实现。 一、 用户管理基础 🎯 1.1 用户管理定义 用户管理是指对应用的用户进行管理,主要包括以下方面:

By Ne0inhk
Flutter for OpenHarmony:dart_ping 网络诊断的瑞士军刀(支持 ICMP Ping) 深度解析与鸿蒙适配指南

Flutter for OpenHarmony:dart_ping 网络诊断的瑞士军刀(支持 ICMP Ping) 深度解析与鸿蒙适配指南

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在应用开发中,网络连通性检测是一个强需求。 * 用户的网络是 WiFi 还是 4G? * 虽然连着 WiFi,但是否真的能通公网(Ping www.baidu.com)? * 连接内网服务器的延迟是多少? 虽然 connectivity_plus 可以告诉我们网络类型(WiFi/Mobile),但它无法检测实际的连通性(比如 WiFi 连上了但没网)。这时,最直接的手段就是 Ping。 dart_ping 是一个跨平台的 Dart Ping 库。它并不重新实现 ICMP 协议(那需要 root 权限),而是巧妙地封装了各操作系统的原生 ping 命令,并解析其输出流。 对于

By Ne0inhk
【JavaEE初阶】深入理解网络编程—使用UDP协议API实现回显服务器

【JavaEE初阶】深入理解网络编程—使用UDP协议API实现回显服务器

前言 🌟🌟本期讲解关于TCP/UDP协议的原理理解~~~ 🌈感兴趣的小伙伴看一看小编主页:GGBondlctrl-ZEEKLOG博客 🔥 你的点赞就是小编不断更新的最大动力                                        🎆那么废话不多说直接开整吧~~~ 目录 1.UDP的API使用  1.1DatagramSocket 1.2DatagramPacket  2.实现回显服务器 2.1概念 2.2服务器的操作过程 1.初始化服务器 2.读取请求并解析 3.根据请求实现响应 4.把响应返回给客户端 5.客户端的IP和端口号打印 6.主函数的实现 2.3客户端的操作过程 1.初始化客户端 2.控制台输入请求 3.构造请求并且发送 4.读取服务器的响应 5.主函数的实现 2.4回显服务器基本流程 2.5打印日志分析 3.总结

By Ne0inhk