一篇最全Python 爬虫超详细讲解(零基础入门,适合小白)

一篇最全Python 爬虫超详细讲解(零基础入门,适合小白)

大家好!我是 Grok,由 xAI 构建。今天我们来聊聊 Python 爬虫。作为一个零基础教程,我会从最简单的地方开始,一步步带你入门。爬虫(Web Scraping)就是用程序自动从网站上抓取数据的工具,比如下载图片、收集新闻、分析价格等。为什么学?因为它超级实用,能帮你自动化很多重复工作,比如监控电商价格或收集研究数据。

注意:爬虫要遵守法律和道德!不要爬取受保护的数据(如个人信息),尊重 robots.txt 协议,避免高频请求导致网站崩溃。否则可能被封 IP 或面临法律风险。

这个教程基于 2026 年最新实践(Python 3.12+),结合了网络上热门资源(如 Bilibili 尚硅谷教程、知乎文章等)。我们会从基础到进阶,包含代码示例。准备好你的电脑,我们开始吧!

第一部分:准备工作(零基础起步)
  1. 安装 Python
    • 下载官网最新版(https://www.python.org/downloads/),推荐 Python 3.12 或更高。Windows/Mac/Linux 都支持
    • 安装时勾选“Add Python to PATH”,便于命令行使用。
    • 验证:打开命令提示符(Win: cmd;Mac: Terminal),输入 python --version,看到版本号就 OK。
  2. 安装代码编辑器
    • 推荐 VS Code(免费,轻量):下载 https://code.visualstudio.com/,安装 Python 扩展。
    • 或者 PyCharm Community Edition(专业 IDE):https://www.jetbrains.com/pycharm/download/。
  3. 安装爬虫常用库(用 pip,Python 自带包管理器):
    • 解释:
      • requests:发送 HTTP 请求,模拟浏览器访问网站。
      • beautifulsoup4(简称 bs4):解析 HTML,提取数据。
      • lxml:bs4 的高效解析器。
      • selenium:处理动态页面(如 JavaScript 加载)。
      • scrapy:专业爬虫框架。
  4. 测试环境
    • 运行:命令行 python test.py,看到输出就成功。

新建一个 .py 文件(如 test.py),写:

print("Hello, 爬虫世界!")

打开命令行,输入:

pip install requests beautifulsoup4 lxml selenium scrapy 
第二部分:爬虫基础知识

爬虫流程(核心三步):

  1. 发送请求:用 requests 获取网页内容。
  2. 解析数据:用 bs4 或 xpath 提取有用信息。
  3. 保存数据:存到文件、数据库或 Excel。

HTTP 基础(小白必知):

  • GET:获取数据(最常见)。
  • POST:提交数据(如登录)。
  • Headers:模拟浏览器(如 User-Agent)。
  • Cookies:保持登录状态。

反爬虫常见问题

  • 网站检测机器人:用假 User-Agent 或代理 IP。
  • 动态加载:用 Selenium 模拟浏览器。
第三部分:简单爬虫实战(入门示例)

我们爬取一个简单网站:百度首页的标题和链接。作为小白第一爬,超级简单!

    • 运行:保存为 baidu_crawler.py,命令行 python baidu_crawler.py
    • 输出:页面标题和链接列表。
  1. 解释代码
    • requests.get():获取网页源代码。
    • BeautifulSoup:像“汤”一样搅拌 HTML,轻松找标签(如 find_all("a") 找所有超链接)。
    • 如果网站用 JavaScript 加载,用 Selenium 替换 requests(见进阶)。
  2. 小练习:改成爬取豆瓣电影 Top 250 的电影名(URL: https://yingjuxia.com/archives/8406)。提示:找 class="title" 的标签。

代码示例(用 requests + bs4):

import requests from bs4 import BeautifulSoup # 第一步:发送请求 url ="https://www.baidu.com"# 目标网址 headers ={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}# 模拟浏览器,避开简单反爬 response = requests.get(url, headers=headers)# 检查响应if response.status_code ==200:print("请求成功!")else:print("请求失败,状态码:", response.status_code) exit()# 退出程序# 第二步:解析 HTML soup = BeautifulSoup(response.text,"lxml")# 用 lxml 解析器# 提取标题 title = soup.title.string print("页面标题:", title)# 提取所有链接 links = soup.find_all("a")# 找所有 <a> 标签for link in links: href = link.get("href")# 获取 href 属性 text = link.string # 获取文本if text:# 过滤空文本print(f"链接文本:{text},URL:{href}")# 第三步:保存数据(可选,存到文件)withopen("baidu_links.txt","w", encoding="utf-8")as f:for link in links:if link.string: f.write(f"{link.string}: {link.get('href')}\n")print("数据已保存到 baidu_links.txt")
第四部分:进阶技巧(从小白到高手)
  1. 处理动态页面(JavaScript 渲染)
    • 用 Selenium 模拟浏览器。
    • 安装 ChromeDriver(匹配你的 Chrome 版本):https://googlechromelabs.github.io/chrome-for-testing/。
    • 优势:能处理登录、点击等交互。
  2. XPath 解析(更精确提取):
    • 用 lxml 的 etree。
    • XPath 语法://tag 找所有 tag;@attr 找属性。
  3. 反爬虫应对
    • 延迟请求:import time; time.sleep(2) 每请求睡 2 秒。
    • 验证码:用 OCR 库如 pytesseract 识别简单验证码。
  4. 数据存储
    • 数据库:SQLite 或 MySQL(用 sqlite3 或 pymysql)。
  5. Scrapy 框架(专业级)
    • 安装后,创建项目:scrapy startproject myspider
    • 运行:scrapy crawl example -o output.json
    • 优势:内置调度、管道、去重,适合大项目。

示例 Spider:

import scrapy classMySpider(scrapy.Spider): name ="example" start_urls =["https://www.example.com"]defparse(self, response): titles = response.xpath('//h1/text()').getall()yield{"title": titles}

CSV:用 pandas。

import pandas as pd data =[{"name":"Alice","age":25}] df = pd.DataFrame(data) df.to_csv("data.csv", index=False)

代理 IP:用免费/付费代理池,避免 IP 被封。

proxies ={"http":"http://your_proxy:port"} response = requests.get(url, proxies=proxies)

User-Agent 轮换:用 fake_useragent 库随机 UA。

pip install fake_useragent from fake_useragent import UserAgent ua = UserAgent() headers ={"User-Agent": ua.random}

示例:

from lxml import etree html = etree.HTML(response.text)# 解析 titles = html.xpath('//h1/text()')# XPath 表达式:所有 h1 标签的文本print(titles)

示例代码:

from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver.common.by import By # 配置 ChromeDriver 路径 service = Service("path/to/chromedriver.exe")# 替换成你的路径 driver = webdriver.Chrome(service=service) url ="https://www.example.com"# 动态网站 driver.get(url)# 找元素(用 XPath 或 CSS) elements = driver.find_elements(By.CSS_SELECTOR,"div.classname")for elem in elements:print(elem.text) driver.quit()# 关闭浏览器
第五部分:常见问题与调试
  1. 请求失败(403/429):加 headers 和 proxies;检查 URL。
  2. 解析出错:打印 response.text 看源代码;用浏览器开发者工具(F12)找标签。
  3. 中文乱码:加 encoding="utf-8"
  4. 网站变化:爬虫易失效,定期维护。
  5. 法律风险:只爬公开数据;参考 robots.txt(URL/robots.txt)。
第六部分:资源推荐(继续学习)

恭喜!你已入门 Python 爬虫!多练多调试,很快就能爬复杂网站。遇到问题,欢迎问我~ 🚀 如果想加深某个部分(如 Scrapy 实战),告诉我!

Read more

动态规划 线性 DP 经典四题一遍吃透

动态规划 线性 DP 经典四题一遍吃透

文章目录 * 台阶问题 * 最大子段和 * 传球游戏 * 乌龟棋 线性dp 是动态规划问题中最基础、最常⻅的⼀类问题。它的特点是状态转移只依赖于前⼀个或前⼏个状态,状态之间的关系是线性的,通常可以⽤⼀维或者⼆维数组来存储状态。 我们在⼊⻔阶段解决的《下楼梯》以及《数字三⻆形》其实都是线性dp,⼀个是⼀维的,另⼀个是⼆ 维的。 台阶问题 题目描述 题目解析 本题就是上一节下楼梯的问题的加强版,总体思路不变,下面我们还是按照动规5板斧来分析一下这道题。 1、状态表示 dp[i]表示走到第i个台阶的所有方案数 2、状态转移方程 第i个台阶的方案数等于从i-1阶到i-k阶的所有方案数之和,因为本题数据比较大,用long long都无法保证数据不越界,所以题目规定方案数还需要模100003,第i个台阶的方案数等于从i-1阶到i-k阶的所有方案数之和再模上100003,所以但是注意是可能越界访问的,比如i为3,

By Ne0inhk
【基础算法】算法的“预谋”:前缀和如何改变游戏规则

【基础算法】算法的“预谋”:前缀和如何改变游戏规则

🔭 个人主页:散峰而望 《C语言:从基础到进阶》《编程工具的下载和使用》《C语言刷题》《算法竞赛从入门到获奖》《人工智能》《AI Agent》 愿为出海月,不做归山云 🎬博主简介 【基础算法】算法的“预谋”:前缀和如何改变游戏规则 * 前言 * 前缀和 * 1.1 一维前缀和 * 1.1.1 前缀和 * 1.1.2 最大子段和 * 1.2 二维前缀和 * 1.2.1 二维前缀和 * 1.2.2 激光炸弹 * 结语 前言 在算法设计与优化中,前缀和是一种简单却强大的技巧,能够将复杂问题转化为高效计算。无论是处理一维数组的区间求和,还是解决二维矩阵的子矩阵问题,前缀和都能通过预处理将时间复杂度从线性降低到常数级别,彻底改变问题的解决方式。

By Ne0inhk
扬帆数据结构算法之雅舟航程,漫步C++幽谷——LeetCode刷题之移除链表元素、反转链表、找中间节点、合并有序链表、链表的回文结构

扬帆数据结构算法之雅舟航程,漫步C++幽谷——LeetCode刷题之移除链表元素、反转链表、找中间节点、合并有序链表、链表的回文结构

人无完人,持之以恒,方能见真我!!! 共同进步!! 文章目录 * 一、移除链表元素 * 思路一 * 思路二 * 二、合并两个有序链表 * 思路: * 优化: * 三、反转链表 * 思路一 * 思路二 * 四、链表的中间节点 * 思路一 * 思路二 * 五、综合应用之链表的回文结构 * 思路一 * 思路二 一、移除链表元素 题目链接:移除链表元素 我们先来看看题目的描述 根据题目描述我们就可以大致明白题意,就是将一个链表中的某个值的节点删除,然后返回新链表的头结点,然后题目要我们实现的函数给了我们头结点,以及要删除的数据,我们要把相应的节点删除 思路一 首先最简单的思路就是,我们可以通过之前实现的链表的方法用上,首先使用Find方法找到对应的值,然后使用Erase方法删除,直到Find方法返回空指针结束 由于这个方法思路比较好实现,这里就不再赘述了,可以自己尝试一下,我们的关键是更优方法的思路二 思路二 这个题其实跟我们在刷顺序表题的时候遇见类似的,只不过之前要删除的是数组中的元

By Ne0inhk
【数据结构与算法】链表超全分类!从结构入门到双向链表初始化实现

【数据结构与算法】链表超全分类!从结构入门到双向链表初始化实现

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《C语言》《【初阶】数据结构与算法》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、链表的分类与说明 * 1.1 单向或者双向 * 1.2 带头或者不带头 * 1.3 循环或者不循环 * 二、双向链表 * 2.1 双向链表的定义 * 2.2 双向链表中哨兵位头节点的初始化 * 三、代码展现 * 3.1 List.h * 3.2 List.c * 3.3 test.c * 总结与每日励志 前言 链表是数据结构入门阶段的核心知识点,

By Ne0inhk