前言
在数据分析领域,常遇到两类人群:一类是掌握爬虫技术但不知道如何进一步进行深度数据处理的开发者;另一类是习惯使用 Excel 进行日常分析,但对 Python 数据分析能力有所欠缺的职场人士。如果符合您的情况,本文提供的系统长文将非常适合作为参考,建议收藏。
本文介绍了使用 Python 和 Pandas 库进行数据分析的完整流程。涵盖数据生成与导入、数据检查、清洗(空值处理、格式转换)、预处理(合并、排序、分组)、提取(loc/iloc)、筛选(条件查询)、汇总(GroupBy/Pivot)、统计描述及结果输出。通过对比 Excel 功能,展示了 Python 在大数据处理、自动化脚本编写及复杂分析任务中的优势,适合从 Excel 用户转型或希望提升数据处理效率的技术人员参考。

在数据分析领域,常遇到两类人群:一类是掌握爬虫技术但不知道如何进一步进行深度数据处理的开发者;另一类是习惯使用 Excel 进行日常分析,但对 Python 数据分析能力有所欠缺的职场人士。如果符合您的情况,本文提供的系统长文将非常适合作为参考,建议收藏。
Excel 虽然是数据分析中最常用的工具之一,但在处理百万级数据或复杂逻辑时显得力不从心。本文通过对比 Python 与 Excel 的功能差异,详细介绍如何使用 Python 结合函数式编程完成 Excel 中的数据导入、清洗、预处理、分类汇总及透视等核心操作。内容基于 pandas 官方文档总结的最常用函数,旨在帮助读者建立从数据生成到结果输出的完整工作流。
文章内容共分为 9 个部分,涵盖数据表生成、检查、清洗、预处理、提取、筛选、汇总、统计及输出。
第一部分主要介绍数据表的生成方法。常见的生成方式有两种:一是导入外部数据源,二是直接在代码中写入数据。
Excel 的文件菜单中提供了获取外部数据的功能,支持数据库、文本文件和网页等多种数据源。Python 同样支持从多种类型的数据导入。在开始使用 Python 进行数据导入前,需要先导入 pandas 库。为了方便起见,通常也会同时导入 numpy 库。
import numpy as np
import pandas as pd
下面分别展示从 excel 和 csv 格式文件导入数据并创建数据表的方法。代码采用最简模式,实际应用中包含许多可选参数设置,例如列名称、索引列、数据格式等。感兴趣的朋友可以参考 pandas 的官方文档。
df = pd.DataFrame(pd.read_csv('name.csv', header=1))
df = pd.DataFrame(pd.read_excel('name.xlsx'))
另一种方法是直接通过代码写入数据来生成数据表。Excel 中直接在单元格中输入数据即可,而在 Python 中则通过 DataFrame 函数来实现。
生成数据表的函数是 pandas 库中的 DataFrame 函数。示例数据表包含 6 行数据,每行有 6 个字段。在数据中特意设置了一些 NA 值和有问题的字段(如包含空格),以便后续在数据清洗步骤中进行处理。我们将统一以 DataFrame 的简称 df 来命名数据表。
df = pd.DataFrame({"id": [1001, 1002, 1003, 1004, 1005, 1006],
"date": pd.date_range('20130102', periods=6),
"city": ['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
"age": [23, 44, 54, 32, 34, 32],
"category": ['100-A', '100-B', '110-A', '110-C', '210-A', '130-F'],
"price": [1200, np.nan, 2133, 5433, np.nan, 4432]},
columns=['id', 'date', 'city', 'category', 'age', 'price'])
这是刚刚创建的数据表。我们没有设置索引列,price 字段中包含有 NA 值,city 字段中还包含了一些脏数据(如多余空格)。
第二部分是对数据表进行检查。Python 中处理的数据量通常会比较大,例如千万级的纽约出租车数据或骑行数据,我们无法一目了然地了解数据表的整体情况,必须通过一些方法来获得数据表的关键信息。数据表检查的另一个目的是了解数据的概况,例如整个数据表的大小、所占空间、数据格式、是否有空值和重复项以及具体的数据内容,为后面的清洗和预处理做好准备。
Excel 中可以通过 CTRL+ 向下的光标键和 CTRL+ 向右的光标键来查看行号和列号。Python 中使用 shape 属性来查看数据表的维度,也就是行数和列数。函数返回的结果 (6, 6) 表示数据表有 6 行,6 列。
# 查看数据表的维度
df.shape
# (6, 6)
使用 info 函数查看数据表的整体信息,这里返回的信息比较多,包括数据维度、列名称、数据格式和所占空间等信息。
# 数据表信息
df.info()
Excel 中通过选中单元格并查看开始菜单中的数值类型来判断数据的格式。Python 中使用 dtypes 属性来返回数据格式。
Dtypes 是一个查看数据格式的函数,可以一次性查看数据表中所有数据的格式,也可以指定一列来单独查看。
# 查看数据表各列格式
df.dtypes
# id int64
# date datetime64[ns]
# city object
# category object
# age int64
# price float64
# dtype: object
# 查看单列格式
df['city'].dtype
# dtype('object')
Excel 中查看空值的方法是使用'定位条件'功能对数据表中的空值进行定位。'定位条件'通常在'开始'选项卡下的'查找和选择'目录中。
isnull 是 Python 中检验空值的函数,返回的结果是逻辑值,包含空值返回 True,不包含则返回 False。可以对整个数据表进行检查,也可以单独对某一列进行空值检查。
# 检查数据空值
df.isnull()
# 检查特定列空值
df['price'].isnull()
Excel 中查看唯一值的方法是使用'条件格式'对唯一值进行颜色标记。Python 中使用 unique 函数查看唯一值。
Unique 是查看唯一值的函数,只能对数据表中的特定列进行检查。下面是代码,返回的结果是该列中的唯一值。类似于 Excel 中删除重复项后的结果。
# 查看 city 列中的唯一值
df['city'].unique()
# array(['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '], dtype=object)
Python 中的 values 属性用来查看数据表中的数值。以数组的形式返回,不包含表头信息。
# 查看数据表的值
df.values
columns 属性用来单独查看数据表中的列名称。
# 查看列名称
df.columns
head 函数用来查看数据表中的前 N 行数据,默认 head() 显示前 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看前 3 行的数据。
# 查看前 3 行数据
df.head(3)
tail 函数与 head 函数相反,用来查看数据表中后 N 行的数据,默认 tail() 显示后 10 行数据,可以自己设置参数值来确定查看的行数。下面的代码中设置查看后 3 行的数据。
# 查看最后 3 行
df.tail(3)
第三部分是对数据表中的问题进行清洗。主要内容包括对空值、大小写问题、数据格式和重复值的处理。这里不包含对数据间的逻辑验证。
我们在创建数据表的时候在 price 字段中故意设置了几个 NA 值。对于空值的处理方式有很多种,可以直接删除包含空值的数据,也可以对空值进行填充,比如用 0 填充或者用均值填充。还可以根据不同字段的逻辑对空值进行推算。
Excel 中可以通过'查找和替换'功能对空值进行处理,将空值统一替换为 0 或均值。也可以通过'定位'空值来实现。
Python 中处理空值的方法比较灵活,可以使用 dropna 函数用来删除数据表中包含空值的数据,也可以使用 fillna 函数对空值进行填充。
# 删除数据表中含有空值的行
df.dropna(how='any')
# 使用数字 0 填充数据表中空值
df.fillna(value=0)
我们选择填充的方式来处理空值,使用 price 列的均值来填充 NA 字段,同样使用 fillna 函数,在要填充的数值中使用 mean 函数先计算 price 列当前的均值,然后使用这个均值对 NA 进行填充。
# 使用 price 均值对 NA 进行填充
df['price'] = df['price'].fillna(df['price'].mean())
除了空值,字符中的空格也是数据清洗中一个常见的问题,下面是清除字符中空格的代码。
# 清除 city 字段中的字符空格
df['city'] = df['city'].map(str.strip)
在英文字段中,字母的大小写不统一也是一个常见的问题。Excel 中有 UPPER、LOWER 等函数,Python 中也有同名函数用来解决大小写的问题。在数据表的 city 列中就存在这样的问题。我们将 city 列的所有字母转换为小写。
# city 列大小写转换
df['city'] = df['city'].str.lower()
Excel 中通过'设置单元格格式'功能可以修改数据格式。Python 中通过 astype 函数用来修改数据格式。
Python 中 dtype 是查看数据格式的函数,与之对应的是 astype 函数,用来更改数据格式。下面的代码中将 price 字段的值修改为 int 格式。
# 更改数据格式
df['price'] = df['price'].astype('int')
rename 是更改列名称的函数,我们可以将数据表中的 category 列更改为 category-size。
# 更改列名称
df.rename(columns={'category': 'category-size'})
很多数据表中还包含重复值的问题,Excel 的数据目录下有'删除重复项'的功能,可以用来删除数据表中的重复值。默认 Excel 会保留最先出现的数据,删除后面重复出现的数据。
Python 中使用 drop_duplicates 函数删除重复值。我们以数据表中的 city 列为例,city 字段中存在重复值。默认情况下 drop_duplicates() 将删除后出现的重复值 (与 Excel 逻辑一致)。增加 keep='last' 参数后将删除最先出现的重复值,保留最后的值。
# 删除后出现的重复值
df['city'].drop_duplicates()
# 删除先出现的重复值
df['city'].drop_duplicates(keep='last')
数据清洗中最后一个问题是数值修改或替换,Excel 中使用'查找和替换'功能就可以实现数值的替换。
Python 中使用 replace 函数实现数据替换。数据表中 city 字段上海存在两种写法,分别为 shanghai 和 SH。我们使用 replace 函数对 SH 进行替换。
# 数据替换
df['city'] = df['city'].replace('sh', 'shanghai')
第四部分是数据的预处理,对清洗完的数据进行整理以便后期的统计和分析工作。主要包括数据表的合并、排序、数值分列、数据分组及标记等工作。
首先是对不同的数据表进行合并。在 Excel 中没有直接完成数据表合并的功能,可以通过 VLOOKUP 函数分步实现。在 Python 中可以通过 merge 函数一次性实现。
# 创建 df1 数据表
df1 = pd.DataFrame({"id": [1001, 1002, 1003, 1004, 1005, 1006, 1007, 1008],
"gender": ['male', 'female', 'male', 'female', 'male', 'female', 'male', 'female'],
"pay": ['Y', 'N', 'Y', 'Y', 'N', 'Y', 'N', 'Y'],
"m-point": [10, 12, 20, 40, 40, 40, 30, 20]})
# 数据表匹配合并,inner 模式
df_inner = pd.merge(df, df1, how='inner')
除了 inner 方式以外,合并的方式还有 left、right 和 outer 方式。这几种方式的差别在于匹配逻辑的不同。
# 其他数据表匹配模式
df_left = pd.merge(df, df1, how='left')
df_right = pd.merge(df, df1, how='right')
df_outer = pd.merge(df, df1, how='outer')
完成数据表的合并后,我们对 df_inner 数据表设置索引列。索引列的功能很多,可以进行数据提取、汇总,也可以进行数据筛选等。设置索引的函数为 set_index。
# 设置索引列
df_inner.set_index('id')
Excel 中可以通过数据目录下的排序按钮直接对数据表进行排序。Python 中需要使用 sort_values 函数和 sort_index 函数完成排序。
在 Python 中,既可以按索引对数据表进行排序,也可以看制定列的数值进行排序。首先我们按 age 列中用户的年龄对数据表进行排序。使用的函数为 sort_values。
# 按特定列的值排序
df_inner.sort_values(by=['age'])
# 按索引列排序
df_inner.sort_index()
Excel 中可以通过 VLOOKUP 函数进行近似匹配来完成对数值的分组,或者使用'数据透视表'来完成分组。相应的 Python 中使用 where 函数完成数据分组。
Where 函数用来对数据进行判断和分组,下面的代码中对 price 列的值进行判断,将符合条件的分为一组,不符合条件的分为另一组,并使用 group 字段进行标记。
# 如果 price 列的值>3000,group 列显示 high,否则显示 low
df_inner['group'] = np.where(df_inner['price'] > 3000, 'high', 'low')
# 对复合多个条件的数据进行分组标记
df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000), 'sign'] = 1
与数据分组相反的是对数值进行分列,Excel 中的数据目录下提供'分列'功能。在 Python 中使用 split 函数实现分列。
在数据表中 category 列中的数据包含有两个信息,前面的数字为类别 id,后面的字母为 size 值。中间以连字符进行连接。我们使用 split 函数对这个字段进行拆分,并将拆分后的数据表匹配回原数据表中。
# 对 category 字段的值依次进行分列,并创建数据表
pd.DataFrame((x.split('-') for x in df_inner['category']), index=df_inner.index, columns=['category', 'size'])
# 将完成分列后的数据表与原 df_inner 数据表进行匹配
df_inner = pd.merge(df_inner, split, right_index=True, left_index=True)
第五部分是数据提取,也是数据分析中最常见的一个工作。这部分主要使用三个函数,loc、iloc 和 ix。loc 函数按标签值进行提取,iloc 按位置进行提取,ix 可以同时按标签和位置进行提取。
Loc 函数按数据表的索引标签进行提取,下面的代码中提取了索引列为 3 的单条数据。
# 按索引提取单行的数值
df_inner.loc[3]
# 按索引提取区域行数值
df_inner.loc[0:5]
Reset_index 函数用于恢复索引,这里我们重新将 date 字段的日期设置为数据表的索引,并按日期进行数据提取。
# 重设索引
df_inner.reset_index()
# 设置日期为索引
df_inner = df_inner.set_index('date')
# 提取 4 日之前的所有数据
df_inner[:'2013-01-04']
使用 iloc 函数按位置对数据表中的数据进行提取,这里冒号前后的数字不再是索引的标签名称,而是数据所在的位置,从 0 开始。
# 使用 iloc 按位置区域提取数据
df_inner.iloc[:3, :2]
# 使用 iloc 按位置单独提取数据
df_inner.iloc[[0, 2, 5], [4, 5]]
ix 是 loc 和 iloc 的混合,既能按索引标签提取,也能按位置进行数据提取。下面代码中行的位置按索引日期设置,列按位置设置。
# 使用 ix 按索引标签和位置混合提取数据
df_inner.ix[:'2013-01-03', :4]
除了按标签和位置提起数据以外,还可以按具体的条件进行数据。下面使用 loc 和 isin 两个函数配合使用,按指定条件对数据进行提取。
使用 isin 函数对 city 中的值是否为 beijing 进行判断。
# 判断 city 列的值是否为 beijing
df_inner['city'].isin(['beijing'])
# 先判断 city 列里是否包含 beijing 和 shanghai,然后将复合条件的数据提取出来
df_inner.loc[df_inner['city'].isin(['beijing', 'shanghai'])]
数值提取还可以完成类似数据分列的工作,从合并的数值中提取出制定的数值。
# 提取前三个字符,并生成数据表
category = df_inner['category']
pd.DataFrame(category.str[:3])
第六部分为数据筛选,使用与、或、非三个条件配合大于、小于和等于对数据进行筛选,并进行计数和求和。与 Excel 中的筛选功能和 countifs 和 sumifs 功能相似。
Excel 数据目录下提供了'筛选'功能,用于对数据表按不同的条件进行筛选。Python 中使用 loc 函数配合筛选条件来完成筛选功能。配合 sum 和 count 函数还能实现 Excel 中 sumif 和 countif 函数的功能。
使用'与'条件进行筛选,条件是年龄大于 25 岁,并且城市为 beijing。筛选后只有一条数据符合要求。
# 使用'与'条件进行筛选
df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'beijing'), ['id', 'city', 'age', 'category', 'gender']]
使用'或'条件进行筛选,年龄大于 25 岁或城市为 beijing。筛选后有 6 条数据符合要求。
# 使用'或'条件筛选
df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id', 'city', 'age', 'category', 'gender']].sort_values(['age'])
在前面的代码后增加 price 字段以及 sum 函数,按筛选后的结果将 price 字段值进行求和,相当于 Excel 中 sumifs 的功能。
# 对筛选后的数据按 price 字段进行求和
df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'beijing'), ['id', 'city', 'age', 'category', 'gender', 'price']].sort_values(['age']).price.sum()
使用'非'条件进行筛选,城市不等于 beijing。符合条件的数据有 4 条。将筛选结果按 id 列进行排序。
# 使用'非'条件进行筛选
df_inner.loc[(df_inner['city'] != 'beijing'), ['id', 'city', 'age', 'category', 'gender']].sort_values(['id'])
# 对筛选后的数据按 city 列进行计数
df_inner.loc[(df_inner['city'] != 'beijing'), ['id', 'city', 'age', 'category', 'gender']].sort_values(['id']).city.count()
还有一种筛选的方式是用 query 函数。
# 使用 query 函数进行筛选
df_inner.query('city == ["beijing", "shanghai"]')
# 对筛选后的结果按 price 进行求和
df_inner.query('city == ["beijing", "shanghai"]').price.sum()
第七部分是对数据进行分类汇总,Excel 中使用分类汇总和数据透视可以按特定维度对数据进行汇总,Python 中使用的主要函数是 groupby 和 pivot_table。
Excel 的数据目录下提供了'分类汇总'功能,可以按指定的字段和汇总方式对数据表进行汇总。Python 中通过 Groupby 函数完成相应的操作,并可以支持多级分类汇总。
Groupby 是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby 按列名称出现的顺序进行分组。同时要制定分组后的汇总方式,常见的是计数和求和两种。
# 对所有列进行计数汇总
df_inner.groupby('city').count()
# 对特定的 ID 列进行计数汇总
df_inner.groupby('city')['id'].count()
# 对两个字段进行汇总计数
df_inner.groupby(['city', 'size'])['id'].count()
# 对 city 字段进行汇总并计算 price 的合计和均值
df_inner.groupby('city')['price'].agg([len, np.sum, np.mean])
Excel 中的插入目录下提供'数据透视表'功能对数据表按特定维度进行汇总。Python 中也提供了数据透视表功能。通过 pivot_table 函数实现同样的效果。
数据透视表也是常用的一种数据分类汇总方式,并且功能上比 groupby 要强大一些。下面的代码中设定 city 为行字段,size 为列字段,price 为值字段。分别计算 price 的数量和金额并且按行与列进行汇总。
# 数据透视表
pd.pivot_table(df_inner, index=["city"], values=["price"], columns=["size"], aggfunc=[len, np.sum], fill_value=0, margins=True)
第九部分为数据统计,这里主要介绍数据采样、标准差、协方差和相关系数的使用方法。
Excel 的数据分析功能中提供了数据抽样的功能。Python 通过 sample 函数完成数据采样。
Sample 是进行数据采样的函数,设置 n 的数量就可以了。函数自动返回参与的结果。
# 简单的数据采样
df_inner.sample(n=3)
# 手动设置采样权重
weights = [0, 0, 0, 0, 0.5, 0.5]
df_inner.sample(n=2, weights=weights)
# 采样后不放回
df_inner.sample(n=6, replace=False)
# 采样后放回
df_inner.sample(n=6, replace=True)
Excel 中的数据分析中提供了描述统计的功能。Python 中可以通过 describe 对数据进行描述统计。
Describe 函数是进行描述统计的函数,自动生成数据的数量、均值、标准差等数据。下面的代码中对数据表进行描述统计,并使用 round 函数设置结果显示的小数位。并对结果数据进行转置。
# 数据表描述性统计
df_inner.describe().round(2).T
标准差 Python 中的 std 函数用来计算特定数据列的标准差。
# 标准差
df_inner['price'].std()
协方差 Excel 中的数据分析功能中提供协方差的计算,Python 中通过 cov 函数计算两个字段或数据表中各字段间的协方差。
Cov 函数用来计算两个字段间的协方差,可以只对特定字段进行计算,也可以对整个数据表中各个列之间进行计算。
# 两个字段间的协方差
df_inner['price'].cov(df_inner['m-point'])
相关分析 Excel 的数据分析功能中提供了相关系数的计算功能,Python 中则通过 corr 函数完成相关分析的操作,并返回相关系数。
Corr 函数用来计算数据间的相关系数,可以单独对特定数据进行计算,也可以对整个数据表中各个列进行计算。相关系数在 -1 到 1 之间,接近 1 为正相关,接近 -1 为负相关,0 为不相关。
# 相关性分析
df_inner['price'].corr(df_inner['m-point'])
# 数据表相关性分析
df_inner.corr()
第九部分是数据输出,处理和分析完的数据可以输出为 xlsx 格式和 csv 格式。
写入 Excel
# 输出到 excel 格式
df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
写入 CSV
# 输出到 CSV 格式
df_inner.to_csv('excel_to_python.csv')
在数据处理的过程中,大部分基础工作是重复和机械的,对于这部分基础工作,我们可以使用自定义函数进行自动化。以下简单介绍对数据表信息获取自动化处理。
# 创建数据表
df = pd.DataFrame({"id": [1001, 1002, 1003, 1004, 1005, 1006],
"date": pd.date_range('20130102', periods=6),
"city": ['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
"age": [23, 44, 54, 32, 34, 32],
"category": ['100-A', '100-B', '110-A', '110-C', '210-A', '130-F'],
"price": [1200, np.nan, 2133, 5433, np.nan, 4432]},
columns=['id', 'date', 'city', 'category', 'age', 'price'])
# 创建自定义函数
def table_info(x):
shape = x.shape
types = x.dtypes
colums = x.columns
print("数据维度 (行,列):\n", shape)
print("数据格式:\n", types)
print("列名称:\n", colums)
# 调用自定义函数获取 df 数据表信息并输出结果
table_info(df)
以上就是用 Python 做数据分析的基本内容。通过上述流程,可以实现从数据导入到最终报告生成的全自动化处理,大幅提升工作效率。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online