Fork me on GitHub

图解pandas的groupby机制

图解Pandas的groupby机制

在自己的数据处理分析日常中,经常会遇到对数据的某个字段进行分组再求和或均值等其他操作的需求,比如电商中根据不同的支付用户、不同的月份、不同的性别、不同的用户来源进行用户的画像细分,来研究不同组用户的偏好和消费情况等。

在pandas中自己都是使用groupby来解决这类问题,本文结合一份模拟的数据来讲解groupby的内部机制

模拟数据

为了方便解释,自己模拟了一份虚拟数据,仅包含3个字段:员工姓名employees、薪资salary、得分score

1
2
3
4
5
6
7
8
9
10
11
12
import pandas as pd
import numpy as np

employees = ["小明","小周","小孙"] # 3位员工

df=pd.DataFrame({
"employees":[employees[x] for x in np.random.randint(0,len(employees),9)], # 在员工中重复选择9个人
"salary":np.random.randint(800,1000,9), # 800-1000之间的薪资选择9个数值
"score":np.random.randint(6,11,9) # 6-11的分数选择9个
})

df

DataFrameGroupBy对象

内部情况

我们现在根据员工进行groupby分组,得到的一个DataFrameGroupBy对象

1
2
3
4
# groupbying = df.groupby("employees")  by可以省略

groupbying = df.groupby(by="employees")
groupbying

那这个DataFrameGroupBy对象到底长的什么样子?我们用list展开看看:

1
2
3
# 查看对象内部的情况

list(groupbying)

我们终于看到了这个对象的神秘面目:

  • 对象是一个大列表,里面包含3个元素,每个元素有个元组对象:[tuple1,tuple2,tuple3]
  • 元素就是按照我们指定的员工进行分组:分别是小周、小孙、小明的全部数据信息

我们看看小明的具体信息:发现xiaoming是一个元组,转成列表之后看下具体信息:

我们发现:元组转成列表后的第一个信息就是分组的员工名,第二个就是这个员工的全部信息构成的一个小DataFrame数据帧。

下面的图形能够很好的展示DataFrameGroupBy对象的内部情况:

总结:当我们根据某个字段进行group机制分组的时候,最后能够生成多少个子DataFrame,取决于我们的字段中有多少个不同的元素(案例有3个);当我们分组之后,便可以进行后续的各种聚合操作,比如sum、mean、min等。

遍历DataFrameGroupBy对象

1
2
3
for name,group in groupbying:  # 遍历.DataFrameGroupBy对象
print(name)
print(group)

选择分组get_group()

对DataFrameGroupBy对象使用get_group()方法,能够让我们得到分组元素中的指定组的数据:

同一个列名使用不同聚合函数

分组之后对同一个列名使用不同的函数,函数使用列表形式:下面👇表示的是对score分别求和、最大值、最小值、均值、个数(size)

1
2
df9 = df.groupby("employees")["score"].agg(["sum","max","min","mean","size"]).reset_index()
df9

聚合函数

相信很多朋友都知道聚合操作或者聚合函数,在SQL中我们可以这样写:

1
2
3
4
5
6
select
name -- 姓名
,sum(score) -- 分数最大值
,avg(score) -- 平均值
from score
group by name -- 根据学生姓名分组统计

在上面的SQL语句中,sum和avg就是常见的聚合操作,归类整理下pandas常用的聚合操作:

函数 含义
min/max 最小值、最大值
sum 求和
mean 均值
median 中位数
std 标准差
var 方差
count 计数统计

除了上面的聚合函数,我们还可以使用numpy库的方法,比如unique(不同的元素)、nunique(不同元素的个数,count是统计全部)等,下面会结合实际的例子来说明。

agg聚合操作

聚合操作是通过agg来完成的,可以指定一个列或者多个列分别使用不同的聚合函数来聚合。

1、对单个列进行聚合操作,比如:我们想对salary列求总和sum:

1
2
3
# df.groupby("employees")["salary"].sum
# 如果只是单个元素,上下两种写法等价
df.groupby("employees").agg({"salary":"sum"})

一般情况下,结果是一个以分组字段为行索引的数据帧,那如果我们也想把这个行索引变成数据帧中的一个列名属性,使用reset_index完成:

一行代码写作为:

2、对多个列使用不同的聚合函数,比如:我们想对salry求和、对score求均值,使用字段对的方式来实现

1
2
3
4
salary_score = df.groupby("employees").agg({"salary":"sum",
"score":"mean"
})
salary_score

同样地,我们可以进行索引重置工作:

但是重置之后,我们无法看到具体的聚合函数,考虑给生成的数据帧改下列名,新的名字可以根据自己的喜欢任意指定,一般是要能够代表列名的含义:

⚠️前方高能:使用一行代码实现上面的全部过程:

1
df.groupby("employees").agg({"salary":"sum","score":"mean"}).reset_index().rename(columns={"salary":"salary_sum","score":"score_mean"})

详细地解释下上面的一行代码的各个函数功能:

  1. groupby:指定分组的列名字段
  2. agg:指定列名和想实施的聚合函数
  3. reset_index:对生成的数据帧进行索引重置
  4. rename:对生成的列名进行修改;上面是手动指定,需要全部列出来;rename可以对我们想要修改的列名进行重命名

下面的图形的很好地展示从原始数据到DataFrameGroupBy对象,最后再到多个列名聚合的过程:

统计列名的非重复个数

在这个需求中我们使用的numpy中的nunqiue方法,给定一个需求:我们想统计每位员工的不同分数以及对应个数。实际的结果应该是:

1、统计每个员工的不同分数:使用的unique方法

1
df.groupby("employees").agg({"score":"unique"}).reset_index()

2、统计每位员工的不同分数个数:使用nunique方法

为甚么在这里要特别讲解这两个方法?因为在自己的实际需求中进行遇到,模拟下自己的需求。比如给定一组数据,包含手机订单中的:订单号、型号、厂家

现在需要:统计每个型号对应的订单数、厂家名(去重)、厂家数(去重)。这个时候就可以使用上面的方法来实现这个需求,最终的结果应该是这样子:

1、先生成订单数和厂家名相关的数据:

2、再生成和厂家个数相关的数据:

3、通过pandas中的merge函数进行数据的合并:

可以看到下面的数据和实际的结果是一致的

一行代码也可以实现上面的需求:对厂家列同时使用两个不同的函数,一个是统计名称,一个是统计个数,结果是一个多重索引的数据帧。

1
df4.groupby("型号").agg({"订单号":"count","厂家":["unique","nunique"]}).reset_index()

transform函数

transform方法解决的是什么问题呢?它和agg又有什么不同呢?我们从一个实际的新需求出发,比如:我们想在数据的后面加上一列,代表的是每位员工的平均得分,数据会变成下面的样子,绿色部分就是我们的需要:

好方法:通过transform能够轻松实现上面的需求

1
2
df["score_mean"] = df.groupby("employees")["score"].transform("mean")  # transform后面指定需要聚合的函数
df

如果不用transform该如何实现上面的需求呢?首先我们还是生成每位员工的平均分数,用字典的形式来表示

接下来,我们使用map来进行员工的匹配:

1
df["score_avg"] = df["employees"].map(avg_score)  # 每位员工和平均值进行匹配

transform和agg到底是什么样的区别呢?

总结下二者的区别:

  1. transform是在原数据基础上加新的列,agg是根据分组字段和聚合函数生成新的数据帧
  2. transform的数据是填充到分组对象的每列上,agg只是生成了一个最终的聚合结果

总结

在实际的数据处理和统计工作中,分组统计求和、均值、个数等是十分常见的需求,本文结合实际的例子详解了pandas内部的groupby机制,以及如何聚合函数,希望对读者有所帮助。

本文标题:图解pandas的groupby机制

发布时间:2021年06月26日 - 17:06

原始链接:http://www.renpeter.cn/2021/06/26/%E5%9B%BE%E8%A7%A3pandas%E7%9A%84groupby%E6%9C%BA%E5%88%B6.html

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

Coffee or Tea