python pandas cumsum求累计次数的用法
作者:kingsam_ 发布时间:2021-08-07 01:51:19
标签:pandas,cumsum,求累计次数
本文主要是针对 cumsum函数的一些用法。具体应用场景看下面的数据集。
第一列是userID,第二列是安装的时间,第三列是安装的次数。
我们现在想做一件事情。就是统计用户在某一天前累计的安装次数。
譬如,对userID为20的用户,问在16天前,其安装次数为多少? 答案应该是4次。用python的实现也很简单。
又譬如,userID为44在19天前安装的次数,那就应该是1+3+1+1=6次。
具体代码:(假设数据集为data)
由于是针对每个userID,所以是需要将userID划分一下(这个方法在组内排序的时候有提到,可以参考前面的文章)。
所以才有下面这一句
groupby(['userID'])
然后,分完组后需要统计的Times,所以就是下面这一句
data['Times'].groupby(['userID'])
最后,我们需要的是累加量,所以,用cumsum()这个函数。
data['sum_Times']=data['Times'].groupby(['userID']).cumsum()
用得到的结果放在一列。
最后得到结果如下:
可以从sum_Times这列看到,每一个值都是相应userID在前一行的累加值。
来源:https://blog.csdn.net/qq_22238533/article/details/72900634


猜你喜欢
- 本文实例讲述了Python scipy的二维图像卷积运算与图像模糊处理操作。分享给大家供大家参考,具体如下:二维图像卷积运算一 代码impo
- 池化层定义在tensorflow/python/layers/pooling.py.有最大值池化和均值池化。1、tf.layers.max_
- Python读取相对路径文件例如下图目录结构:第一种情况1)xxx.py想要打开a.txt,使用相对路径,有如下两种方式:思路:xxx.py
- 看下面的一组例子:alert(true.toString());alert(false.toString());alert(1.123.to
- 关于 json 这个问题,陆陆续续有新手朋友找我问,比如为什么我输出的是 {"1":"item1",
- 测试环境Python 3.6Win10代码实现#!/usr/bin/env python 3.4.0#-*- encoding:utf-8
- 最近遇到了Python访问SqlServer的问题,这里总结下。一、Windows下配置Python访问Sqlserver环境:Window
- 什么是树表查询?借助具有特殊性质的树数据结构进行关键字查找。本文所涉及到的特殊结构性质的树包括:二叉排序树。 平衡二叉树。使用上述树结构存储
- 前言pandas数据框针对高维数据,也有多层索引的办法去应对。多层数据一般长这个样子可以看到AB两大列,下面又有xy两小列。 行有abc三行
- 调用:var pageChange = function (index) { &n
- open 遍历一个大日志文件使用 readlines() 还是 readline() ?总体上 readlines() 不慢于python
- 如何在独立服务器上创建用户?假设独立服务器是intels,我们用ADSI来创建一个用户liyanbing,初始口令定为3625:
- 什么是fixture根据pytest官方文档的说明,fixture可以简单的归纳为具有以下功能的函数:配置测试前系统的初始状态;定义传入测试
- 1、epochKeras官方文档中给出的解释是:“简单说,epochs指的就是训练过程接中数据将被“轮”多少次”(1)释义:训练过程中当一个
- 1、为什么要创建用户签名作为版本控制系统的客户端,每台客户机对版本库的所有提交操作,都需要注明操作者的身份。所以客户机首先需要进行自我身份的
- 一、在settings.py中配置DATABASES = { 'default': { 'ENGINE&
- 前言这篇文章主要介绍了JS大坑之19位数的Number型精度丢失问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习
- 创建复合主键: 方法一:创建表之后,alter table table_name add primary key(字段1,字段2) 
- 导言在前面的教程里我们学习了DataList提供了一些风格样式的属性.而且我们还学习了如何定义HeadStyle, ItemStyle, A
- 具体代码如下所示:# -*- coding: utf-8 -*-import redisimport datetime''&