首页 > 其他 > 详细

pandas去重方法

时间:2020-03-11 20:03:52      阅读:177      评论:0      收藏:0      [点我收藏+]

原文链接:https://blog.csdn.net/missyougoon/article/details/83926840

数据去重可以使用duplicated()和drop_duplicates()两个方法。

DataFrame.duplicated(subset = None,keep =‘first’ )返回boolean Series表示重复行
参数:
subset:列标签或标签序列,可选
仅考虑用于标识重复项的某些列,默认情况下使用所有列
keep:{‘first’,‘last’,False},默认’first’

  • first:标记重复,True除了第一次出现。
  • last:标记重复,True除了最后一次出现。
  • 错误:将所有重复项标记为True。
import numpy as np
import pandas as pd
from pandas import Series, DataFrame

df = pd.read_csv(./demo_duplicate.csv)
print(df)
print(df[Seqno].unique()) # [0. 1.]

# 使用duplicated 查看 重复值
# 参数 keep 可以标记重复值 {‘first‘,‘last‘,False}
print(df[Seqno].duplicated())
‘‘‘
0    False
1     True
2     True
3     True
4    False
Name: Seqno, dtype: bool
‘‘‘

# 删除 series 重复数据
print(df[Seqno].drop_duplicates())
‘‘‘
0    0.0
4    1.0
Name: Seqno, dtype: float64
‘‘‘

# 删除 dataframe 重复数据
print(df.drop_duplicates([Seqno])) # 按照 Seqno 来 去重
‘‘‘
    Price  Seqno Symbol        time
0  1623.0    0.0   APPL  1473411962
4  1649.0    1.0   APPL  1473411963
‘‘‘
# drop_dujplicates() 第二个参数 keep 包含的值 有: first、last、False
print(df.drop_duplicates([Seqno], keep=last)) # 保存最后一个
‘‘‘
    Price  Seqno Symbol        time
3  1623.0    0.0   APPL  1473411963
4  1649.0    1.0   APPL  1473411963
‘‘‘

demo_duplicate.csv文件下载地址:
https://download.csdn.net/download/missyougoon/11174804

 

pandas去重方法

原文:https://www.cnblogs.com/leoych/p/12464492.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!