网站首页 > 文章中心 > 其它

python集合去重函数

作者:小编 更新时间:2023-11-19 12:34:39 浏览量:473人看过

python用drop_duplicates()函数保留数据集的重复行

? 前两天处理数据的时候,需要得到两个数据的交集数据,所以要去除数据中非重复部分,只保留数据中的重复部分.

python集合去重函数-图1

? ? 网上看了一下大家的教程,大部分都是教去除重复行,很少有说到仅保留重复行的.所以今天这一节用drop_duplicates这个去重函数来实现这个功能.

drop_duplicates函数介绍 :

data.drop_duplicates(subset=['A','B'],keep='first',inplace=True)

#subset对应的值是列名,表示只考虑这两列,将这两列对应值相同的行进行去重.

默认值为subset=None表示考虑所有列.

keep='first'表示保留第一次出现的重复行,是默认值.

keep另外两个取值为"last"和False,分别表示保留最后一次出现的重复行和去除所有重复行.

inplace=True表示直接在原来的DataFrame上删除重复项,而默认值False表示生成一个副本.

要用函数取得数据集data中的重复列,分三个步骤 :

(提前导入pandas模块)

data0_1 = data.drop_duplicates() #保留第一个重复行

#合并起来再去重,只剩下真的重复行.

举例:data中wangwu行和tony行重复,需要把它们两行取出.

第一步:#保留第一个重复行

第二步:#去除所有重复行

第三步:#合并起来再去重

通过以上步骤实现取出数据中的重复行.

Python常用的几种去重方法

case1:用集合的特性set(),去重后顺序会改变

case1.1:可以通过列表中索引(index)的方法保证去重后的顺序不变

Python实现对列表中重复元素进行去重的方法小结

①.、运用新建字典的方式,去除重复的键

Python 去重,统计,lambda函数

df.drop_duplicates('item_name')

方法一:

df.drop_duplicates('item_name').count()

方法二:

df['item_name'].nunique()

附:nunique()和unique()的区别:

unique()是以 数组形式(numpy.ndarray)返回列的所有唯一值(特征的所有唯一值)

nunique()即返回的是唯一值的个数

比如:df['item_name'].unique()

要求:将下表中经验列将按周统计的转换为经验不限,保留学历

方法二:定义函数

def dataInterval(ss):

? if '周' in ss:

? return ss

df1['经验'] = df1['经验'].apply(dataInterval)

版权声明:倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本站《原创》内容,违者将追究其法律责任。本站文章内容,部分图片来源于网络,如有侵权,请联系我们修改或者删除处理。

编辑推荐

热门文章