mysql去重查询方法(mysql多字段去重查询)

  • 删除全部重复数据,一条不留
  • 删除表中删除重复数据,仅保留一条
  • 开始删除重复数据,仅留一条

在公司加班到八点,此为背景。

加班原因是上线,解决线上数据库存在重复数据的问题,发现了程序的bug,很好解决,有点问题的是,修正线上的重复数据。

线上库有6个表存在重复数据,其中2个表比较大,一个96万+、一个30万+,因为之前处理过相同的问题,就直接拿来了上次的Python去重脚本,脚本很简单,就是连接数据库,查出来重复数据,循环删除。

emmmm,但是这个效率嘛,实在是太低了,1秒一条,重复数据大约2万+,预估时间大约在8个小时左右。。。

盲目依靠前人的东西,而不去自己思考是有问题的!总去想之前怎么可以,现在怎么不行了,这也是有问题的!我发现,最近确实状态不太对,失去了探索和求知的欲望,今天算是一个警醒,颇有迷途知返的感觉。

言归正传,下面详细介绍去重步骤。

CREATETABLE`animal`(`id`int(11)NOTNULLAUTO_INCREMENT,`name`varchar(20)DEFAULTNULL,`age`int(11)DEFAULTNULL,PRIMARYKEY(`id`))ENGINE=InnoDBAUTO_INCREMENT=1DEFAULTCHARSET=utf8COLLATE=utf8_bin;INSERTINTO`pilipa_dds`.`student`(`id`,`name`,`age`)VALUES(\'1\',\'cat\',\'12\');INSERTINTO`pilipa_dds`.`student`(`id`,`name`,`age`)VALUES(\'2\',\'dog\',\'13\');INSERTINTO`pilipa_dds`.`student`(`id`,`name`,`age`)VALUES(\'3\',\'camel\',\'25\');INSERTINTO`pilipa_dds`.`student`(`id`,`name`,`age`)VALUES(\'4\',\'cat\',\'32\');INSERTINTO`pilipa_dds`.`student`(`id`,`name`,`age`)VALUES(\'5\',\'dog\',\'42\');

目标:我们要去掉name相同的数据。

先看看哪些数据重复了

SELECTname,count(1)FROMstudentGROUPBYNAMEHAVINGcount(1)>1;

输出:

name count(1) cat 2 dog 2

name为cat和dog的数据重复了,每个重复的数据有两条;

Select*From表Where重复字段In(Select重复字段From表GroupBy重复字段HavingCount(1)>1)

删除全部重复数据,一条不留

直接删除会报错

DELETEFROMstudentWHERENAMEIN(SELECTNAMEFROMstudentGROUPBYNAMEHAVINGcount(1)>1)

报错:

1093 – You can’t specify target table ‘student’ for update in FROM clause, Time: 0.016000s

原因是:更新这个表的同时又查询了这个表,查询这个表的同时又去更新了这个表,可以理解为死锁。mysql不支持这种更新查询同一张表的操作

解决办法:把要更新的几列数据查询出来作为一个第三方表,然后筛选更新。

DELETEFROMstudentWHERENAMEIN(SELECTt.NAMEFROM(SELECTNAMEFROMstudentGROUPBYNAMEHAVINGcount(1)>1)t)

删除表中删除重复数据,仅保留一条

在删除之前,我们可以先查一下,我们要删除的重复数据是啥样的

SELECT*FROMstudentWHEREidNOTIN(SELECTt.idFROM(SELECTMIN(id)ASidFROMstudentGROUPBY`name`)t)

啥意思呢,就是先通过name分组,查出id最小的数据,这些数据就是我们要留下的火种,那么再查询出id不在这里面的,就是我们要删除的重复数据。

开始删除重复数据,仅留一条

很简单,刚才的select换成delete即可

DELETEFROMstudentWHEREidNOTIN(SELECTt.idFROM(SELECTMIN(id)ASidFROMstudentGROUPBY`name`)t)

90万+的表执行起来超级快。

All done ~

– END –

(0)
声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 FB8260@QQ.COM 举报,一经查实,立刻删除。