如何快速的找出重复的数据

现在数据库中有2亿条数据,很多都是重复的,大概真正去重后也就2000多条左右,该怎么快速找出这2000多条数据?
全部评论
为什么数据库会有那么多重复啊,你应该先问面试官让他说说具体情境吧
点赞 回复 分享
发布于 2017-08-24 00:33
总共也就2000多条不同的数据,直接hash不就好了
点赞 回复 分享
发布于 2017-08-23 21:42
如果有这样的情况,不是说明数据库的设计有点问题吗。。。
点赞 回复 分享
发布于 2017-08-23 21:38
先hash分成很多小文件,然后,分布式进行,hash判断,不知道对不
点赞 回复 分享
发布于 2017-08-23 21:00
布隆过滤器?
点赞 回复 分享
发布于 2017-08-23 20:24
mark。。这种海量数据的怎么搞。。
点赞 回复 分享
发布于 2017-08-23 20:17
select distinct一下?
点赞 回复 分享
发布于 2017-08-23 20:08
hash
点赞 回复 分享
发布于 2017-08-23 20:02

相关推荐

我看到好多人都在说0offer好焦虑,结果一看是投了百度快手字节啥的。好像大家都是只想通过校招进大厂,对小公司是不考虑的吗😂可是能进大厂的难道不是只有少部分人吗,真心发问
梦想是成为七海千秋:沉默的大多数吧,喜欢晒的都是能引起共鸣的大厂,找小厂的人,别人也不认识你这个小厂,就自己偷偷找了实际上大多数人哪有什么机会能找到大厂
点赞 评论 收藏
分享
有担当的灰太狼又在摸鱼:零帧起手查看图片
点赞 评论 收藏
分享
牛客383479252号:9,2学生暑期实习失利开始投小厂,给这群人整自信了
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务