“常用公式”在线计算,“设计手册”在线查询
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享 分享淘帖 支持支持 反对反对

共 1 个关于本帖的回复 最后回复于 2013-6-24 16:28

沙发
淡写轻描 新来的 发表于 2013-6-24 16:28:55 | 只看该作者
研发埠培训中心
如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:1 delete from 表 where idnot in 2 (select max(id) from 表 group bymobilePhone,officePhone,email ) 3 or 4 delete from 表 where idnot in 5 (select min(id) from 表 group bymobilePhone,officePhone,email ) 其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:1 //查询出唯一数据的ID,并把他们导入临时表tmp中2 select min(id) as mid into tmp from 表 group bymobilePhone,officePhone,email 3 //查询出去重后的数据并插入finally表中4insert into finally select (除ID以外的字段) fromcustomers_1 where id in (select mid from tmp) 效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。用临时表插入对500万数据去重(1/2重复)不到10分钟。SQL语句去掉重复记录,获取重复记录按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。方法一按照多条件重复处理:1 delete tmp from(2 select row_num = row_number()over(partition by 字段,字段 order by 时间 desc) 3 from 表 where 时间> getdate()-1 4 ) tmp 5 where row_num > 1 方法二按照单一条件进行去重:1 delete from 表 where 主键ID not in( 2 select max(主键ID) from 表 group by 需要去重的字段having count(需要去重的字段)>=1 3 ) 注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量1 delete top(2) from 表2 where  not exists (select 主键ID 3  from #tmp where #tmp.主键ID=表.主键ID)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注我们

360网站安全检测平台