数据库文件370G左右假设索引巳经最优化,PR项数(就是具有相同的车架标识在表 DATA_车架号数据_标准设备号 中记录的条数)分布范围大部分在150-250,其中最多分布在150-190,PR是三位的字符型(都是三位)假设服务器资源全部用来执行此任务。
表"DATA_车架号数据_标准设备号"与表"DATA_车架号数据"的关联字段是 DATA_车架号数据_标准设备號.车架标识=DATA_车架号数据.流水号 bigint类型
我在自己的个人电脑上执行1000条的时间是330秒(I5 G,16G内存,SSD),当然数据量没这么大,DATA_车架号数据表大概 7万条DATA_车架号数据_标准设备号大概数据一千一百万。
好吧我的目的其实是想压缩 DATA_车架号数据_标准设备号 这个表,PR完全相同的数据只保留一份我估计压缩率大概是在一百至二百分之一之间。
好吧相关子查询实在是太耗时的,有别的思路进行这样的去重没
这个算法峩没信心能在我们的服务器上无错执行完成。
数据库文件370G左右假设索引巳经最优化,PR项数(就是具有相同的车架标识在表 DATA_车架号数据_标准设备号 中记录的条数)分布范围大部分在150-250,其中最多分布在150-190,PR是三位的字符型(都是三位)假设服务器资源全部用来执行此任务。
表"DATA_车架号数据_标准设备号"与表"DATA_车架号数据"的关联字段是 DATA_车架号数据_标准设备號.车架标识=DATA_车架号数据.流水号 bigint类型
我在自己的个人电脑上执行1000条的时间是330秒(I5 G,16G内存,SSD),当然数据量没这么大,DATA_车架号数据表大概 7万条DATA_车架号数据_标准设备号大概数据一千一百万。
好吧我的目的其实是想压缩 DATA_车架号数据_标准设备号 这个表,PR完全相同的数据只保留一份我估计压缩率大概是在一百至二百分之一之间。
好吧相关子查询实在是太耗时的,有别的思路进行这样的去重没
这个算法峩没信心能在我们的服务器上无错执行完成。