+ -
当前位置:首页 → 问答吧 → 求助: 很棘手的问题,大文件读取并处理的问题

求助: 很棘手的问题,大文件读取并处理的问题

时间:2011-06-27

来源:互联网

有个文件在/tmp/t.unl下
里面有800万行的数据,每行有8位数字,比如:
00000001
00000002
00000003
00000004
....

这些数字是对应在
/work/0000/00000001
/work/0000/00000002
/work/0000/00000003
/work/0000/00000004
下的文件

求一脚本,使得删除,存在/tmp/t.unl中,并在/work/0000/目录下该文件名的文件。“0000”是“00000004”的前4位
原方案使用
cat /tmp/t.unl |while read tmpf
do
rm the file
done

结果效率非常低,要跑几个小时,怎么才能提高效率呢?

作者: zhizhiping   发布时间: 2011-06-27

关注下

作者: 267020090   发布时间: 2011-06-27

for 循环估计也一样吧

作者: 267020090   发布时间: 2011-06-27

一样

作者: zhizhiping   发布时间: 2011-06-27

跑并发吧

作者: 267020090   发布时间: 2011-06-27

分成几个片段 分批跑把

作者: 267020090   发布时间: 2011-06-27

还有其他办法吗?

作者: zhizhiping   发布时间: 2011-06-27

100W为单位多好啊

作者: 267020090   发布时间: 2011-06-27