清理文件脚本(已经测试通过):
find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;
crontab脚本:
#clear
0 17 * * 5 cd /home/data/ sh clear_tmp.sh
如果只有一个结点只需要再那个结点上写一个crontab脚本就可以没周定时清理了。
如果有多个结点,不想每一个结点上都写一次crontab脚本,可以利用ssh远程执行清理脚本,在一台机器上布一个crontab就可以了。
ssh dmp-slave1 "find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;"