查找大文件使用du和df命令定位大文件:
# 先确定是哪个文件夹占用较多# 如果文件较多命令执行可能很慢,在知道大概位置的情况下不建议直接对根目录操作# du的--max-depth=1表示只展示第一个层级的目录和文件# sort的-h选项和du的-h选项一个意思,-r表示倒叙,默认升序du -h / --max-depth=1 | sort -hr | head -n 10#output>>>>>>>>>>>>>>>>>>>>>>>>>>50G /28G /var6.0G /dfs4.0G /opt3.0G /root2.3G /usr148M /lib39M /log30M /etc29M /boot#output>>>>>>>>>>>>>>>>>>>>>>>>>># 定位到/var目录占用超过50%(磁盘总量50G)# 继续往下层目录找du -h /var --max-depth=1 | sort -hr | head -n 10#output>>>>>>>>>>>>>>>>>>>>>>>>>>28G /var24G /var/lib3.8G /var/log371M /var/cache...#output>>>>>>>>>>>>>>>>>>>>>>>>>># 继续/var/libdu -h /var/lib --max-depth=1 | sort -hr | head -n 10#output>>>>>>>>>>>>>>>>>>>>>>>>>>24G /var/lib10G /var/lib/mongo8.4G /var/lib/cloudera-service-monitor4.5G /var/lib/cloudera-host-monitor319M /var/lib/mysql...#output>>>>>>>>>>>>>>>>>>>>>>>>>># 最后发现是mongo 数据量太多以及cdh集群健康数据太多# 可以设置mongo journal使用smallfile,否则文件到达1G并且文件所记载的写操作都被使用过了才会删除# cdh日志默认在文件达到10G的时候才会回滚,这里也可以做文章
删除大文件
假设找到了对应的文件夹或文件并且可以删除,可以直接使用rm删除,也可以按照时间删除,比如一些日志文件,需要删除靠前的日志,较新的日志暂时还不能删除。
按文件大小删除
比如需要删除超过500M的文件,而不是删除整个文件夹:
# 建一个临时文件夹做测试cd /tmpmkdir testcd test# 建几个大文件试试# seek表示跳过文件中指定大小的部分,实际上并没有写入任何数据# 生成1000G的文件dd if=/dev/zero of=test-big1 bs=1G count=0 seek=1000# 生成1000M的文件dd if=/dev/zero of=test-big2 bs=1M count=0 seek=1000#查找 -size参数值中+表示> -表示< 不写表示等于find /tmp/test -type f -size +200M#output>>>>>>>>>>>>>>>/tmp/test/test-big2/tmp/test/test-big1#output>>>>>>>>>>>>>>>find /tmp/test -type f -size +2000M#output>>>>>>>>>>>>>>>/tmp/test/test-big1#output>>>>>>>>>>>>>>>find /tmp/test -type f -size -2000M#output>>>>>>>>>>>>>>>/tmp/test/test-big2#output>>>>>>>>>>>>>>># 删除# {} \;不能丢find /tmp/test -type f -size +2000M -exec rm -rf {} \;ls#output>>>>>>>>>>>>>>>test-big2#output>>>>>>>>>>>>>>>
按时间和名称删除
# 删除修改时间距今超过10天的以.gz结尾的文件# -mtime参数值中 0表示修改时间在24小时内 +x表示修改时间距今超过x天 -x表示距今少于x天 不写正负号表示等于find tmp/test/* -mtime +10 -name "*.gz" -exec rm -rf {} \;
-exec 表示执行的意思 execute 和 rwx中的 x是一个意思,都是执行
{} \ 是固定写法,意思是把前面找到的文件交给 rm -rf 来删除
