我想弄清楚的是在删除Redhat服务器中的文件时剩余多少“空白”.在我们的Windows服务器上,我们使用sdelete并解决了这个问题,但是对于Linux,我很难找到解决方案.
我将“白色空间”定义为行业?剩下的并没有说明SSD驱动器必须先写入零才能写入它.
我要指出的一件事是,当涉及到Linux时,我知道这很危险但不是超级用户.
查看驱动器和分区:
[root@rhserver1-DATA10 /]# fdisk -l Disk /dev/sda: 53.7 GB,53687091200 bytes,104857600 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x0005d52e Device Boot Start End Blocks Id System /dev/sda1 * 2048 1026047 512000 83 Linux /dev/sda2 1026048 104857599 51915776 8e Linux LVM Disk /dev/sdb: 53.7 GB,104857600 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB,50964987904 bytes,99540992 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB,2147483648 bytes,4194304 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes
现在查看磁盘使用情况:
[root@rhserver1-DATA10 /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% / devtmpfs 906M 0 906M 0% /dev tmpfs 921M 340K 920M 1% /dev/shm tmpfs 921M 90M 831M 10% /run tmpfs 921M 0 921M 0% /sys/fs/cgroup /dev/sdb 50G 3.5G 44G 8% /ACMS01Backup /dev/sda1 497M 210M 288M 43% /boot tmpfs 185M 20K 185M 1% /run/user/1000 tmpfs 185M 0 185M 0% /run/user/1002
经过几个小时的谷歌搜索,我发现了这一点,我认为它向我展示了可以清理多少“空白区域”.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}' 1.02MB [root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}' 0.00%
我认为497M分区的合理输出.
所以现在我想在我的已安装的驱动器上做同样的事情(我认为它已安装.)
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}' parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
哪个什么都没给我.
我的/ etc / fstab /:
[root@rhserver1-DATA10 /]# cat /etc/fstab /dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0 UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0 /dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0 /dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
所以我的问题是我走在正确的道路上吗?
我能解释一下我在寻找什么吗?
是否有一个“白色空间”的术语可能有助于我的谷歌搜索?
我发现我可以在root上运行“fstrim -v /”,但我真的想知道有多少空间.
此外,我想弄清楚,这些生产系统是fstrim I / O密集型,是否应该在非高峰时段运行?
运行“fstrim -v /”的任何数据丢失的可能性?
解决方法
您需要能够在VM和存储设备上启用丢弃.
尝试使用xfs文件系统减小分区或逻辑卷的大小是不可能的,这是fedora的已知错误.如果您对此功能感兴趣,请联系Red Hat支持并参考Red Hat bugzilla 1062667,并提供您需要XFS减少/缩小的用例.
作为在某些环境中可能的解决方案,可以将精简配置的LVM卷视为XFS文件系统下的附加层.
如果VM是急切的厚配置VMDK,这意味着当您尝试修剪(技术上讲; SCSI UNMAP)您的卷时,无需回收任何内容.
如果后端存储正在运行精简配置,那么您还需要使用延迟归零的VMDK文件,以减少存储并使后端可以缓存/删除热数据.
两种可能的选择:
>当远程服务器通过SAN提供存储时,如果存储是精简配置,则只能丢弃块.
>将所有VM的VMotion迁移到不同的数据存储,并使用内置的VMWare工具
>使用SSH连接ESXi主机
>导航到虚拟机文件夹
>使用du验证磁盘使用情况
>运行vmkfstools -K [磁盘]
>使用du验证磁盘使用情况
> dd if = / dev / zero of = BIGFILE bs = 1024000
rm -f BIGFILE
据我所知,这与sdelete的作用相同,但它可能会导致磁盘I / O出现峰值,并且需要一段时间才能运行.
一夜之间尝试的东西
任何一个选项都不是最好的,但重新格式化每个VM以获得ext3或ext4听起来并不可行.
您可以做的是为所有Linux VM设置一个关联规则,并使用上面的选项1.