如何从安装的驱动器Redhat 7获得可用空间

前端之家收集整理的这篇文章主要介绍了如何从安装的驱动器Redhat 7获得可用空间前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
在我们的VM基础架构中,我们有集群主机进入SAN.

我想弄清楚的是在删除Redhat服务器中的文件时剩余多少“空白”.在我们的Windows服务器上,我们使用sdelete并解决了这个问题,但是对于Linux,我很难找到解决方案.

我将“白色空间”定义为行业?剩下的并没有说明SSD驱动器必须先写入零才能写入它.

我要指出的一件事是,当涉及到Linux时,我知道这很危险但不是超级用户.

查看驱动器和分区:

[root@rhserver1-DATA10 /]# fdisk -l

Disk /dev/sda: 53.7 GB,53687091200 bytes,104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     1026047      512000   83  Linux
/dev/sda2         1026048   104857599    51915776   8e  Linux LVM

Disk /dev/sdb: 53.7 GB,104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB,50964987904 bytes,99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB,2147483648 bytes,4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

现在查看磁盘使用情况:

[root@rhserver1-DATA10 /]# df -h
Filesystem                              Size  Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root   48G  6.1G   42G  13% /
devtmpfs                                906M     0  906M   0% /dev
tmpfs                                   921M  340K  920M   1% /dev/shm
tmpfs                                   921M   90M  831M  10% /run
tmpfs                                   921M     0  921M   0% /sys/fs/cgroup
/dev/sdb                                 50G  3.5G   44G   8% /ACMS01Backup
/dev/sda1                               497M  210M  288M  43% /boot
tmpfs                                   185M   20K  185M   1% /run/user/1000
tmpfs                                   185M     0  185M   0% /run/user/1002

经过几个小时的谷歌搜索,我发现了这一点,我认为它向我展示了可以清理多少“空白区域”.

[root@rhserver1-DATA10 /]#  parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]#  parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%

我认为497M分区的合理输出.

所以现在我想在我的已安装的驱动器上做同样的事情(我认为它已安装.)

parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
 parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'

哪个什么都没给我.

我的/ etc / fstab /:

[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root /                       xfs     defaults        0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot                   xfs     defaults        0 0
/dev/mapper/rhel_rhserver1--data10-swap swap                    swap    defaults        0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0

所以我的问题是我走在正确的道路上吗?

我能解释一下我在寻找什么吗?

是否有一个“白色空间”的术语可能有助于我的谷歌搜索

我发现我可以在root上运行“fstrim -v /”,但我真的想知道有多少空间.

此外,我想弄清楚,这些生产系统是fstrim I / O密集型,是否应该在非高峰时段运行?

运行“fstrim -v /”的任何数据丢失的可能性?

解决方法

能够在/分区上运行fstrim是最好的解决方案,但是在配置ESXi的情况下,这是不可能的.

您需要能够在VM和存储设备上启用丢弃.

尝试使用xfs文件系统减小分区或逻辑卷的大小是不可能的,这是fedora的已知错误.如果您对此功能感兴趣,请联系Red Hat支持并参考Red Hat bugzilla 1062667,并提供您需要XFS减少/缩小的用例.

作为在某些环境中可能的解决方案,可以将精简配置的LVM卷视为XFS文件系统下的附加层.

如果VM是急切的厚配置VMDK,这意味着当您尝试修剪(技术上讲; SCSI UNMAP)您的卷时,无需回收任何内容.

如果后端存储正在运行精简配置,那么您还需要使用延迟归零的VMDK文件,以减少存储并使后端可以缓存/删除热数据.

两种可能的选择:

>当远程服务器通过SAN提供存储时,如果存储是精简配置,则只能丢弃块.

>将所有VM的VMotion迁移到不同的数据存储,并使用内置的VMWare工具
>使用SSH连接ESXi主机
>导航到虚拟机文件
>使用du验证磁盘使用情况
>运行vmkfstools -K [磁盘]
>使用du验证磁盘使用情况

> dd if = / dev / zero of = BIGFILE bs = 1024000
rm -f BIGFILE

据我所知,这与sdelete的作用相同,但它可能会导致磁盘I / O出现峰值,并且需要一段时间才能运行.

一夜之间尝试的东西

任何一个选项都不是最好的,但重新格式化每个VM以获得ext3或ext4听起来并不可行.

您可以做的是为所有Linux VM设置一个关联规则,并使用上面的选项1.

原文链接:/linux/401379.html

猜你在找的Linux相关文章