В нашей инфраструктуре виртуальных машин у нас есть кластерные узлы, идущие в SAN.
Я пытаюсь выяснить, сколько осталось «пустого пространства» при удалении файлов с наших серверов Redhat. На нашем сервере Windows мы используем sdelete, и это решает эту проблему, однако с Linux я изо всех сил пытаюсь найти решение.
Я определяю "пустое пространство" как секторы? Остальное не обнуляется, что накопители SSD должны сначала обнулиться, прежде чем они смогут записать в него.
Одна вещь, на которую я укажу, это то, что когда дело доходит до Linux, я знаю достаточно, чтобы быть опасным, но я не супер пользователь.
Просматривая диски и перегородки:
[root@rhserver1-DATA10 /]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 104857599 51915776 8e Linux LVM
Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Теперь посмотрим на использование диска:
[root@rhserver1-DATA10 /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% /
devtmpfs 906M 0 906M 0% /dev
tmpfs 921M 340K 920M 1% /dev/shm
tmpfs 921M 90M 831M 10% /run
tmpfs 921M 0 921M 0% /sys/fs/cgroup
/dev/sdb 50G 3.5G 44G 8% /ACMS01Backup
/dev/sda1 497M 210M 288M 43% /boot
tmpfs 185M 20K 185M 1% /run/user/1000
tmpfs 185M 0 185M 0% /run/user/1002
После многих часов поисков я нашел это, я думаю, он показывает мне, сколько «пустого пространства» доступно для очистки.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%
Я думаю, что разумный вывод для 497M раздела.
Так что теперь я хочу сделать то же самое только на моем смонтированном диске (я думаю, что он установлен).
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
Которые не дают мне ничего.
Мой / etc / fstab /:
[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0
/dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
Итак, мой вопрос: я на правильном пути?
Я объяснил, что я ищу хорошо?
Есть ли термин «пустое пространство», который может помочь моему поиску?
Я обнаружил, что могу запустить «fstrim -v /» в корне, но мне бы очень хотелось узнать, сколько там места.
Кроме того, я пытаюсь выяснить, что тезисы - это производственная система, интенсивно использующая ввод-вывод, должна ли она работать в часы пик?
Есть ли вероятность потери данных при запуске "fstrim -v /"?
blkid
и посмотрите, сможете ли вы получить UUID и повторите parted
команду.
discard
опцию монтирования в файловых системах.