Сколько времени должно занимать resize2fs для раздела размером 1 ТБ?


20

У меня в университете новый компьютер, и я почти все для него настроил, когда заметил, что предыдущий пользователь машины использовал только огромный ext3раздел размером в 1 ТБ .

Я обычно держу /homeв отдельном разделе, и я также предпочитаю использовать LVM, поэтому я решил сжать раздел с помощью, resize2fsа затем создать мои обычные LVM вещи в свободном месте. (На жестком диске всего около 30 ГБ данных, поэтому проблем не должно быть).

Я перезагрузился, используя live CD, и попросил resize2fsуменьшить размер раздела до более приемлемого (50 ГБ), и, казалось, довольно интенсивно перемещал данные в первой четверти часа или около того (судя по шуму жесткого диска) ,

Теперь он работает более трех часов, и практически не слышен шум от HD, хотя загрузка процессора составляет 100% .

  1. Это нормально?
  2. По resize2fsкакой-то причине происходит какое-то интенсивное сокращение чисел на заднем плане, и поэтому я не слышу шум от HD?
  3. Сколько времени нужно, чтобы изменить размер всего раздела?

4
Обновление: весь процесс закончился чуть более чем за четыре часа, и да, HD был абсолютно бесшумным, кроме первых 15 минут или около того. Итак, в двух словах, это совершенно нормально.
Тамас

1
Та же история, что и у стартера темы. Весь процесс закончился за 3+ часа, жесткий диск большую часть времени молчал, но процессор работал с трудом. Так что, если у вас есть похожие симптомы, пожалуйста, будьте терпеливы.

Ответы:


9

Время может быть переменным в зависимости от загрузки разных вещей.

Если вы считаете, что есть проблема, откройте новое окно или создайте новый сеанс PuTTY и запустите dmesg(ошибки ввода-вывода или некоторые другие) и / или df -h(увеличивается ли доступное пространство).

Я подозреваю, что это займет довольно много времени в любом случае. Понятия не имею, как долго, лично. Возможно, вам будет проще скопировать его на другой сетевой диск и переустановить.


14

Оперативное изменение размера ext4fs с 1 ТБ до 2 ТБ на RAID1 lvm2 заняло около 1 ч 40 мин на паре жестких дисков Seagate Barracuta 2 ТБ SATA. Это был корневой раздел.

За это время ЦП никогда не превышал 10% (накапливая md2_raid1 и md2_resize). Нагрузка была около 3.

Если ваши процессы resize2fs съедают 100% вашего процессора, а жесткий диск не работает, кажется, что он застрял. Попробуйте посмотреть, есть ли в системном журнале сообщения (об ошибках).

Ваша настройка проще (без RAID1 LVM), поэтому она должна была занять намного меньше времени, и в процессе работы ваш жесткий диск будет работать много, а не ваш ЦП.

Кроме того, resize2fsесть флаг -p (процент), чтобы отобразить прогресс, но это только в автономном режиме.


2
Я сейчас выращиваю раздел в онлайн-режиме, и, похоже, у него очень низкая активность ввода-вывода и процессора, поэтому я нашел этот поток. Ответ megar полезен для меня, так как теперь я не знаю, чтобы паниковать, что он идет 20 минут или больше, но я также обнаружил, что если я проверяю вывод dfнесколько раз, размер раздела увеличивается с каждым разом. Успокаивая. Я не уверен, что тот же трюк покажет вам прогресс таким же образом при сокращении раздела, но стоит попробовать.
Тремби

1

Другой момент данных: изменение размера от 1 ТБ до 2 ТБ в режиме онлайн, но система однопользовательская, поэтому активность очень низкая, один жесткий диск SATA, CentOS 6.7, занял около 95 минут.


другая точка данных Изменение размера на SSD-накопителе Digital Ocean с 300 ГБ до 1 ТБ sudo resize2fs / dev / disk / by-id / scsi-0DO_Volume_volume-nyc1-01 resize2fs 1.42.13 (17-мая-2015) Файловая система в / dev / disk / by- id / scsi-0DO_Volume_volume-nyc1-01 монтируется в / mnt / volume-nyc1-01; требуемое изменение размера в режиме онлайн прекратилось через 3 часа и отключилось. e2fsck просто завис, пытаясь отсоединить том, также завис, теперь моя капелька заморожена и недоступна.
Дон Яркий
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.