Невероятно низкая производительность диска KVM (файлы на диске qcow2 + virtio)


27

У меня серьезные проблемы с производительностью диска при настройке гостевой системы KVM. Используя простой ddтест, раздел на хосте, на котором находятся образы qcow2 (зеркальный массив RAID), записывает со скоростью более 120 МБ / с , а мой гость получает записи в диапазоне от 0,5 до 3 МБ / с .

  • Гость настроен с парой процессоров и 4 Гб оперативной памяти и в настоящее время больше ничего не работает; это абсолютно минимальная установка на данный момент.
  • Производительность проверяется с помощью time dd if=/dev/zero of=/tmp/test oflag=direct bs=64k count=16000.
  • Гость настроен на использование virtio, но это не влияет на производительность.
  • Разделы хоста выровнены по 4 КБ (и в любом случае производительность на хосте хорошая).
  • Использование кэширования с обратной записью на дисках значительно увеличивает заявленную производительность, но я бы предпочел не использовать ее; даже без этого производительность должна быть намного лучше, чем эта.
  • Хост и гость работают под управлением Ubuntu 12.04 LTS, которая поставляется с qemu-kvm 1.0 + noroms-0ubuntu13 и libvirt 0.9.8-2ubuntu17.1.
  • На хосте включен планировщик ввода-вывода крайнего срока, а у гостя - noop.

Кажется, есть множество руководств по настройке производительности kvm, и я доберусь до конца, но в данный момент мне кажется, что я должен получить значительно лучшую производительность, поэтому кажется, что что-то уже очень неправильно.

Обновление 1

И вдруг, когда я возвращаюсь и проверяю сейчас, это 26,6 МБ / с; это больше похоже на то, что я ожидал w / qcrow2. Я оставлю этот вопрос на тот случай, если у кого-нибудь возникнут какие-либо идеи относительно возможной проблемы (и если она снова загадочным образом вернется).

Обновление 2

Я перестал беспокоиться о производительности qcow2 и просто переключился на LVM поверх RAID1 с необработанными образами, по-прежнему используя virtio, но установив cache = 'none' и io = 'native' на диске. Производительность записи теперь составляет ок. 135 МБ / с, используя тот же базовый тест, что и выше, так что, кажется, нет смысла выяснять, в чем проблема, когда ее можно так легко обойти полностью.


Вы не упомянули дистрибутив и используемые версии программного обеспечения.
Дядный

Добавлена ​​информация о версиях.
Эль Йобо

Ах, как и ожидалось, Ubuntu ... есть ли шанс, что вы можете воспроизвести это на Fedora?
Дядный

Сервер находится в Германии, а я сейчас нахожусь в Мексике, так что это может быть немного сложно. И если это вдруг сработало ... Я все равно не хотел бы иметь дело с сервером Fedora;) Я видел несколько комментариев, предполагающих, что в системах Debian / Ubuntu было больше проблем, чем в Fedora / CentOS для KVM, а также работа по разработке была сделана там.
Эль Йобо

моя точка зрения точно. и в любом случае, если вам нужна ОС серверного уровня, вам нужен RHEL, а не Ubuntu
dyasny

Ответы:


14

Ну да, файлы qcow2 не предназначены для невероятно быстрой работы. Вы получите гораздо больше удачи от необработанных разделов (или, предпочтительно, LV).


3
Очевидно, но они также не должны быть такими дерьмовыми, как цифры, которые я получаю.
Эль Йобо

1
Большинство примеров показывают аналогичную производительность с qcow2, что, по-видимому, является значительным улучшением по сравнению со старой версией. Сам сайт KVM опубликован по адресу linux-kvm.org/page/Qcow2, который показывает сопоставимое время для ряда случаев.
Эль Йобо

1
18:35 (qcow2) против 8:48 (сырье) - это «сопоставимые времена»?
Вомбл

1
Я переключил их на необработанные образы с поддержкой LVM поверх RAID1, установил для планировщика io значение noop на гостевой и конечный срок на хосте, и теперь он записывает со скоростью 138 МБ / с. Я до сих пор не знаю, что заставило qcow2 иметь скорость 3 МБ / с, но, очевидно, его можно обойти, используя raw, так что спасибо, что подтолкнул меня в этом направлении.
Эль Йобо

1
Это не совсем так - последние патчи в qemu сильно ускоряют qcow2! Мы почти на одном уровне.
августа

7

Как добиться максимальной производительности с QCOW2 :

qemu-img create -f qcow2 -o preallocation=metadata,compat=1.1,lazy_refcounts=on imageXYZ

По словам разработчиков qcow2, наиболее важным является предварительное распределение, которое дает хороший импульс. Теперь он почти на одном уровне с LVM ! Обратите внимание, что это обычно включено в современных (Fedora 25+) дистрибутивах Linux.

Также вы можете предоставить небезопасный кеш, если это не рабочий экземпляр (это опасно и не рекомендуется, только для тестирования):

<driver name='qemu' cache='unsafe' />

Некоторые пользователи сообщают, что в некоторых тестах эта конфигурация превосходит конфигурацию LVM / небезопасную.

Для всех этих параметров требуется последняя версия QEMU 1.5+ ! Опять же, у большинства современных дистрибутивов есть такие.


2
Это не является хорошей идеей кэшировать использования = небезопасным: неожиданное завершение работы хоста может нанести ущерб всей гостевой файловой системы. Это гораздо лучше использовать кэш = обратную запись: аналогичные характеристики, но гораздо более высокую надежность.
Shodanshok

1
Как я уже сказал: если это не производственный экземпляр (подходит для тестирования)
lzap

Справедливо. Я пропустил это;)
Shodanshok

6

Я добился отличных результатов для изображения qcow2 с этой настройкой:

<driver name='qemu' type='raw' cache='none' io='native'/>

который отключает гостевые кэши и включает AIO (асинхронный ввод-вывод). Выполнение вашей ddкоманды дало мне 177 МБ / с на хосте и 155 МБ / с на госте. Образ помещается на тот же том LVM, где был проведен тест хоста.

Моя qemu-kvmверсия 1.0+noroms-0ubuntu14.8и ядро 3.2.0-41-genericсо стоковой Ubuntu 12.04.2 LTS.


5
Вы установили тип изображения qcow2 на «raw»?
Алекс

Я думаю, что я скопировал более старую запись, я полагаю, что преимущества в скорости должны быть одинаковыми type='qcow2', не могли бы вы проверить это перед редактированием? У меня больше нет доступа к такой конфигурации - я перешел на LXC с mount bindкаталогами, чтобы добиться реальных исходных скоростей в гостях.
Гертас

2

Если вы запускаете vms одной командой, для аргументов вы можете использовать

kvm -drive file = / path_to.qcow2, если = virtio, cache = off <...>

Это дало мне от 3 МБ / с до 70 МБ / с


2

В старых версиях Qemu / KVM бэкэнд Qcow2 был очень медленным, если не был выделен заранее, особенно если он использовался без кеша обратной записи. Смотрите здесь для более подробной информации.

В более поздних версиях Qemu файлы Qcow2 работают намного быстрее, даже если не используется предварительное распределение (или предварительное распределение только для метаданных). Тем не менее, объемы LVM остаются быстрее.

Обратите внимание на режимы кэширования: предпочтительным режимом является кэш с обратной записью , если только не используется гостевой режим, в котором нет или отключена поддержка очистки / барьеров дискового кэша. На практике гостевые системы Win2000 + и любые варианты барьерного монтирования Linux EXT4, XFS или EXT3 + - это штраф. С другой стороны, cache = unsafe никогда не следует использовать на производственных машинах, поскольку сброс кеша не распространяется на хост-систему. Неожиданное отключение хоста может буквально уничтожить гостевую файловую систему.


2

Я испытал точно такую ​​же проблему. В виртуальной машине RHEL7 у меня есть целевое ПО LIO iSCSI, к которому подключаются другие машины. В качестве базового хранилища (хранилища) для моих iSCSI LUN я изначально использовал LVM, но затем переключился на основанные на файлах образы.

Короче говоря: когда резервное хранилище подключено к контроллеру хранения virtio_blk (vda, vdb и т. Д.) - производительность от клиента iSCSI, подключающегося к цели iSCSI, была в моей среде ~ 20 IOPS, с пропускной способностью (в зависимости от размера IO) ~ 2- 3 МиБ / с. Я изменил контроллер виртуального диска в виртуальной машине на SCSI, и я могу получить 1000+ IOPS и пропускную способность 100+ МБ / с от моих клиентов iSCSI.

<disk type='file' device='disk'>
   <driver name='qemu' type='qcow2' cache='none' io='native'/>
   <source file='/var/lib/libvirt/images/station1/station1-iscsi1-lun.img'/>
   <target dev='sda' bus='scsi'/>
   <address type='drive' controller='0' bus='0' target='0' unit='0'/>
</disk>
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.