Я испытываю задержки fsync около пяти секунд в хранилищах данных NFS в ESXi, которые запускаются некоторыми виртуальными машинами. Я подозреваю, что это может быть вызвано виртуальными машинами, использующими NCQ / TCQ, поскольку это не происходит с виртуальными дисками IDE.
Это можно воспроизвести с помощью fsync-tester (Тед Цо) и ioping . Например, с помощью действующей системы Grml с диском объемом 8 ГБ:
Linux 2.6.33-grml64:
root@dynip211 /mnt/sda # ./fsync-tester
fsync time: 5.0391
fsync time: 5.0438
fsync time: 5.0300
fsync time: 0.0231
fsync time: 0.0243
fsync time: 5.0382
fsync time: 5.0400
[... goes on like this ...]
Это 5 секунд, а не миллисекунды. Это даже создает задержки ввода-вывода на другой виртуальной машине, работающей на том же хосте и хранилище данных :
root@grml /mnt/sda/ioping-0.5 # ./ioping -i 0.3 -p 20 .
4096 bytes from . (reiserfs /dev/sda): request=1 time=7.2 ms
4096 bytes from . (reiserfs /dev/sda): request=2 time=0.9 ms
4096 bytes from . (reiserfs /dev/sda): request=3 time=0.9 ms
4096 bytes from . (reiserfs /dev/sda): request=4 time=0.9 ms
4096 bytes from . (reiserfs /dev/sda): request=5 time=4809.0 ms
4096 bytes from . (reiserfs /dev/sda): request=6 time=1.0 ms
4096 bytes from . (reiserfs /dev/sda): request=7 time=1.2 ms
4096 bytes from . (reiserfs /dev/sda): request=8 time=1.1 ms
4096 bytes from . (reiserfs /dev/sda): request=9 time=1.3 ms
4096 bytes from . (reiserfs /dev/sda): request=10 time=1.2 ms
4096 bytes from . (reiserfs /dev/sda): request=11 time=1.0 ms
4096 bytes from . (reiserfs /dev/sda): request=12 time=4950.0 ms
Когда я перемещаю первую виртуальную машину в локальное хранилище, она выглядит совершенно нормально:
root@dynip211 /mnt/sda # ./fsync-tester
fsync time: 0.0191
fsync time: 0.0201
fsync time: 0.0203
fsync time: 0.0206
fsync time: 0.0192
fsync time: 0.0231
fsync time: 0.0201
[... tried that for one hour: no spike ...]
То, что я пробовал, не имело значения:
- Протестировано несколько сборок ESXi: 381591, 348481, 260247
- Протестировано на другом оборудовании, на разных блоках Intel и AMD
- Протестировано на разных серверах NFS, все показывают одинаковое поведение:
- OpenIndiana b147 (синхронизация ZFS всегда или отключена: без разницы)
- OpenIndiana b148 (синхронизация ZFS всегда или отключена: без разницы)
- Linux 2.6.32 (синхронизация или асинхронность: без разницы)
- Не имеет значения, находится ли сервер NFS на том же компьютере (в качестве устройства виртуального хранилища) или на другом хосте.
Гостевая ОС проверена, показывает проблемы:
- 64-разрядная версия Windows 7 (при использовании CrystalDiskMark всплески задержки происходят в основном на этапе подготовки)
- Linux 2.6.32 (fsync-tester + ioping)
- Linux 2.6.38 (fsync-tester + ioping)
Я не мог воспроизвести эту проблему на виртуальных машинах Linux 2.6.18.
Другим обходным решением является использование виртуальных дисков IDE (по сравнению с SCSI / SAS), но это ограничивает производительность и количество дисков на виртуальную машину.
Обновление 2011-06-30:
Пики задержек, по-видимому, происходят чаще, если приложение выполняет запись в несколько небольших блоков перед fsync. Например, fsync-tester делает это (прямой вывод):
pwrite(3, "aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa"..., 1048576, 0) = 1048576
fsync(3) = 0
ioping делает это при подготовке файла:
[lots of pwrites]
pwrite(3, "********************************"..., 4096, 1036288) = 4096
pwrite(3, "********************************"..., 4096, 1040384) = 4096
pwrite(3, "********************************"..., 4096, 1044480) = 4096
fsync(3) = 0
Фаза настройки ioping почти всегда зависает, в то время как fsync-tester иногда работает нормально. Может ли кто-то обновить fsync-tester для записи нескольких небольших блоков? Мои навыки С сосать;)
Обновление 2011-07-02:
Эта проблема не возникает с iSCSI. Я попробовал это с сервером OpenIndiana COMSTAR iSCSI. Но iSCSI не дает вам легкого доступа к файлам VMDK, поэтому вы можете перемещать их между хостами с помощью моментальных снимков и rsync.
Обновление 2011-07-06:
Это часть захвата wireshark, захваченного третьей виртуальной машиной на том же vSwitch. Все это происходит на одном хосте, без физической сети.
Я начал драться около 20 минут. Пакеты не отправлялись, пока не закончилась пятисекундная задержка:
No. Time Source Destination Protocol Info
1082 16.164096 192.168.250.10 192.168.250.20 NFS V3 WRITE Call (Reply In 1085), FH:0x3eb56466 Offset:0 Len:84 FILE_SYNC
1083 16.164112 192.168.250.10 192.168.250.20 NFS V3 WRITE Call (Reply In 1086), FH:0x3eb56f66 Offset:0 Len:84 FILE_SYNC
1084 16.166060 192.168.250.20 192.168.250.10 TCP nfs > iclcnet-locate [ACK] Seq=445 Ack=1057 Win=32806 Len=0 TSV=432016 TSER=769110
1085 16.167678 192.168.250.20 192.168.250.10 NFS V3 WRITE Reply (Call In 1082) Len:84 FILE_SYNC
1086 16.168280 192.168.250.20 192.168.250.10 NFS V3 WRITE Reply (Call In 1083) Len:84 FILE_SYNC
1087 16.168417 192.168.250.10 192.168.250.20 TCP iclcnet-locate > nfs [ACK] Seq=1057 Ack=773 Win=4163 Len=0 TSV=769110 TSER=432016
1088 23.163028 192.168.250.10 192.168.250.20 NFS V3 GETATTR Call (Reply In 1089), FH:0x0bb04963
1089 23.164541 192.168.250.20 192.168.250.10 NFS V3 GETATTR Reply (Call In 1088) Directory mode:0777 uid:0 gid:0
1090 23.274252 192.168.250.10 192.168.250.20 TCP iclcnet-locate > nfs [ACK] Seq=1185 Ack=889 Win=4163 Len=0 TSV=769821 TSER=432716
1091 24.924188 192.168.250.10 192.168.250.20 RPC Continuation
1092 24.924210 192.168.250.10 192.168.250.20 RPC Continuation
1093 24.924216 192.168.250.10 192.168.250.20 RPC Continuation
1094 24.924225 192.168.250.10 192.168.250.20 RPC Continuation
1095 24.924555 192.168.250.20 192.168.250.10 TCP nfs > iclcnet_svinfo [ACK] Seq=6893 Ack=1118613 Win=32625 Len=0 TSV=432892 TSER=769986
1096 24.924626 192.168.250.10 192.168.250.20 RPC Continuation
1097 24.924635 192.168.250.10 192.168.250.20 RPC Continuation
1098 24.924643 192.168.250.10 192.168.250.20 RPC Continuation
1099 24.924649 192.168.250.10 192.168.250.20 RPC Continuation
1100 24.924653 192.168.250.10 192.168.250.20 RPC Continuation
2-е обновление 2011-07-06:
Кажется, есть некоторое влияние от размеров окна TCP. Я не смог воспроизвести эту проблему, используя FreeNAS (на основе FreeBSD) в качестве сервера NFS. Захваты Wireshark показали регулярные обновления окна TCP до 29127 байт. Я не видел их с OpenIndiana, которая по умолчанию использует окна большего размера.
Я больше не могу воспроизвести эту проблему, если я установил следующие параметры в OpenIndiana и перезапустил сервер NFS:
ndd -set /dev/tcp tcp_recv_hiwat 8192 # default is 128000
ndd -set /dev/tcp tcp_max_buf 1048575 # default is 1048576
Но это убивает производительность: запись из / dev / zero в файл с dd_rescue идет со 170 МБ / с до 80 МБ / с.
Обновление 2011-07-07:
Я загрузил этот захват tcpdump (можно проанализировать с помощью wireshark). В этом случае 192.168.250.2 является сервером NFS (OpenIndiana b148), а 192.168.250.10 является хостом ESXi.
Вещи, которые я проверял во время этого захвата:
Начал "ioping -w 5 -i 0.2." в момент 30, 5 секунд зависания в настройке, завершено в момент времени 40.
Начал "ioping -w 5 -i 0.2." во время 60, 5 секунд зависания в настройке, завершено во время 70.
Запустил "fsync-tester" в момент 90, со следующим выводом, остановился в момент 120:
fsync time: 0.0248
fsync time: 5.0197
fsync time: 5.0287
fsync time: 5.0242
fsync time: 5.0225
fsync time: 0.0209
2-е обновление 2011-07-07:
Протестирована другая виртуальная машина NFS-сервера, на этот раз NexentaStor 3.0.5 Community Edition: показывает те же проблемы.
Обновление 2011-07-31:
Я также могу воспроизвести эту проблему на новой сборке ESXi 4.1.0.433742.