Мы ищем разумную скорость хранения. Из-за низкого бюджета мы решили использовать программные цели iSCSI или AoE. Прежде чем мы изменим нашу производственную инфраструктуру, мы проводим некоторые тесты, чтобы выбрать лучшую технологию.
Для тестирования мы используем:
- Fujitsu Siemens RX200 S4 в качестве цели
- Fujitsu Siemens RX200 S4 в качестве инициатора
- NetGear управляемый 1-битный коммутатор
- встроенные сетевые адаптеры (Broadcom w / TOE), сетевые адаптеры EdiMax, сетевые адаптеры Broadcom w / TOE - все 1 Гбит
- целевой сервер использует контроллер QLogic с 6 накопителями WD Blue SATA емкостью 2 ТБ.
- как целевая, так и исходная операционные системы - Ubuntu 16.04 LTS со всеми обновлениями. Переключатель предназначен для хранения. Мы тестируем связи и многолучевость.
Наша проблема - низкая скорость чтения. Для тестирования мы используем dd
и файл 40-100GB.
- локальное чтение и запись на целевом сервере более 300 МБ / с.
- Запись на сервер по протоколу iSCSI или AoE превышает 200 МБ / с, что нас устраивает.
- чтение с сервера всегда 95-99 МБ / с.
Мы попробовали ietd, aoetools, LIO. Мы использовали облигации 2 сетевых карт: balance-rr и LACP, многолучевые с rr. Используются нормальные и гигантские кадры. Наконец, мы даже установили прямое сетевое соединение между целью и хостом (без коммутатора).
Все тесты дают более менее одинаковые результаты (конечно, использование обычных сетевых карт без ОО и iSCSI дало на 20-30% худшие результаты).
Тестирование сети с помощью iperf показало скорость передачи около 200 МБ / с (2 ГБ). Наблюдение за использованием сетевых карт на цели с bmon показало равную загрузку обоих устройств (каждое около 50 МБ / с для чтения, около 100 МБ / с для записи).
Поскольку нам не повезло, мы решили использовать третий сетевой адаптер (конечно, обе стороны). Результаты были странными:
- 2 сетевых карты - 50 МБ / с каждый
- 3 сетевых карты - 33 МБ / с каждый
Существуют ли ограничения для целевого программного обеспечения, которое отключает вывод более 1 Гбит / с?
Что мы делаем не так?