10 Гб лезвие вопрос


9

Я обсуждаю с коллегой потенциальную конфигурацию. Мы внедряем новое блейд-решение, которое имеет встроенный коммутатор на 10 Гб и два блейд-сервера, каждый из которых имеет 4 сетевых адаптера на 10 Гб.

Тем не менее, остальная часть нашей среды по-прежнему 1 Гб.

Блейд-коммутатор имеет четыре внешних порта 10GBASE-T, которые автоматически распознают до 1 Гб. Мы планируем отстать от них.

По сути, у нас будет 80 Гбит пропускной способности сетевого адаптера на коммутаторе 10 Гбит, соединенном с межкоммутаторным соединением 4 Гбит.

Я думаю, что мы должны вручную установить внутренние порты на 1 Гб, но он не думает, что будут какие-либо заметные проблемы с производительностью от вышеупомянутого дизайна.

Пожалуйста, дайте мне знать, если у вас был какой-либо опыт с подобной настройкой, или если вы знаете о каких-либо проблемах, которые мы можем ожидать.


3
Вы, вероятно, столкнетесь с проблемами буфера в этой тополике, от микровзрывов, переходящих между 10 Гбит / с и 1 Гбит / с. Удостоверьтесь, что вы проверяете потери вывода и возможно увеличиваете буферы порта в возможной.
Jwbensley

Вам помог какой-нибудь ответ? если это так, вы должны принять ответ, чтобы вопрос не появлялся вечно, ища ответ. Кроме того, вы можете предоставить и принять свой собственный ответ.
Рон Мопин

Ответы:


1

По сути, ваши связки по 40 Гб будут только для отказоустойчивости, если у вас нет блейд-передачи на блейд-коммутаторе; даже одно соединение с сервером 10 Гбит больше, чем ваша общая пропускная способность восходящей линии связи.

Есть много сетей и коммутаторов со смешанной скоростью портов. Cisco руководствуется обширными исследованиями. Соотношение пропускной способности порта доступа (соединения с вашим сервером) к порту распределения (вашим внешним соединениям) не должно превышать 20: 1. Это означает, что на каждые 20 ГБ скорости порта доступа вам требуется скорость порта восходящей линии связи 1 ГБ. То, что вы описываете (от 80 до 4 Гб), составляет 20: 1. Рекомендуемое соотношение распределения к ядру намного ниже - 4: 1.


1

Вы должны применять QoS между блейд-коммутаторами и остальной частью вашей среды, чтобы предотвратить гигантские потоки от истощения других потоков.

То, как это можно сделать, зависит от технических характеристик оборудования, но каждый из ваших 10 портов GbE, обращенных к 1 GbE-коммутаторам, имеет 8 аппаратных очередей (0-7, одна очередь на значение CoS), где пакеты ожидают своей очереди на выход.

У вас есть возможность настроить алгоритмы планирования, используемые каждой очередью (строгий приоритет или какое-либо планирование). Очередь, в которой кадры Ethernet ожидают выхода блейд-коммутаторов, может быть выбрана, когда кадры входят в коммутатор.

Серверные ОС, гипервизоры, должны маркировать кадры Ethernet, а блейд-коммутаторы должны соблюдать значения CoS, доверяя своим коллегам.
После того, как помечены, кадры будут заканчиваться в нужной очереди, сохраняя контроль над вами.

Прочитайте информацию о поддержке и настройке моста между центрами данных ( DCB ) между блейд-серверами и коммутаторами

Проверьте поддержку DCB в коммутаторах 1 GbE: если коммутаторы 1 Gb совместимы с DCB, паузы кадров, направленные на блейд-коммутаторы, будут действовать в определенных очередях в случае перегрузки (управление приоритетом потока Ethernet), в то время как очереди с более высоким приоритетом будут продолжать перемещать кадры Ethernet.


0

Нет никакой разницы. Потому что у вас один и тот же порт на коммутаторе с пропускной способностью 1 ГБ и 10 ГБ. Этот коммутатор, вероятно, имеет общий буфер пакетов, который не вызывает проблему сброса микропроцессора. Но если вы получаете пакетный коммутатор, который имеет отдельные буферы на разных портах, вы можете не получить свободного места в очереди вывода в моменты высокой нагрузки.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.