Выходные Drops на последовательном интерфейсе: лучшая очередь или размер очереди вывода?


16

На пограничных интернет-маршрутизаторах, поддерживающих eBGP с несколькими несущими и iBGP друг с другом, все интерфейсы на стороне LAN и WAN являются GE, за исключением одного Serial full-DS3 (~ 45 Мбит / с) на каждом маршрутизаторе. Хотя я думаю, что вряд ли я посылаю много трафика на последовательные интерфейсы - в диапазоне 3-10 Мбит / с - я вижу постоянные потери выходной очереди (OQD). Является ли вероятным объяснением того, что на самом деле существует интенсивный трафик, которого я не вижу, поскольку интервал загрузки составляет минимум 30 секунд, а опрос SNMP усредняет трафик в течение 5 минут, чтобы они не освещали пакетную передачу?

Платформа представляет собой Cisco 7204VXR NPE-G2. Серийная очередь - это fifo .

Serial1 / 0 установлен, линейный протокол включен
  Аппаратное обеспечение M2T-T3 + pa
  Описание: -removed-
  Интернет-адрес abcd / 30
  MTU 4470 байт, BW 44210 Кбит, DLY 200 мксек,
     надежность 255/255, txload 5/255, rxload 1/255
  Инкапсуляция HDLC, crc 16, петля не установлена
  Набор Keepalive (10 секунд)
  Перезапуск-Задержка составляет 0 секунд
  Последний вход 00:00:02, выход 00:00:00, выход не зависает никогда
  Последняя очистка счетчиков "show interface" 00:35:19
  Входная очередь: 0/75/0/0 (размер / макс / сбрасывает / сбрасывает); Всего выпадений: 36
  Стратегия очередей: fifo
  Выходная очередь: 0/40 (размер / макс)
  Скорость ввода 30 секунд 260000 бит / с, 208 пакетов / с
  30-секундная скорость вывода 939000 бит / с, 288 пакетов / с
     410638 входных пакетов, 52410388 байт, 0 без буфера
     Получено 212 трансляций, 0 рантов, 0 гигантов, 0 дросселей
              0 паритет
     0 ошибок ввода, 0 CRC, 0 кадр, 0 переполнение, 0 игнорируется, 0 прерывается
     Вывод 515752 пакетов, 139195019 байт, 0 опустошений
     0 ошибок вывода, 0 аппликация, 0 сброс интерфейса
     0 сбоев выходного буфера, 0 замененных выходных буферов
     0 несущих переходов
   rxLOS неактивен, rxLOF неактивен, rxAIS неактивен
   txAIS неактивен, rxRAI неактивен, txRAI неактивен

24 часа спустя покажет тысячи OQD. Мы действительно увеличиваем трафик около 3 часов утра каждый день, так что, возможно, здесь есть какой-то шумный трафик, к которому я не придаю достаточного веса.

Last clearing of "show interface" counters 1d01h
Input queue: 0/75/0/158 (size/max/drops/flushes); Total output drops: 12049

Я бы хотел увеличить исходящий трафик на DS3, но не в связи с проблемой OQD. У провайдера 2-го уровня за DS3 есть POP, которые удваиваются как точки пиринга с 6+ уровнями 1, поэтому идея состоит в том, чтобы получить этот трафик внутри сети с клиентом как можно скорее, в отличие от нашего основного провайдера на GE, который является уровнем 1 , но должен пробиться к своим обменам. Входящий трафик не является проблемой.

Есть ли лучшая стратегия очередей, чем fifo в этой ситуации? Изучая документы Cisco по удалению входной и выходной очередей, увеличивать размер исходящей очереди не рекомендуется, поскольку пакеты уже находятся на маршрутизаторе, и было бы лучше отбросить при вводе, чтобы TCP мог отбросить приложение обратно. На наших GE-каналах достаточно пропускной способности, поэтому нет необходимости регулировать ввод. На этих роутерах нет политик-карт. 90% исходящего трафика поступает из наших HTTP-ответов; большая часть остальных из FTP и SMTP. Связи GE выдвигают 50-200 + Мбит / с.

Вы бы порекомендовали какие-либо корректировки буфера размера выходной очереди? Эти последовательные интерфейсы являются нашими резервными ссылками, которые я бы предпочел использовать больше по причине, указанной ранее (если она действительна), но в которой меняются мои политики BGP, которые пытаются не перегружать этот последовательный интерфейс (который в большинстве случаев выглядит сильно перегруженным).

Ответы:


13

Вы правы, вы не могли бы легко увидеть разрыв на SNMP. 1GE может отправлять 1,48 Мбит / с, поэтому для загрузки 45 Мбит / с требуется очень очень мало времени, которое может обрабатывать менее 75 Кбит / с.

Если ваш входной сигнал равен 1GE, а выходной - 45 Мбит / с, то очевидно, что для точки перегрузки 45 Мбит / с потребуется отбрасывать пакеты. Это нормально и ожидаемо. Если вы увеличите буферы, вы добавите больше задержки.
1GE требует 0,45 мс для отправки 40 1500B IP-фреймов, что сейчас соответствует размеру пакета, который вы можете обработать. Однако выгрузка их со скоростью 45 Мбит / с уже занимает 10 мс.

Если у вас нет острой проблемы, я бы, наверное, ничего с этим не сделал. Но если какой-то трафик больше подходит для отбрасывания, чем другой, то вам следует заменить FIFO на очереди классов. Скажите, может быть, вы хотите расставить приоритеты так, чтобы больше ftp отбрасывалось и меньше voip.
Тогда также имеет смысл добавить больше буферизации на трафик ftp, так как он не очень чувствителен к задержке.

Если вы хотите испытать свою удачу с более глубокими буферами, чего-то вроде этого должно быть достаточно:

policy-map WAN-OUT
 class class-default
    fair-queue
    queue-limit 200 packets
!
interface Serial1/0
  service-policy output WAN-OUT

Это приведет к 50 мс буферам на Serial1 и позволит вам обрабатывать до 2,25 мс на одном интерфейсе Gige.


Первичный вход и выход - 1GE на наших основных путях с некоторым процентом трафика, проходящего через DS3. Отредактировано Q, чтобы показать, что 90% исходящего трафика - это ответный HTTP-трафик, а остальное составляют FTP и SMTP.
generalnetworkerror

Я бы не использовал DS3, когда Gige доступен, из-за задержек, вызванных буферизацией. Все упомянутые приложения, похоже, очень задерживаются и терпимы к потерям.
ytti

Другая причина, по которой я не упомянул, что пытался использовать больше DS3, - это попытка избежать пакетных расходов на каналах GE WAN, которые запускают> 100 МБ. Несмотря на то, что мы ежедневно превышаем 100 МБ, это не было достаточно долго, чтобы иметь значение (пока).
generalnetworkerror

Вы могли бы направлять больше трафика на DS3 и даже уменьшить потери пакетов за счет увеличения задержки. Но если вы планируете увеличить пропускную способность, проблема будет становиться все хуже и хуже. Помните, что ethernet - это не что иное, как 100% или 0%, только то, как долго он составляет 100%, меняется. Таким образом, вы всегда будете буферизовать пакеты, вызванные вашей высокоскоростной сетью 1GE.
ytti

2
Мое обоснование для 200 пакетов - это задержка, необходимая для их отправки на ваших 45 Мбит / с, что составляет 50 мс, что все еще является допустимой задержкой для приложений передачи данных. Вы должны спросить себя, сколько времени вы собираетесь терпеть, а затем указать буфер для достижения этой цели. В вашей ситуации я бы просто использовал Гиге.
ytti

8

OQD обычно вызваны одной из двух причин:

  1. Вы перестали использовать ссылку; с постоянным интенсивным использованием или интенсивным трафиком.

  2. У вас есть карта политик, примененная к интерфейсу, который настроен на что-то вроде применения политик или формирования части или всего трафика.

  3. На интерфейсе есть какая-то ошибка, посмотрите на счетчики ошибок ( show interface Serial1/0 counters errors) и убедитесь, что пакеты не сбрасываются из-за ошибки.

Вы можете посмотреть (если у вас его еще нет), чтобы создать карту политик, чтобы сделать такие вещи, как выделение критически важному трафику для своей миссии, включить предотвращение перегрузок при обычном трафике (WRED) или даже просто включить справедливую организацию очереди в трафике, чтобы что пропускная способность распределяется между потоками, проходящими через интерфейс.

Как вы упомянули, другой вариант - увеличить размер выходной очереди на интерфейсе, но если вы будете использовать карту политик, то в любом случае в этом не будет необходимости, так как политика создаст другие подпоследовательности.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.