Оптимальное значение для Nginx worker_connections


25

Nginx worker_connections"устанавливает максимальное количество одновременных соединений, которые могут быть открыты рабочим процессом. Это число включает все соединения (например, соединения с прокси-серверами, в том числе), а не только соединения с клиентами. Другое соображение заключается в том, что фактическое количество одновременных соединений не может превышать текущий лимит на максимальное количество открытых файлов ". У меня есть несколько вопросов по этому поводу:

  1. Какое должно быть оптимальное или рекомендуемое значение для этого?
  2. Каковы недостатки использования большого количества рабочих соединений?

+1, хороший вопрос!
CNST

Ответы:


31

Давайте прагматичный подход.

Все эти ограничения - вещи, которые были жестко запрограммированы и разработаны в прошлом веке, когда оборудование было медленным и дорогим. Сейчас мы находимся в 2016 году, тостер среднего размера может обрабатывать больше запросов, чем значения по умолчанию.

Настройки по умолчанию на самом деле опасны. Наличие сотен пользователей на сайте не впечатляет.

worker_process

Связанная настройка, давайте объясним это, пока мы находимся на теме.

nginx как балансировщик нагрузки:

  • 1 рабочий для балансировки нагрузки HTTP.
  • 1 рабочий на ядро ​​для балансировки нагрузки HTTPS.

nginx как веб-серверы:

Этот хитрый.

Некоторые приложения / frameworks / middleware (например, php-fpm) запускаются за пределами nginx. В этом случае достаточно одного работника nginx, потому что обычно внешнее приложение выполняет тяжелую обработку и использует ресурсы.

Кроме того, некоторые приложения / платформы / промежуточное программное обеспечение могут обрабатывать только один запрос за раз, и это приводит к обратным последствиям для их перегрузки.

Вообще говоря, 1 работник всегда безопасная ставка.

В противном случае вы можете поставить одного работника на ядро, если знаете, что делаете. Я бы посчитал этот маршрут оптимизацией и посоветовал бы правильно провести бенчмаркинг и тестирование.

worker_connections

Общее количество подключений составляет worker_process * worker_connections. Половина в режиме балансировки нагрузки.

Теперь мы подходим к тостеру. Есть много серьезно недооцененных системных ограничений:

  • Максимальное количество открытых файлов на процесс в Linux составляет 1 КБ (1 КБ, 4 КБ в некоторых дистрибутивах).
  • Системные ограничения примерно такие же, как и улимитов.
  • По умолчанию nginx составляет 512 соединений на одного работника.
  • Там может быть больше: SELinux, sysctl, supervisord (каждая версия distro + немного отличается)

1k worker_connections

Безопасное значение по умолчанию - 1k везде.

Это достаточно высоко, чтобы быть больше, чем большинство внутренних и неизвестных сайтов когда-либо сталкиваются. Это достаточно низко, чтобы не нарушать другие системные ограничения.

10 тыс. Рабочих_соединений

Распространено тысячи клиентов, особенно для публичного сайта. Я перестал считать количество сайтов, которые я видел, из-за низких значений по умолчанию.

Минимально приемлемый для производства 10к. Соответствующие системные ограничения должны быть увеличены, чтобы это было возможно.

Не существует такой вещи, как слишком высокий лимит (лимит просто не действует, если нет пользователей). Однако слишком низкий лимит - это очень реальная вещь, которая приводит к отклонению пользователей и мертвому сайту.

Более 10к

10к это красиво и легко.

Мы могли бы установить произвольные ограничения в 1000kk (это всего лишь предел), но это не имеет особого практического смысла, мы никогда не получаем этот трафик и не можем его взять.

Давайте придерживаться 10k в качестве разумной настройки. Сервисы, которые собираются (и могут сделать) больше, потребуют специальной настройки и сравнительного анализа.

Специальный сценарий: расширенное использование

Иногда мы знаем, что на сервере не так много ресурсов, и мы ожидаем всплески, с которыми мы ничего не можем поделать. Мы скорее откажемся от пользователей, чем попробуем. В этом случае установите разумный лимит соединения и настройте хорошие сообщения об ошибках и обработку.

Иногда бэкэнд-серверы работают хорошо и хорошо, но только до некоторой нагрузки , чего угодно, и все быстро движется на юг. Мы бы предпочли замедлиться, чем дать сбой серверам. В этом случае настройте организацию очереди со строгими ограничениями, пусть nginx буферизирует всю высокую температуру, пока запросы расходуются в ограниченном темпе.


Мне нравится ответ, но чтобы сделать по-настоящему обоснованное предположение о том, как высоко его следует установить, кажется, что нам нужно приблизительно знать, сколько ОЗУ занимает одно соединение (например, чтобы сохранить обычный статический файл с sendfile), чтобы мы могли умножить на вычислить, сколько ОЗУ потребуется для поддержания заданного количества worker_connections.
nh2

1
Вы можете сделать до 10 Кб без особых настроек. Буферы подключения задаются в sysctlнастройках.
user5994461

10

ulimit -a скажет вам, сколько открытых файлов ваша система позволяет процессу использовать.

Кроме того, net.ipv4.ip_local_port_rangeзадает общий диапазон сокетов для включения по IP.

Таким образом, вы worker_connectionsне можете быть больше, чем любой из них, или ваши клиентские подключения будут стоять в очереди до net.core.netdev_max_backlog- общего размера очереди TCP.

Имейте в виду, что если вы используете nginx в качестве обратного прокси-сервера, то для каждого соединения используются два сокета. Возможно, вы захотите немного поиграть с net.ipv4.tcp_fin_timeoutдругими таймаутами ядра, связанными с tcp, чтобы попытаться быстро переключить состояние сокетов. Следует также отметить, что каждый сокет выделяет память из стека памяти TCP, вы также можете установить некоторые ограничения стека памяти TCP, используя sysctl, вы можете увеличить нагрузку на оперативную память, если у вас есть процессор и достаточно обработчиков файлов.

К вашему сведению, возможно, при наличии достаточных вычислительных ресурсов, иметь один сервер с оперативной памятью около 32 ГБ и несколько виртуальных сетевых интерфейсов для обработки одновременных подключений 1 ММ с некоторой настройкой ядра с использованием sysctl. Во время моих тестов при работе с более чем 1 ММ и отправке полезной нагрузки около 700 Байт серверу потребовалось около 10 секунд для обновления около 1,2 ММ одновременных клиентов. Следующим шагом было увеличение пропускной способности сети путем соединения нескольких дополнительных сетевых карт и отключения виртуальных сетевых карт. Можно обеспечить псевдо-связь почти в реальном времени с более чем 1,2-миллионными клиентами, учитывая полезную нагрузку, пропускную способность и разумное время для обновления всех клиентов.

Удачного тюнинга!


пожалуйста, исправьте команду, чтобы ulimit не ulimits
Ali.MD

Примечание net.ipv4.ip_local_port_rangeотносится только к исходящим соединениям, а не к входящим соединениям (как это обычно бывает с nginx на портах 80 и 443); см здесь .
nh2

@ nh2, но если кто-то использует nginx в качестве обратного прокси-сервера, то для каждого клиентского соединения открыто как минимум 2 сокета, и тогда имеет значение, сколько локальных портов ядро ​​может разрешить сокетам связываться.
Марсель

Да, это правильно.
nh2

0

Соответствующий размер можно найти в ходе тестирования, поскольку он зависит от типа трафика, который обрабатывает Nginx.

Теоретически, nginx может обрабатывать: максимум клиентов = worker_processes * worker_connections (* = умножить) и worker_processes = количество процессоров

Чтобы узнать процессоры, используйте: grep processor / proc / cpuinfo | туалет


На самом деле с обратным прокси: max_clients = (worker_processes * worker_connections) / (X * 2) где X, однако, много одновременных соединений, которые эти клиенты устанавливают к вам. Также структуры соединений используются для прослушивающих сокетов, внутренних сокетов управления между процессами nginx и для восходящих соединений. Таким образом, это max clients = worker_processes * worker_connections не будет работать, так как мы не знаем, что многие соединения используются во внутренних сокетах управления.
Аарти

0

Установка нижних пределов может быть полезна, когда вы ограничены в ресурсах. Некоторые соединения, например соединения с поддержкой активности (не только с клиентами, но и с вышестоящими серверами ), эффективно тратят ваши ресурсы (даже если nginx очень эффективен), и не требуются для правильная работа сервера общего назначения, что означает, что их можно безопасно отбросить, чтобы сделать больше ресурсов доступными для остальной части операции.

Таким образом, более низкий лимит ресурсов будет означать для nginx, что у вас может быть мало физических ресурсов, и те, которые доступны, должны быть выделены для новых соединений, а не для обслуживания холостых соединений с поддержкой активности за счет того, что более новые соединения не могут быть установлены для служить более насущным потребностям.

Какое рекомендуемое значение? Это по умолчанию.

Все значения по умолчанию задокументированы в документации:

По умолчанию: worker_connections 512;

И может быть подтверждено на уровне исходного кодаevent/ngx_event.c тоже

13 # define DEFAULT_CONNECTIONS 512


0

Ответ Марселя действительно нуждается в голосовании! Если для ulimits установлено значение по умолчанию около 1 КБ, max_connections должно быть установлено на то же значение, в противном случае установка max_connections на 10 КБ не имеет смысла.

Вы получите запрос очереди и сокеты, закрытые на nginx, если «ваши worker_connections не могут быть больше, чем любые из них, или ваши клиентские подключения будут стоять в очереди до net.core.netdev_max_backlog - общий размер очереди TCP».

Один процесс может открыться так же, как и соединение, если позволяют ограничения. num_workers * max_connections - формула, но внешние соединения loadbalancer / proxy max и ограничения должны учитываться для получения разумных значений. Установка max_connection на действительно высокое значение может иметь неприятные последствия, так как ulimits будет ограничивающим фактором.


1
Это на самом деле неправильно. Мягкое ограничение для настольного Linux составляет 1 КБ, но оно не мешает процессам использовать больше, чем это, если они запрашивают, вплоть до жесткого ограничения (32 КБ или более). nginx автоматически увеличит значение ulimit, если max_connectionsоно превышает мягкое ограничение по умолчанию.
user5994461
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.