Apache Spark: количество ядер и количество исполнителей


195

Я пытаюсь понять взаимосвязь количества ядер и количества исполнителей при запуске задания Spark на YARN.

Тестовая среда выглядит следующим образом:

  • Количество узлов данных: 3
  • Спецификация машины узла данных:
    • Процессор: Core i7-4790 (количество ядер: 4, количество потоков: 8)
    • Оперативная память: 32 ГБ (8 ГБ х 4)
    • HDD: 8 ТБ (2 ТБ х 4)
  • Сеть: 1 Гб

  • Версия Spark: 1.0.0

  • Версия Hadoop: 2.4.0 (Hortonworks HDP 2.1)

  • Spark поток работ: sc.textFile -> фильтр -> карта -> фильтр -> mapToPair -> ReduceByKey -> карта -> saveAsTextFile

  • Входные данные

    • Тип: один текстовый файл
    • Размер: 165 ГБ
    • Количество строк: 454 568 833
  • Вывод

    • Количество строк после второго фильтра: 310 640 717
    • Количество строк в файле результатов: 99,848,268
    • Размер файла результата: 41 ГБ

Задание было запущено со следующими конфигурациями:

  1. --master yarn-client --executor-memory 19G --executor-cores 7 --num-executors 3 (исполнители на узел данных, используйте столько же, сколько ядер)

  2. --master yarn-client --executor-memory 19G --executor-cores 4 --num-executors 3 (количество ядер уменьшено)

  3. --master yarn-client --executor-memory 4G --executor-cores 2 --num-executors 12 (меньше ядра, больше исполнителя)

Истекшие времена:

  1. 50 мин 15 сек

  2. 55 мин 48 сек

  3. 31 мин 23 сек

К моему удивлению, (3) было намного быстрее.
Я думал, что (1) будет быстрее, так как при перетасовке будет меньше общения между исполнителями.
Хотя количество ядер в (1) меньше, чем (3), количество ядер не является ключевым фактором, так как 2) работает хорошо.

(Подписки добавлены после ответа pwilmot.)

Для информации, снимок экрана монитора производительности выглядит следующим образом:

  • Сводка узла данных Ganglia для (1) - задание началось в 04:37.

Сводка узлов данных ганглиев за (1)

  • Сводка узла данных Ganglia для (3) - задание началось в 19:47. Пожалуйста, игнорируйте график до этого времени.

Сводка узлов данных ганглиев за (3)

График примерно делится на 2 раздела:

  • Во-первых: от начала до уменьшенияByKey: загрузка процессора, нет активности сети
  • Второе: после lowerByKey: ЦП понижается, сетевой ввод / вывод завершен.

Как видно из графика, (1) может использовать столько мощности процессора, сколько было указано. Таким образом, это может быть не проблема количества потоков.

Как объяснить этот результат?


2
Теперь я подозреваю, что GC ... На самом деле, в Spark UI общее время, потраченное на GC, больше на 1), чем на 2).
zeodtr

Почему ты не попробовал 3) с 19G? Может ли быть так, что ограничение рабочих на 4G уменьшает эффект NUMA, который есть у некоторых людей? т. е. ваш 4G расположен на одном из двух ядер, выделенных для вашего рабочего процесса, и, таким образом, происходит меньшее замедление ввода-вывода, что приводит к улучшению общей производительности. В противном случае, я думаю, главный вопрос: сколько ядер / потоков может использовать один исполнитель на одном работнике? (Можно указать только общее количество ядер для работника, а не на гранулярности исполнителя)
Бекон,

5
Кстати, я только что проверил код в core / src / main / scala / org / apache / spark / deploy / worker / ExecutorRunner.scala, и кажется, что 1 executor = 1 рабочий поток.
Бекон

немного поздно, но вот пост на cloudera на эту тему: blog.cloudera.com/blog/2015/03/…
Orelus

1
Между прочим, я нашел эту информацию в слайд-колоде cloudera slideshare.net/cloudera/… , которая немного объясняет процесс принятия решений исполнителями, ядрами и памятью
Маниш Сахни,

Ответы:


58

Надеюсь, чтобы сделать все это немного более конкретным, вот рабочий пример настройки приложения Spark для максимально возможного использования кластера: представьте кластер с шестью узлами, на которых работают NodeManager, каждый из которых оснащен 16 ядрами и 64 ГБ памяти . Емкости NodeManager, yarn.nodemanager.resource.memory-mb и yarn.nodemanager.resource.cpu-vcores, вероятно, должны быть равны 63 * 1024 = 64512 (мегабайт) и 15 соответственно. Мы избегаем выделения 100% ресурсов для контейнеров YARN, поскольку узлу требуются некоторые ресурсы для запуска демонов ОС и Hadoop. В этом случае мы оставляем гигабайт и ядро ​​для этих системных процессов. Cloudera Manager помогает, учитывая их и автоматически настраивая эти свойства YARN.

Вероятным первым импульсом будет использование --num-executors 6 --executor-cores 15 --executor-memory 63G . Однако это неправильный подход, потому что:

63 ГБ + накладные расходы памяти исполнителя не будут соответствовать емкости 63 ГБ NodeManager. Мастер приложения будет занимать ядро ​​на одном из узлов, что означает, что на этом узле не будет места для 15-ядерного исполнителя. 15 ядер на исполнителя могут привести к плохой пропускной способности ввода-вывода HDFS.

Лучшим вариантом было бы использовать --num-executors 17 --executor-cores 5 --executor-memory 19G . Зачем?

Эта конфигурация приводит к трем исполнителям на всех узлах, кроме одного с AM, у которого будет два исполнителя. --executor-memory была получена как (63/3 исполнителей на узел) = 21. 21 * 0.07 = 1.47. 21 - 1,47 ~ 19.

Объяснение было дано в статье в блоге Cloudera, How-to: Tune Your Apache Spark Jobs (Часть 2) .


1
Msgstr "Этот конфиг приводит к трем исполнителям на всех узлах, кроме одного с AM, у которого будет два исполнителя." Что это значит относительно "--executor-cores 5"?
Дерек

Это означает, что каждый исполнитель использует 5 ядер. Каждый узел имеет 3 исполнителя, поэтому он использует 15 ядер, за исключением того, что один из узлов также будет запускать мастер приложения для задания, поэтому может размещаться только 2 исполнителя, т.е. 10 ядер, используемых в качестве исполнителей.
Давос,

Приятно объяснено - обратите внимание, что это относится к yarn.scheduler.capacity.resource-calculatorотключенным, что по умолчанию. Это связано с тем, что по умолчанию он распределяется по памяти, а не по процессору.
YoYo

1
Больше исполнителей может привести к плохой пропускной способности ввода-вывода HDFS. Так что, если я вообще не использую HDFS, могу ли я использовать более 5 ядер на исполнителя?
Даршан

Я, хотя мастер приложений работает на каждом узле. Как указано выше, это означает, что для выполнения задания будет только 1 Мастер приложений. Это правильно?
Рошан Фернандо

15

По словам Сэнди Риза, когда вы запускаете свое искровое приложение поверх HDFS

Я заметил, что у клиента HDFS есть проблемы с тоннами одновременных потоков. Грубое предположение состоит в том, что максимум пять задач для каждого исполнителя могут обеспечить полную пропускную способность записи, поэтому лучше держать число ядер на исполнителя ниже этого числа.

Поэтому я считаю, что ваша первая конфигурация медленнее третьей из-за плохой пропускной способности ввода-вывода HDFS


11

Я сам не играл с этими настройками, так что это всего лишь предположение, но если мы будем рассматривать эту проблему как обычные ядра и потоки в распределенной системе, то в вашем кластере вы можете использовать до 12 ядер (4 * 3 компьютера) и 24 потока (8 * 3 машины). В первых двух примерах вы предоставляете своей работе достаточное количество ядер (потенциальное вычислительное пространство), но количество потоков (заданий), выполняемых на этих ядрах, настолько ограничено, что вы не можете использовать большую часть выделенной вычислительной мощности. и, следовательно, работа медленнее, даже если выделено больше вычислительных ресурсов.

Вы упоминаете, что ваша задача была в шаге случайного перемешивания - хотя приятно ограничить накладные расходы в шаге случайного воспроизведения, как правило, гораздо важнее использовать распараллеливание кластера. Подумайте о крайнем случае - однопоточная программа с нулевым перемешиванием.


Спасибо за ваш ответ. Но я подозреваю, что количество потоков не является главной проблемой. Я добавил снимок экрана мониторинга. Как видно из графика, 1) может использовать столько мощности процессора, сколько было предоставлено.
Zeodtr

1
@zeodtr pwilmot верен - вам нужно 2-4 задания МИНИМАЛЬНО, чтобы использовать весь потенциал ваших ядер. Скажем так: я обычно использую как минимум 1000 разделов для своего 80-ядерного кластера.
Самбест

@samthebest То, что я хочу знать, является причиной различия в производительности между 1) и 3). Когда я наблюдаю за интерфейсом Spark, в разделе 2 обе задачи выполняются параллельно 21 (почему 21 вместо 24 в случае 3) пока неизвестно) Но задачи для 3) выполняются быстрее.
zeodtr

11

Краткий ответ : я думаю, что tgbaggio прав. Вы достигли пределов пропускной способности HDFS для своих исполнителей.

Я думаю, что ответ здесь может быть немного проще, чем некоторые из рекомендаций здесь.

Ключ для меня в графе кластерной сети. Для прогона 1 загрузка устойчива на уровне ~ 50 М байт / с. Для прогона 3 устойчивое использование удваивается, около 100 Мбайт / с.

От поста Cloudera блога разделяемой DzOrd , вы можете увидеть эту важную цитату:

Я заметил, что у клиента HDFS есть проблемы с тоннами одновременных потоков. Грубое предположение состоит в том, что максимум пять задач для каждого исполнителя могут обеспечить полную пропускную способность записи, поэтому лучше держать число ядер на исполнителя ниже этого числа.

Итак, давайте сделаем несколько расчетов, чтобы увидеть, какую производительность мы ожидаем, если это правда.


Запуск 1: 19 ГБ, 7 ядер, 3 исполнителя

  • 3 исполнителя x 7 потоков = 21 потоков
  • с 7 ядрами на исполнителя мы ожидаем ограниченный ввод-вывод для HDFS (максимально до ~ 5 ядер)
  • эффективная пропускная способность ~ = 3 исполнителя x 5 потоков = 15 потоков

Запуск 3: 4 ГБ, 2 ядра, 12 исполнителей

  • 2 исполнителя x 12 тем = 24 темы
  • 2 ядра на исполнителя, поэтому пропускная способность hdfs в порядке
  • эффективная пропускная способность ~ = 12 исполнителей x 2 потока = 24 потока

Если задание на 100% ограничено параллелизмом (количеством потоков). Мы ожидаем, что время выполнения будет полностью обратно коррелировано с количеством потоков.

ratio_num_threads = nthread_job1 / nthread_job3 = 15/24 = 0.625
inv_ratio_runtime = 1/(duration_job1 / duration_job3) = 1/(50/31) = 31/50 = 0.62

Итак ratio_num_threads ~= inv_ratio_runtime, похоже, что мы ограничены в сети.

Этот же эффект объясняет разницу между прогоном 1 и прогоном 2.


Запуск 2: 19 ГБ, 4 ядра, 3 исполнителя

  • 3 исполнителя x 4 темы = 12 темы
  • с 4 ядрами на исполнителя, хорошо, IO для HDFS
  • эффективная пропускная способность ~ = 3 исполнителя x 4 потока = 12 потоков

Сравнение количества эффективных потоков и времени выполнения:

ratio_num_threads = nthread_job2 / nthread_job1 = 12/15 = 0.8
inv_ratio_runtime = 1/(duration_job2 / duration_job1) = 1/(55/50) = 50/55 = 0.91

Он не так совершенен, как в предыдущем сравнении, но мы все еще видим аналогичное падение производительности, когда теряем потоки.

Теперь напоследок: почему мы получаем лучшую производительность с большим количеством потоков, особенно? больше потоков, чем количество процессоров?

Хорошее объяснение разницы между параллелизмом (что мы получаем путем разделения данных на несколько процессоров) и параллелизмом (что мы получаем, когда мы используем несколько потоков для работы на одном процессоре), представлено в этом замечательном посте Роба Пайка: « Параллельность» это не параллелизм .

Краткое объяснение состоит в том, что если задание Spark взаимодействует с файловой системой или сетью, ЦП тратит много времени на ожидание связи с этими интерфейсами и не тратит много времени на «выполнение работы». Предоставляя этим процессорам более одной задачи одновременно, они тратят меньше времени на ожидание и больше времени на работу, и вы видите лучшую производительность.


1
Интересное и убедительное объяснение, интересно, как вы пришли к выводу, что у исполнителя есть ограничение в 5 задач для достижения максимальной пропускной способности.
Дат Нгуен

Таким образом, число 5 не то, что я придумал: я просто заметил признаки узкого места ввода-вывода и отправился на поиски, откуда могут появиться эти узкие места.
turtlemonvh

8

Из превосходных ресурсов, доступных на странице пакета Sparklyr RStudio :

ОПРЕДЕЛЕНИЯ СПАРКА :

Может быть полезно предоставить несколько простых определений для номенклатуры Spark:

Узел : сервер

Рабочий узел : сервер, который является частью кластера и доступен для запуска заданий Spark.

Главный узел : сервер, который координирует рабочие узлы.

Исполнитель : своего рода виртуальная машина внутри узла. Один узел может иметь несколько исполнителей.

Узел водителя : узел, который инициирует сеанс Spark. Как правило, это будет сервер, на котором расположен sparklyr.

Драйвер (Исполнитель) : Узел драйвера также будет отображаться в списке Исполнитель.


1

Динамическое распределение Spark обеспечивает гибкость и динамическое распределение ресурсов. В этом количестве может быть указано минимальное и максимальное количество исполнителей. Также может быть указано количество исполнителей, которое должно быть запущено при запуске приложения.

Читайте ниже о том же:

http://spark.apache.org/docs/latest/configuration.html#dynamic-allocation


1

Я думаю, что в первых двух конфигурациях есть небольшая проблема. Понятия потоков и сердечников, как следует. Концепция потоков - если ядра идеальны, используйте это ядро ​​для обработки данных. Таким образом, память используется не полностью в первых двух случаях. Если вы хотите провести тестирование в этом примере, выберите машины, которые имеют более 10 ядер на каждой машине. Затем сделайте отметку.

Но не отдавайте более 5 ядер на каждого исполнителя, это приведет к снижению производительности ввода-вывода.

Таким образом, лучшими машинами для этого тестирования могут быть узлы данных, имеющие 10 ядер.

Спецификация узла данных: ЦП: Core i7-4790 (количество ядер: 10, количество потоков: 20) ОЗУ: 32 ГБ (8 ГБ х 4), жесткий диск: 8 ТБ (2 ТБ х 4)


0

Я думаю, что одной из основных причин является местность. Размер вашего входного файла составляет 165 ГБ, связанные с файлом блоки, безусловно, распределены по нескольким узлам данных, и больше исполнителей могут избежать копирования по сети.

Попробуйте установить количество исполнителей равным числом блоков, я думаю, может быть быстрее.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.