Как увеличить объем памяти, доступной для узлов исполнителя Apache Spark?
У меня есть файл размером 2 ГБ, который подходит для загрузки в Apache Spark. На данный момент я запускаю apache spark на 1 машине, поэтому драйвер и исполнитель находятся на одной машине. В аппарате 8 ГБ памяти.
Когда я пытаюсь подсчитать строки файла после установки файла для кеширования в памяти, я получаю следующие ошибки:
2014-10-25 22:25:12 WARN CacheManager:71 - Not enough space to cache partition rdd_1_1 in memory! Free memory is 278099801 bytes.
Я посмотрел на документацию здесь и установить spark.executor.memory
на 4g
в$SPARK_HOME/conf/spark-defaults.conf
Пользовательский интерфейс показывает, что эта переменная установлена в среде Spark. Вы можете найти скриншот здесь
Однако, когда я перехожу на вкладку Executor, предел памяти для моего единственного Executor по-прежнему установлен на 265,4 МБ. Я тоже получаю ту же ошибку.
Я пробовал разные вещи, упомянутые здесь, но все равно получаю сообщение об ошибке и не имею четкого представления, где мне изменить настройку.
Я запускаю свой код в интерактивном режиме из искровой оболочки