У меня такая же проблема с автономной искрой в окнах . Моя версия исправления такова: у меня были переменные среды, указанные ниже
PYSPARK_SUBMIT_ARGS="pyspark-shell"
PYSPARK_DRIVER_PYTHON=jupyter
PYSPARK_DRIVER_PYTHON_OPTS='notebook' pyspark
С этим параметром я выполнил действие на pyspark и получил следующее исключение:
Python in worker has different version 3.6 than that in driver 3.5, PySpark cannot run with different minor versions.
Please check environment variables PYSPARK_PYTHON and PYSPARK_DRIVER_PYTHON are correctly set.
Чтобы проверить, с какой версией python использует мой искровой рабочий, нажмите в командной строке следующее.
python --version
Python 3.6.3
который показал мне Python 3.6.3 . Итак, очевидно, что мой искровый рабочий использует системный питон v3.6.3.
Теперь, когда я установил свой искровый драйвер для запуска jupyter, PYSPARK_DRIVER_PYTHON=jupyter
мне нужно проверить версию Python, которую использует jupyter.
Для этого откройте Anaconda Prompt и нажмите
python --version
Python 3.5.X :: Anaconda, Inc.
Здесь получил jupyter Питон с помощью v3.5.x . Вы также можете проверить эту версию в любом Блокноте (Справка-> О программе).
Теперь мне нужно обновить питон jupyter до версии v3.6.6 . Для этого откройте Anaconda Prompt и нажмите
поиск conda python
Это даст вам список доступных версий python в Anaconda. Установите желаемый с помощью
conda install python = 3.6.3
Теперь у меня обе установки Python одной и той же версии 3.6.3. Spark не должен соответствовать, и этого не произошло, когда я запустил Action on Spark-driver. Исключения больше нет. Удачного кодирования ...