Задача не сериализуема: java.io.NotSerializableException при вызове функции вне замыкания только для классов, а не объектов


224

Странное поведение при вызове функции вне замыкания:

  • когда функция находится в объекте, все работает
  • когда функция находится в классе get:

Задача не сериализуема: java.io.NotSerializableException: тестирование

Проблема в том, что мне нужен мой код в классе, а не объект. Есть идеи, почему это происходит? Сериализуется ли объект Scala (по умолчанию?)?

Это пример рабочего кода:

object working extends App {
    val list = List(1,2,3)

    val rddList = Spark.ctx.parallelize(list)
    //calling function outside closure 
    val after = rddList.map(someFunc(_))

    def someFunc(a:Int)  = a+1

    after.collect().map(println(_))
}

Это нерабочий пример:

object NOTworking extends App {
  new testing().doIT
}

//adding extends Serializable wont help
class testing {  
  val list = List(1,2,3)  
  val rddList = Spark.ctx.parallelize(list)

  def doIT =  {
    //again calling the fucntion someFunc 
    val after = rddList.map(someFunc(_))
    //this will crash (spark lazy)
    after.collect().map(println(_))
  }

  def someFunc(a:Int) = a+1
}

Что такое Spark.ctx? Нет объекта Spark с методом ctx AFAICT
javadba

Ответы:


334

СДР расширяют интерфейс Serialisable , так что это не то, что приводит к сбою вашей задачи. Теперь это не значит, что вы можете сериализовать RDDс Spark и избежатьNotSerializableException

Spark - это механизм распределенных вычислений, и его основной абстракцией является устойчивый распределенный набор данных ( RDD ), который можно рассматривать как распределенную коллекцию. По сути, элементы RDD распределены по узлам кластера, но Spark абстрагирует это от пользователя, позволяя пользователю взаимодействовать с RDD (коллекцией), как если бы он был локальным.

Чтобы не попасть в слишком много деталей, но при запуске различных преобразований на РДУ ( map, flatMap, filterи другие), код преобразования (закрытие) является:

  1. сериализовано на узле драйвера,
  2. отправлены на соответствующие узлы в кластере,
  3. десериализации,
  4. и, наконец, выполняется на узлах

Конечно, вы можете запустить это локально (как в вашем примере), но все эти фазы (кроме доставки по сети) все же происходят. [Это позволяет выявлять любые ошибки еще до развертывания в производство]

Во втором случае происходит то, что вы вызываете метод, определенный в классе, testingвнутри функции карты. Spark видит это, и поскольку методы не могут быть сериализованы сами по себе, Spark пытается сериализовать весь testing класс, так что код все равно будет работать при выполнении в другой JVM. У вас есть две возможности:

Либо вы делаете тестирование классов сериализуемым, так что весь класс может быть сериализован Spark:

import org.apache.spark.{SparkContext,SparkConf}

object Spark {
  val ctx = new SparkContext(new SparkConf().setAppName("test").setMaster("local[*]"))
}

object NOTworking extends App {
  new Test().doIT
}

class Test extends java.io.Serializable {
  val rddList = Spark.ctx.parallelize(List(1,2,3))

  def doIT() =  {
    val after = rddList.map(someFunc)
    after.collect().foreach(println)
  }

  def someFunc(a: Int) = a + 1
}

или вы создаете someFuncфункцию вместо метода (функции - это объекты в Scala), так что Spark сможет ее сериализовать:

import org.apache.spark.{SparkContext,SparkConf}

object Spark {
  val ctx = new SparkContext(new SparkConf().setAppName("test").setMaster("local[*]"))
}

object NOTworking extends App {
  new Test().doIT
}

class Test {
  val rddList = Spark.ctx.parallelize(List(1,2,3))

  def doIT() =  {
    val after = rddList.map(someFunc)
    after.collect().foreach(println)
  }

  val someFunc = (a: Int) => a + 1
}

Подобная, но не та же проблема с сериализацией классов может быть вам интересна, и вы можете прочитать об этом в этой презентации Spark Summit 2013 .

В качестве примечания, вы можете переписать rddList.map(someFunc(_))на rddList.map(someFunc), они точно так же. Обычно второй вариант предпочтительнее, так как он менее подробный и понятный для чтения.

РЕДАКТИРОВАТЬ (2015-03-15): SPARK-5307 представил SerializationDebugger и Spark 1.3.0 является первой версией, которая его использует. Он добавляет путь сериализации в NotSerializableException . Когда встречается исключение NotSerializableException, отладчик посещает граф объектов, чтобы найти путь к объекту, который не может быть сериализован, и создает информацию, чтобы помочь пользователю найти объект.

В случае OP это то, что выводится на стандартный вывод:

Serialization stack:
    - object not serializable (class: testing, value: testing@2dfe2f00)
    - field (class: testing$$anonfun$1, name: $outer, type: class testing)
    - object (class testing$$anonfun$1, <function1>)

1
Хмм, то, что вы объяснили, безусловно, имеет смысл, и объясняет, почему весь класс get сериализован (что я не до конца понял). Тем не менее, я по-прежнему буду считать, что rdd не сериализуемы (хорошо, они расширяют Serializable, но это не значит, что они не вызывают NotSerializableException, попробуйте). Вот почему, если вы разместите их вне классов, это исправит ошибку. Я собираюсь немного отредактировать свой ответ, чтобы быть более точным в том, что я имею в виду - то есть они вызывают исключение, а не расширяют интерфейс.
Самбест

35
Если у вас нет контроля над классом, вам нужно быть сериализуемым ... если вы используете Scala, вы можете просто создать его экземпляр с помощью Serializable:val test = new Test with Serializable
Mark S

4
«От rddList.map (someFunc (_)) до rddList.map (someFunc), они абсолютно одинаковы» Нет, они не совсем одинаковы, и на самом деле использование последних может привести к исключениям сериализации, в отличие от первых.
Самбест

1
@samthebest, не могли бы вы объяснить, почему map (someFunc (_)) не вызывает исключений сериализации, а map (someFunc) -?
Алон

31

Великий ответ Греги объясняет, почему оригинальный код не работает, и два способа решения проблемы. Однако это решение не очень гибкое; рассмотрим случай, когда ваше закрытие включает вызов метода для некласса, Serializableкоторый вы не можете контролировать. Вы не можете ни добавить Serializableтег к этому классу, ни изменить базовую реализацию, чтобы изменить метод в функцию.

Nilesh предлагает для этого отличный обходной путь, но решение может быть сделано как более кратким, так и общим:

def genMapper[A, B](f: A => B): A => B = {
  val locker = com.twitter.chill.MeatLocker(f)
  x => locker.get.apply(x)
}

Эта функция-сериализатор может затем использоваться для автоматической упаковки замыканий и вызовов методов:

rdd map genMapper(someFunc)

Эта методика также имеет то преимущество, что не требует дополнительных зависимостей Shark для доступа KryoSerializationWrapper, поскольку Chill в Twitter уже задействован ядром Spark.


Привет, интересно, нужно ли мне что-то регистрировать, если я использую твой код? Я попытался получить исключение класса Unable find от kryo. THX
G_cy

25

Полный доклад, полностью объясняющий проблему, который предлагает отличный способ смены парадигмы, чтобы избежать этих проблем сериализации: https://github.com/samthebest/dump/blob/master/sams-scala-tutorial/serialization-exceptions-and-memory- leaks-no-ws.md

Ответ, получивший наибольшее количество голосов, в основном предлагает отказаться от целой языковой функции, которая больше не использует методы, а использует только функции. Действительно, в функциональном программировании следует избегать методов в классах, но превращение их в функции не решает проблему проектирования здесь (см. Ссылку выше).

В качестве быстрого решения в этой конкретной ситуации вы можете просто использовать @transientаннотацию, чтобы запретить сериализацию ошибочного значения (здесь Spark.ctxэто пользовательский класс, а не Spark, который следует из имен OP):

@transient
val rddList = Spark.ctx.parallelize(list)

Вы также можете реструктурировать код так, чтобы rddList жил где-то еще, но это также неприятно.

Будущее, вероятно, споры

В будущем Scala будет включать в себя такие вещи, как «споры», которые должны позволить нам точно контролировать зерно, что точно и не затягивается закрытием. Кроме того, это должно превратить все ошибки случайного извлечения несериализуемых типов (или любых нежелательных значений) в ошибки компиляции, а не сейчас, что является ужасными исключениями времени выполнения / утечками памяти.

http://docs.scala-lang.org/sips/pending/spores.html

Совет по сериализации Kryo

При использовании kyro сделайте так, чтобы регистрация была необходима, это будет означать, что вы получаете ошибки вместо утечек памяти:

«Наконец, я знаю, что у kryo есть kryo.setRegistrationOptional (true), но мне очень трудно пытаться выяснить, как его использовать. Когда эта опция включена, кажется, что kryo по-прежнему генерирует исключения, если я не зарегистрировался классы «.

Стратегия регистрации классов с крио

Конечно, это только дает вам контроль уровня типа, а не контроль уровня значения.

... больше идей


9

Я решил эту проблему, используя другой подход. Вам просто нужно сериализовать объекты перед прохождением через замыкание, а затем десериализовать. Этот подход просто работает, даже если ваши классы не Serializable, потому что он использует Kryo за кулисами. Все, что вам нужно, это немного карри. ;)

Вот пример того, как я это сделал:

def genMapper(kryoWrapper: KryoSerializationWrapper[(Foo => Bar)])
               (foo: Foo) : Bar = {
    kryoWrapper.value.apply(foo)
}
val mapper = genMapper(KryoSerializationWrapper(new Blah(abc))) _
rdd.flatMap(mapper).collectAsMap()

object Blah(abc: ABC) extends (Foo => Bar) {
    def apply(foo: Foo) : Bar = { //This is the real function }
}

Не стесняйтесь делать Blah настолько сложным, насколько вам нужно, класс, объект-компаньон, вложенные классы, ссылки на несколько сторонних библиотек.

KryoSerializationWrapper ссылается на: https://github.com/amplab/shark/blob/master/src/main/scala/shark/execution/serialization/KryoSerializationWrapper.scala


Означает ли это сериализацию экземпляра или создание статического экземпляра и сериализацию ссылки (см. Мой ответ).
Самбест

2
@samthebest не могли бы вы уточнить? Если вы исследуете, KryoSerializationWrapperвы обнаружите, что это заставляет Spark думать, что это действительно так java.io.Serializable- он просто сериализует объект внутренне, используя Kryo - быстрее, проще. И я не думаю, что он имеет дело со статическим экземпляром - он просто десериализует значение при вызове value.apply ().
Нилеш

8

Я столкнулся с аналогичной проблемой, и то , что я понял из ответа Грега в это

object NOTworking extends App {
 new testing().doIT
}
//adding extends Serializable wont help
class testing {

val list = List(1,2,3)

val rddList = Spark.ctx.parallelize(list)

def doIT =  {
  //again calling the fucntion someFunc 
  val after = rddList.map(someFunc(_))
  //this will crash (spark lazy)
  after.collect().map(println(_))
}

def someFunc(a:Int) = a+1

}

Ваш метод doIT пытается сериализовать метод someFunc (_) , но так как метод не сериализуем, он пытается сериализовать тестирование класса, которое снова не сериализуемо.

Поэтому, чтобы ваш код работал, вы должны определить someFunc внутри метода doIT . Например:

def doIT =  {
 def someFunc(a:Int) = a+1
  //function definition
 }
 val after = rddList.map(someFunc(_))
 after.collect().map(println(_))
}

И если в картину входит несколько функций, то все эти функции должны быть доступны родительскому контексту.


7

Я не совсем уверен, что это относится к Scala, но в Java я решил проблему NotSerializableExceptionпутем рефакторинга своего кода, чтобы замыкание не обращалось к несериализуемому finalполю.


Я сталкиваюсь с той же проблемой в Java, я пытаюсь использовать класс FileWriter из пакета Java IO внутри метода fored RDD. Пожалуйста, дайте мне знать, как мы можем решить это.
Шанкар

1
Хорошо @Shankar, если FileWriterэто finalполе внешнего класса, вы не можете это сделать. Но FileWriterможет быть построен из Stringили или File, оба из которых являются Serializable. Поэтому рефакторинг вашего кода для создания локального FileWriterна основе имени файла из внешнего класса.
Требор Руд

0

К вашему сведению, в Spark 2.4 многие из вас, вероятно, столкнутся с этой проблемой. Сериализация Kryo стала лучше, но во многих случаях вы не можете использовать spark.kryo.unsafe = true или наивный сериализатор kryo.

Для быстрого исправления попробуйте изменить следующее в конфигурации Spark

spark.kryo.unsafe="false"

ИЛИ

spark.serializer="org.apache.spark.serializer.JavaSerializer"

Я изменяю пользовательские преобразования RDD, с которыми я сталкиваюсь или пишу лично, используя явные переменные широковещания и используя новый встроенный API twitter-chill, преобразовывая их rdd.map(row =>в rdd.mapPartitions(partition => {функции.

пример

Старый (не-великий) путь

val sampleMap = Map("index1" -> 1234, "index2" -> 2345)
val outputRDD = rdd.map(row => {
    val value = sampleMap.get(row._1)
    value
})

Альтернативный (лучший) способ

import com.twitter.chill.MeatLocker
val sampleMap = Map("index1" -> 1234, "index2" -> 2345)
val brdSerSampleMap = spark.sparkContext.broadcast(MeatLocker(sampleMap))

rdd.mapPartitions(partition => {
    val deSerSampleMap = brdSerSampleMap.value.get
    partition.map(row => {
        val value = sampleMap.get(row._1)
        value
    }).toIterator
})

Этот новый способ будет вызывать широковещательную переменную только один раз на раздел, что лучше. Вам все еще нужно будет использовать сериализацию Java, если вы не регистрируете классы.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.