У нас есть несколько работающих приложений Spark, разработанных с использованием Spark 2.4.1 (Scala 2.11.12). Для нескольких наших новых заданий Spark мы рассматриваем возможность использования функций DeltaLake. Для этого нам нужно использовать Spark 2.4.2 (или выше).
Мои вопросы:
- Если мы обновим наш кластер Spark до версии 3.0.0, смогут ли наши приложения версии 2.4.1 по-прежнему работать в новом кластере (без перекомпиляции)?
- Если нам нужно перекомпилировать наши предыдущие задания Spark с помощью Spark 3, будут ли они совместимы с исходным кодом или им нужна миграция?