Когда я записываю данные в SQL DW в Azure из Databricks, я использую следующий код:
example1.write.format("com.databricks.spark.sqldw").option("url", sqlDwUrlSmall).option("dbtable", "SampleTable12").option("forward_spark_azure_storage_credentials","True") .option("tempdir", tempDir).mode("overwrite").save()
Это не будет работать с Notebook в Synapse Notebook. Я получаю сообщение об ошибке:
Py4JJavaError: An error occurred while calling o174.save.
: java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.sqldw. Please find packages at http://spark.apache.org/third-party-projects.html
at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:656) Caused by: java.lang.ClassNotFoundException: com.databricks.spark.sqldw.DefaultSource
По сути, мне нужно знать эквивалент com.databricks.spark.sqldw
для Apache Spark в Azure Synapse.
Спасибо