У меня есть большой набор данных, хранящийся в таблице BigQuery, и я хотел бы загрузить его в RDD pypark для обработки данных ETL.
Я понял, что BigQuery поддерживает формат ввода-вывода Hadoop.
https://cloud.google.com/hadoop/writing-with-bigquery-connector
и pyspark должен иметь возможность использовать этот интерфейс для создания RDD с помощью метода «newAPIHadoopRDD».
http://spark.apache.org/docs/latest/api/python/pyspark.html
К сожалению, документации на обоих концах кажется скудным и выходит за рамки моих знаний о Hadoop / Spark / BigQuery. Кто-нибудь придумал, как это сделать?