Я пытаюсь получить значения из таблицы Cassandra 2.0.17 через spark-1.6.0 и scala-2.11.7, выполнив следующие действия.
- Запущена cassandra -- запуск службы cassandra
- Запустил искру -- sbin/start-all.sh
- заявленная искра scala -- bin/spark-shell --jars spark-cassandra-connector_2.10-1.5.0-M1.jar
выполнил эти команды в scala
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext._
sc.stop
val conf = new SparkConf(true).set("spark.cassandra.connection.host","127.0.0.1")
val sc=new SparkContext("local[2]","test",conf)
import com.datastax.spark.connector._
до сих пор все работает нормально, но когда я выполняю -
val rdd=sc.cassandraTable("tutorialspoint","emp")
Это дает мне следующую ошибку
error: bad symbolic reference. A signature in CassandraTableScanRDD.class refers to term driver
in package com.datastax which is not available.
It may be completely missing from the current classpath, or the version on
the classpath might be incompatible with the version used when compiling CassandraTableScanRDD.class.
error: bad symbolic reference. A signature in CassandraTableScanRDD.class refers to term core
in value com.datastax.driver which is not available.
It may be completely missing from the current classpath, or the version on
the classpath might be incompatible with the version used when compiling CassandraTableScanRDD.class.
error: bad symbolic reference. A signature in CassandraTableScanRDD.class refers to term core
in value com.datastax.driver which is not available.
It may be completely missing from the current classpath, or the version on
the classpath might be incompatible with the version used when compiling CassandraTableScanRDD.class.
Добавили банки из cassandra lib, чтобы зажечь и обновить его. я использую Java версии 1.8.0_72
М я что-то пропустил?