Я пытаюсь запустить потоковое задание на кластере серверов аналитики DSE 3.1. Я использую Cassandra CF для ввода. Но жалуется на входные и выходные параметры, а они были заданы (поставил только из-за жалоб):
dse hadoop jar $HADOOP_HOME/lib/hadoop-streaming-1.0.4.8.jar \
-D cassandra.input.keyspace="tmp_ks" \
-D cassandra.input.partitioner.class="MurMur3Partitioner" \
-D cassandra.input.columnfamily="tmp_cf" \
-D cassandra.consistencylevel.read="ONE" \
-D cassandra.input.widerows=true \
-D cassandra.input.thrift.address=10.0.0.1
-inputformat org.apache.cassandra.hadoop.ColumnFamilyInputFormat \
-outputformat org.apache.hadoop.mapred.lib.NullOutputFormat \
-input /tmp_ks/tmp_cf \
-output /dev/null \
-mapper mymapper.py \
-reducer myreducer.py
Получил «ОШИБКА потоковой передачи.StreamJob: отсутствуют необходимые параметры: ввод, вывод». Я пробовал разные входы и выходы, разные форматы вывода, но получил ту же ошибку.
Что я сделал не так?