Вопросы по теме 'spark-streaming-kafka'
Извлечь отметку времени из сообщений kafka в потоковой передаче искры?
Пытаюсь читать из источника кафки. Я хочу извлечь метку времени из полученного сообщения, чтобы выполнить структурированную потоковую передачу искры. kafka (версия 0.10.0.0) искровая потоковая передача (версия 2.0.1)
3295 просмотров
schedule
08.10.2022
проблема с потоковой передачей kafka при запуске потоковой передачи
Я пытаюсь прочитать данные от потребителя kafka с помощью spark2-shell.
Пожалуйста, найдите мой код ниже.
Я запускаю свою оболочку spark2 следующим образом:
spark2-shell --jars kafka-clients-0.10.1.2.6.2.0-205.jar,...
316 просмотров
schedule
06.05.2023
Как оптимизировать количество экземпляров исполнителя в приложении со структурированной потоковой передачей искры?
Время выполнения
Пряжа кластерный режим
заявка
Структурированная потоковая передача Spark
Чтение данных из темы Kafka
О теме Кафки
1 тема с 4 разделами - пока. (количество разделов можно изменить)
Добавлено максимум 2000...
993 просмотров
schedule
04.01.2023
Не удалось найти лидера по темам; java.lang.NullPointerException NullPointerException в org.apache.kafka.common.utils.Utils.formatAddress
Когда мы пытаемся передать данные из темы Kafka с включенным SSL, мы сталкиваемся с ошибкой ниже. Не могли бы вы помочь нам в этом вопросе?
19/11/07 13:26:54 INFO ConsumerFetcherManager: [ConsumerFetcherManager-1573151189884] Added fetcher for...
1063 просмотров
schedule
13.09.2022
Отказоустойчивые для Kafka Direct Stream не работают. Каталог контрольной точки не существует
Я пишу приложение для чтения данных из темы Kafka. И не могу добиться отказоустойчивости в случае сбоя драйвера. Приложение работает в кластере k8s с использованием spark submit. Когда я запускаю свое приложение в первый раз, все идет хорошо, но...
73 просмотров
schedule
26.03.2022
Spark Streaming: читать из HBase по полученным ключам потока?
Как лучше всего сравнить полученные данные в Spark Streaming с существующими данными в HBase?
Мы получаем данные от kafka как DStream, и перед записью их в HBase мы должны просканировать HBase на предмет данных на основе полученных ключей от...
56 просмотров
schedule
21.12.2021
Сверхурочная группировка данных датчиков с помощью Spark Structured Streaming
У нас есть датчики, которые запускаются и работают в случайном порядке несколько раз в день. Данные от датчиков отправляются в тему Kafka, используются Spark Structured streaming API и сохраняются в Delta Lake. Теперь нам нужно идентифицировать и...
61 просмотров
schedule
18.07.2023