Напишите конфигурацию Flume для загрузки постоянно растущего файла в HDFS.

Я новичок в Flume, и у меня есть некоторые проблемы с его конфигурацией.

Я использую Hortonworks Sandbox HDP 2.6.5 на Oracle VirtualBox (если это важно).

У меня есть текстовый файл input_data.txt на моей виртуальной машине:

введите здесь описание изображения

Содержимое input_data.txt выглядит так:

введите здесь описание изображения

Я использую следующую команду для создания и постепенного увеличения ввода:

cat input_data.txt | while read line ; do echo "$line" ; sleep 0.2 ; done > output.txt

введите здесь описание изображения

Чего я пытаюсь достичь:

1) Напишите конфигурацию Flume для загрузки постоянно растущего файла output.txt в HDFS.

2) Если это возможно - файл назначения в HDFS должен обновляться каждый раз, когда изменяется исходный файл (/usr/AUX/output.txt).

Например: открываю /usr/AUX/output.txt, пишу в конце несколько строк и сохраняю:

Nov 16 10:21:22 ephubudw3000 avahi-daemon[990]: Invalid response packet from host 10.0.9.31.
Nov 16 10:21:22 ephubudw3000 avahi-daemon[990]: Invalid response packet from host 10.0.12.143.
...
lolkek
hehehehe
azazaza322

а затем эти новые данные должны появиться в целевом файле HDFS в hdfs://sandbox.hortonworks.com:8020/user/tutorial/

Это то, что я уже пробовал:

Я создаю эту конфигурацию (файл flume.conf):

a1.sources = src1
a1.sinks =  sink1
a1.channels = memoryChannel

a1.sources.src1.type = exec
a1.sources.src1.shell = /bin/bash -c
a1.sources.src1.command = cat /usr/AUX/output.txt
a1.sources.src1.batchSize = 1
a1.sources.src1.channels = memoryChannel 

a1.channels.memoryChannel.type = memory
a1.channels.memoryChannel.capacity = 1000
a1.channels.memoryChannel.transactionCapacity = 100

a1.sinks.sink1.type = hdfs
a1.sinks.sink1.channels = memoryChannel
a1.sinks.sink1.hdfs.filetype = DataStream
a1.sinks.sink1.hdfs.writeFormat = Text
a1.sinks.sink1.hdfs.path = hdfs://sandbox.hortonworks.com:8020/user/tutorial/

Затем я запускаю агент Flume (a1) с помощью этой команды:

/usr/hdp/current/flume-server/bin/flume-ng agent -c /etc/flume/conf -f /etc/flume/conf/flume.conf -n a1

[root@sandbox-hdp AUX]# /usr/hdp/current/flume-server/bin/flume-ng agent -c /etc/flume/conf -f /etc/flume/conf/flume.conf -n a1
Warning: JAVA_HOME is not set!
Info: Including Hadoop libraries found via (/bin/hadoop) for HDFS access
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar from classpath
Info: Including HBASE libraries found via (/bin/hbase) for HBASE access
Info: Excluding /usr/hdp/2.6.5.0-292/hbase/lib/slf4j-api-1.7.7.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Including Hive libraries found via () for Hive access
+ exec /usr/bin/java -Xmx20m -cp '/etc/flume/conf:/usr/hdp/2.6.5.0-292/flume/lib/*:/usr/hdp/2.6.5.0-292/hadoop/conf:/usr/hdp/2.6.5.0-292/hadoop/lib/activation-1.1.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-i18n-2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-kerberos-codec-2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/api-asn1-api-1.0.0-M20.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/api-util-1.0.0-M20.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/asm-3.2.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/avro-1.7.4.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-core-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-kms-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-s3-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/azure-keyvault-core-0.8.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/azure-storage-5.4.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-beanutils-1.7.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-beanutils-core-1.8.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-cli-1.2.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-codec-1.4.jar:
...........................
2/hadoop/lib/native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native::/usr/hdp/2.6.5.0-292/hadoop/lib/native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native org.apache.flume.node.Application -f /etc/flume/conf/flume.conf -n a1
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.5.0-292/flume/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.5.0-292/flume/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

После этого я добавляю несколько строк в конец /usr/AUX/output.txt...

введите здесь описание изображения

и ничего не происходит. Нет файлов с обновлениями в HDFS

введите здесь описание изображения

Буду признателен за помощь. Можно ли достичь упомянутой мной цели (автоматическое обновление файла в HDFS после обновления файла в ВМ), и что не так с моей конфигурацией Flume?

Благодарю вас!


person jd2050    schedule 20.08.2018    source источник
comment
хвост файла — это антишаблон в Flume. Прочитайте большую красную коробку. flume.apache.org/FlumeUserGuide.html#exec-source Вы должны сделать новые файлы для новых данных. Или используйте тему Kafka, если вы постоянно вставляете случайные строки текста.   -  person OneCricketeer    schedule 21.08.2018


Ответы (2)


Если это возможно - файл назначения в HDFS должен обновляться каждый раз, когда изменяется исходный файл (/usr/AUX/output.txt).

Ну, дело в том, что файлы HDFS не предназначены для «обновления», поскольку HDFS оптимизирована для файловой системы для добавления. Поэтому рекомендуется создать новый файл. И почти все механизмы обработки Hadoop могут читать целые каталоги, так что это не должно быть проблемой.

Что касается Flume, вы должны использовать источник Spooling Directory, а не источник Exec с cat или tail -f. В противном случае агент Flume не предназначен для чтения «обновлений файлов», а только для «недавно просмотренных» файлов. Который затем помечается как завершенный и перемещается/игнорируется позже.

Следовательно, вам нужно что-то вроде этого, которое генерирует файл с отметкой времени при каждом запуске вашего процесса. Этого достаточно, чтобы Flume сказал, что файл новый и должен быть прочитан/обработан.

some_process >> /flume_watcher/output_$(date +%s%3N).txt

См. Каталог буферизации и почему Exec Source не рекомендуется (красный прямоугольник).


Дополнительное уведомление: HDP объявил устаревшим Flume и вместо этого рекомендует Hortonworks DataFlow (Apache Nifi). т.е. в песочнице HDP 3.0 (если она есть) у вас не будет Flume. Поэтому не тратьте на это слишком много времени.

person OneCricketeer    schedule 20.08.2018

Попробуйте использовать исходный файл конфигурации со следующей модификацией в файле conf:

a1.sinks.sink1.channel = memoryChannel

Обратите внимание, что у вас есть лишняя буква 's', потому что согласно документации Flume правильное свойство - только канал. Я думаю, что должен работать exec Source с HDFS Sink.

Вы также можете исправить предупреждающее сообщение: JAVA_HOME не установлен.

person chac    schedule 22.08.2018