У меня есть задание Elastic Map Reduce, которое записывает некоторые файлы в S3, и я хочу объединить все файлы для создания уникального текстового файла.
В настоящее время я вручную копирую папку со всеми файлами в нашу HDFS (hadoop fs copyFromLocal), затем запускаю hadoop fs -getmerge и hadoop fs copyToLocal для получения файла.
можно ли использовать hadoop fs непосредственно на S3?