Если я запускаю Kafka Connect Sink, я указываю входной файл .properties
, который указывает partitioner.class
, такой как FieldPartitioner
, который может секционироваться на основе поля записи, указанного в partition.field.name
.
Итак, что, если я хочу два уровня секционирования? Например, я хочу разделить дату и время на верхнем уровне, а затем разделить по полю записи? Или просто разбить на два поля? В Spark это на самом деле довольно распространено.
Основываясь на структуре формата файла конфигурации свойств, я предполагаю, что это не разрешено. Верна ли эта презумпция?