Мой набор данных состоит из аудиосегментов продолжительностью от 5 до 180 секунд. Количество примеров достаточно мало, чтобы их можно было кэшировать в памяти, а не читать с диска снова и снова. Хранение данных в постоянном тензоре/переменной и использование tf.train.slice_input_producer
позволит мне кэшировать набор данных в памяти, но требует хранения всех данных в одной матрице. Поскольку некоторые примеры намного длиннее других, эта матрица может быть излишне большой и, возможно, слишком большой для оперативной памяти.
Я могу просто иметь список массивов numpy для своих данных и выполнять все входные операции чтения-рандомизации-предварительной обработки без использования tensforflow с помощью feed_dict
, но мне интересно, есть ли способ сделать это, не отказываясь полностью от tensorflow для части входного чтения-рандомизации-предварительной обработки.
Спасибо!
queue.dequeue_many(length_of_audio)
- person Yaroslav Bulatov   schedule 10.10.2016queue.dequeue_many
, чтобы загрузить их в тензоры различной длины. - person Yaroslav Bulatov   schedule 10.10.2016