Вопросы по теме 'sequence-to-sequence'

Модель seq2seq на основе Google TensorFlow дает сбой во время обучения
Я пытался использовать модель Google RNN на основе seq2seq. Я тренировал модель для суммирования текста и ввожу текстовые данные размером примерно 1 ГБ. Модель быстро заполняет всю мою оперативную память (8 ГБ), начинает заполнять даже память...
184 просмотров
schedule 03.07.2022

Использование CNTK для генерации последовательности путем выборки на каждом этапе генерации
В модели seq2seq с кодером и декодером на каждом этапе генерации уровень softmax выводит распределение по всему словарю. В CNTK можно легко реализовать жадный декодер с помощью функции C.hardmax. Это выглядит так. def...
208 просмотров

Модели Seq2Seq для чат-ботов
Я создаю чат-бот с моделью последовательного кодирования и декодера, как в NMT . Из приведенных данных я могу понять, что при обучении они подают выходные данные декодера на входы декодера вместе с состояниями ячеек энкодера. Я не могу понять, что,...
552 просмотров

Многомерное предсказание двоичной последовательности с помощью LSTM
Я работаю над проблемой прогнозирования последовательности, и у меня нет большого опыта в этой области, поэтому некоторые из приведенных ниже вопросов могут быть наивными. К сведению: я создал дополнительный вопрос с упором на CRF здесь У...
1194 просмотров

Как преобразовать выходные данные декодера LSTM обратно в слова?
У меня есть сеть кодировщика-декодера, имитирующая сеть, созданную в этом руководстве: nofollow noreferrer">https://towardsdatascience.com/how-to-implement-seq2seq-lstm-model-in-keras-shortcutnlp-6f355f3e5639 Однако на выходе декодера LSTM будут...
43 просмотров