Вопросы по теме 'attention-model'

Механизм внимания для классификации последовательностей (seq2seq tensorflow r1.1)
Я пытаюсь построить двунаправленную RNN с механизмом внимания для классификации последовательностей. У меня возникли некоторые проблемы с пониманием вспомогательной функции. Я видел, что тот, который используется для обучения, нуждается в входных...
3748 просмотров

каков конвейер для обучения tensorflow распознаванию внимания к индивидуальному набору данных?
Я прочитал несколько вопросов о stackoverflow о внимании к OCR, и большинство из них касается деталей реализации определенного шага. Что я хотел знать, так это конвейер для тонкой настройки этой модели на нашем собственном наборе данных. Насколько...
731 просмотров
schedule 13.01.2023

Keras: как отображать веса внимания в модели LSTM
Я создал модель классификации текста, используя LSTM со слоем внимания. Я сделал свою модель хорошо, она работает хорошо, но я не могу отобразить веса внимания и важность/внимание каждого слова в обзоре (вводимом тексте). Код, используемый для этой...
4049 просмотров

HAN ValueError: Неизвестный слой: AttentionWithContext при получении глубокой копии модели
Я использую модель HAN в своих данных. И хотите сохранить все модели в каждой итерации. Для этого я составляю список моделей на каждой итерации. И получаю следующую ошибку при глубоком копировании модели. ValueError: Unknown layer:...
175 просмотров

Есть ли слой внимания для Кераса?
Я собираюсь реализовать механизм внимания для нейронной сети LSTM. Я использовал этот слой ( https://pypi.org/project/keras-self-attention/ ), но это увеличивает ошибку! Возможно, это из-за моего набора данных, но аналогичные исследования имеют...
993 просмотров

Внимание Богданауса в нейронном машинном переводе с вниманием
Я пытаюсь понять внимание Бахданауса, используя следующий учебник: https://www.tensorflow.org/tutorials/text/nmt_with_attention Расчет следующий: self.attention_units = attention_units self.W1 = Dense(self.attention_units) self.W2 =...
92 просмотров

Как добавить уровень внимания к автоэнкодеру LSTM, построенному как последовательная модель keras в python?
Итак, я хочу построить модель автоэнкодера для данных последовательности. Я начал строить последовательную модель keras в python, и теперь я хочу добавить слой внимания посередине, но не знаю, как к этому подойти. Моя модель на данный момент:...
553 просмотров

Есть ли какие-либо изменения в том, как TensorFlow обрабатывает свой внутренний список как тензоры в своей новой версии?
Я пытаюсь использовать модель внимания для перевода дат из удобочитаемого формата в машиночитаемый формат. В обучающей части нет проблем, но когда я пытаюсь использовать свои собственные примеры, я получаю ошибки, которые, я думаю, связаны с версией...
22 просмотров
schedule 18.02.2023