Публикации по теме 'recurrent-neural-network'


Рекуррентная нейронная сеть для принятия прогнозов
Вступление Сегодня я собираюсь рассказать, как использовать рекуррентную нейронную сеть (RNN), чтобы предсказать, будет ли статья принята на конференции. Как мы знаем, RNN хорошо справляется с последовательными данными, вводя последовательные данные шаг за шагом, модель RNN может улавливать временную информацию, полученную несколько раз назад. В этой статье я собираюсь использовать pytorch для реализации архитектуры RNN и LSTM для принятия прогнозов. Сбор данных Прежде всего, нам..

Стратегии выборки для рекуррентных нейронных сетей
Рекуррентные нейронные сети в настоящее время являются одной из самых мощных моделей машинного обучения. Они лежат в основе многих достижений в области распознавания речи, машинного перевода и обработки естественного языка. Отличительной чертой рекуррентных нейронных сетей является то, что они могут не только обнаруживать объекты, но и использовать их для генерировать последовательности. (Например, посмотрите мой API прогнозирования кода Python или этот хороший пост в блоге Андрея..

Глава 10: DeepNLP - Рекуррентные нейронные сети с математикой.
мы довольно много говорили о обычных нейронных сетях. Давайте поговорим о модных нейронных сетях, называемых рекуррентными нейронными сетями . Прежде чем мы поговорим о том, что именно такое RNN, позвольте мне сначала сказать: Почему RNN ??? (Я большой поклонник Simon sinek , поэтому начну с того, почему.) Нейронная сеть обычно принимает независимую переменную X (или набор независимых переменных) и зависимую переменную y , а затем изучает сопоставление между X и y ( мы..

Использование API DynamicRNN в TensorFlow (5/7)
Уважаемый читатель! Эта статья была переиздана на Эдукаора и также была с открытым исходным кодом . К сожалению, TensorFlow 2.0 изменил API, поэтому он не работает для более поздних версий. Мы приветствуем любую помощь в обновлении учебников. Я также рекомендую вам изучить PyTorch. В предыдущем руководстве мы построили многослойную LSTM RNN. В этом посте мы ускорим его, не разбивая входные данные и метки в список, как это сделано в строках 41–42 нашего кода. Вы можете удалить..