Публикации по теме 'relu'


Многослойная модель в PyTorch
В нашей прошлой статье мы говорили об основах PyTorch и Deep Learning, теперь давайте немного углубимся. Краткое содержание: 1- Вспоминая основы глубокого обучения 2- Создание базовой модели с использованием собственных классов PyTorch 3- Создание многослойной модели 4- Использование графического процессора 5- Выводы 6 - Использованная литература 1. Запоминание основ глубокого обучения Модель У модели есть параметры, такими параметрами являются веса и предвзятости . Параметры..

Вопросы по теме 'relu'

Как реализовать дырявый relu с помощью функций Numpy
Я пытаюсь реализовать дырявый Relu, проблема в том, что мне нужно сделать 4 цикла for для 4-мерного массива ввода. Есть ли способ, которым я могу сделать дырявый relu только с помощью функций Numpy?
7217 просмотров
schedule 24.08.2022

Зачем использовать ReLu на последнем уровне нейронной сети?
Рекомендуется использовать ReLu на последнем слое нейронной сети, когда мы изучаем регрессии. Для меня это имеет смысл, так как вывод ReLu не ограничен между 0 и 1. Однако как он ведет себя, когда x ‹ 0 (т. е. когда выход ReLu равен нулю). Может...
442 просмотров
schedule 27.07.2023

Все ли ReLu меняет все отрицательные значения на 0?
Я только что провел час, читая статью о выпрямленных линейных единицах (ReLu). Мне очень трудно распаковать вовлеченную математику. По сути, это просто говорит о том, что после свертки и объединения вы меняете все отрицательные значения на 0?...
201 просмотров

Мои потери в сверточной сети не меняются и остаются неизменными на протяжении всего обучения. как это исправить?
Я пытаюсь обучить сверточную сеть, но потери меняются независимо от того, что я делаю. Я хочу знать, в чем я ошибаюсь, и был бы признателен за любые дружеские советы, поскольку я впервые имею дело с такими большими данными. Я пробовал много...
374 просмотров

Как определяется диапазон последнего слоя нейронной сети при использовании ReLU
Я относительно новичок в нейронных сетях. Atm Я пытаюсь запрограммировать нейронную сеть для простого распознавания изображений чисел от 0 до 10. Функция активации, к которой я стремлюсь, - это ReLU (выпрямленная линейная единица). С сигмовидной...
83 просмотров