Всякий раз, когда я видел нейронные сети, реализованные в Torch, nn, они только соединяли модули. Например, есть модуль секвенсора с LookupTable, Splittable, FasLSTM, Linear, LogSoftMax. Почему люди не используют промежуточные функции активации, такие как tanh/Sigmoid/ReLu?
Факел - почему люди не используют активацию явно?
Ответы (1)
У вас есть пример? Обычно между слоями используются ReLu или TanH.
Вы бы не использовали их между функциями манипулирования таблицами и т. д., поскольку они не являются «настоящими» слоями нейронной сети с параметрами.
person
Sander
schedule
13.12.2016