Автоэнкодер - размер сети кодировщика или декодера?

Я читал об автоэнкодерах, и все примеры, которые я вижу, отражают часть кодировщика при создании декодера.

encoder = [128, 64, 32, 16, 3]
decoder = [3, 16, 32, 64, 128]

Это просто условность?

Есть ли какая-то конкретная причина, по которой декодер не должен иметь другую структуру скрытого слоя, чем кодер. Например...

encoder = [128, 64, 32, 16, 3]
decoder = [3, 8, 96, 128]

пока входы и выходы совпадают.

может я упускаю что-то очевидное.


person P-Rod    schedule 24.11.2016    source источник


Ответы (1)


Это просто условность:

Архитектура составного автокодировщика обычно симметрична относительно центрального скрытого уровня (уровня кодирования). (c) Практическое машинное обучение с помощью Scikit-Learn и TensorFlow

В вашем случае уровень кодирования - это уровень с размером = 3, поэтому составной автокодер имеет форму: 128, 64, 32, 16, 3, 16, 32, 64, 128.

person Andrey Sergeevich Naumov    schedule 20.11.2017