cntk линейная функция активации в слоях?

В CNTK есть relu, hardmax, softmax, sigmoid и все такое прочее, но я строю алгоритм на основе регрессии, и последний слой должен предсказывать 2 или более выходных данных регрессии. Итак, мне нужно n узлов, и активация будет простой линейной активацией. Я вижу, что могу установить активацию None, это действительно правильно?

with cntk.layers.default_options(activation=cntk.ops.relu, pad=True):
    z = cntk.models.Sequential([
        cntk.models.LayerStack(2, lambda : [
            cntk.layers.Convolution((3,3), 64),
            cntk.layers.Convolution((3,3), 64),
            cntk.layers.MaxPooling((3,3), (2,2))
        ]), 
        cntk.models.LayerStack(2, lambda i: [
            cntk.layers.Dense([256,128][i]), 
            cntk.layers.Dropout(0.5)
        ]), 
        cntk.layers.Dense(4, activation=None)
    ])(feature_var)

person David Crook    schedule 24.01.2017    source источник


Ответы (1)


Да. Это правильно. Вы можете посмотреть код библиотеки слоев здесь

person Sayan Pathak    schedule 24.01.2017