Я понимаю, что люди обычно используют приведенные ниже потери и ошибки для обучения
ce = cross_entropy_with_softmax(z, label_var)
pe = classification_error(z, label_var)
trainer = Trainer(z, (ce, pe), ...)
Можем ли мы переопределить или определить собственные методы потерь и ошибок? Что нам действительно нужно, так это добавлять веса при расчете потерь и ошибок. Например, у нас есть 4 класса, важно (больше веса), чтобы не ошибиться в классификации первого класса как другого класса и наоборот, но не так важно (меньше веса), если он ошибочно классифицируется среди последних 3 классов. Как лучше всего справиться с этим в cntk?