Публикации по теме 'cross-entropy'


Многослойная модель в PyTorch
В нашей прошлой статье мы говорили об основах PyTorch и Deep Learning, теперь давайте немного углубимся. Краткое содержание: 1- Вспоминая основы глубокого обучения 2- Создание базовой модели с использованием собственных классов PyTorch 3- Создание многослойной модели 4- Использование графического процессора 5- Выводы 6 - Использованная литература 1. Запоминание основ глубокого обучения Модель У модели есть параметры, такими параметрами являются веса и предвзятости . Параметры..

Вопросы по теме 'cross-entropy'

Tensorflow: масштабированные логиты с кросс-энтропией
В Tensorflow у меня есть сеть классификаторов и несбалансированные учебные классы. По разным причинам я не могу использовать повторную выборку для компенсации несбалансированных данных. Поэтому я вынужден компенсировать дисбаланс другими способами,...
1050 просмотров

Как сделать точечную категориальную потерю кроссэнтропии в Керасе?
У меня есть сеть, которая создает выходной тензор 4D, где значение в каждой позиции в пространственных измерениях (~ пиксель) должно интерпретироваться как вероятности класса для этой позиции. Другими словами, на выходе будет (num_batches, height,...
4996 просмотров

Как использовать взвешенную категориальную кроссентропию на FCN (U-Net) в Керасе?
Я построил модель Keras для сегментации изображений (U-Net). Однако в моих выборках некоторые неправильные классификации (области) не так важны, в то время как другие имеют решающее значение, поэтому я хочу присвоить им более высокий вес в функции...
1241 просмотров
schedule 26.01.2023

В чем разница между сигмоидом, за которым следует перекрестная энтропия, и sigmoid_cross_entropy_with_logits в TensorFlow?
При попытке получить кросс-энтропию с помощью сигмовидной функции активации существует разница между loss1 = -tf.reduce_sum(p*tf.log(q), 1) loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1) Но...
39034 просмотров

Как выбрать потерю кросс-энтропии в TensorFlow?
Проблемы классификации, такие как логистическая регрессия или полиномиальная логистическая регрессия, оптимизируют кросс-энтропийные потери. Обычно слой кросс-энтропии следует за слоем softmax , который производит распределение вероятностей. В...
53562 просмотров

Сравнение потерь MSE и кросс-энтропии с точки зрения сходимости
Для очень простой задачи классификации, когда у меня есть целевой вектор [0,0,0, .... 0] и вектор прогнозирования [0,0.1,0.2, .... 1], кросс-энтропийные потери сходятся лучше / быстрее или будет потеря MSE? Когда я рисую их, мне кажется, что потеря...
5571 просмотров

Потеря кросс-энтропии для одного горячего кодирования
CE-loss суммирует потери по всем выходным узлам. Sum_i [- target_i * log (output_i)]. Производная CE-потерь: - target_i / output_i. Поскольку для target = 0 потери и производная потерь равны нулю независимо от фактического выхода, кажется,...
941 просмотров

Как рассчитать бинарную кросс-энтропию между прогнозируемым и тестовым набором в python?
Я использую тестовый список и список прогнозов, который содержит 4000 элементов, как в этом примере. test_list=[1,0,0,1,0,.....] prediction_list=[1,1,0,1,0......] Как я могу найти двоичную перекрестную энтропию между этими двумя...
4904 просмотров
schedule 03.12.2023

Разница между logloss в sklearn и BCEloss в Pytorch?
Если посмотреть на документацию по logloss в Sklearn и BCEloss в Pytorch, они должны быть одинаковыми, т.е. просто обычная потеря журнала с примененными весами. Однако они ведут себя по-разному - как с отягощениями, так и без них. Кто-нибудь может...
1306 просмотров

Вывод softmax делает вывод двоичной кросс-энтропии NAN, что мне делать?
Я реализовал нейронную сеть в Tensorflow, где последний слой является сверточным слоем, я передаю вывод этого сверточного слоя в функцию активации softmax, а затем передаю его в функцию потери кросс-энтропии, которая определяется следующим образом...
669 просмотров

Как рассчитать кросс-энтропию на основе вероятностей в PyTorch?
По умолчанию PyTorch cross_entropy принимает логиты (необработанные выходные данные модели) в качестве входных данных. Я знаю, что CrossEntropyLoss объединяет LogSoftmax (log (softmax (x))) и NLLLoss (потеря вероятности отрицательного...
1333 просмотров

потеря перекрестной энтропии не эквивалентна потере двоичного журнала в lgbm
проблема, которую пытается решить: сжатие обучающих экземпляров путем агрегирования метки (среднее из взвешенных средних) и суммирования веса на основе одной и той же функции, при этом потери двоичного журнала остаются такими же, как потеря...
371 просмотров
schedule 10.07.2023