Публикации по теме 'cross-entropy'
Многослойная модель в PyTorch
В нашей прошлой статье мы говорили об основах PyTorch и Deep Learning, теперь давайте немного углубимся.
Краткое содержание:
1- Вспоминая основы глубокого обучения 2- Создание базовой модели с использованием собственных классов PyTorch 3- Создание многослойной модели 4- Использование графического процессора 5- Выводы 6 - Использованная литература
1. Запоминание основ глубокого обучения
Модель
У модели есть параметры, такими параметрами являются веса и предвзятости . Параметры..
Вопросы по теме 'cross-entropy'
Tensorflow: масштабированные логиты с кросс-энтропией
В Tensorflow у меня есть сеть классификаторов и несбалансированные учебные классы. По разным причинам я не могу использовать повторную выборку для компенсации несбалансированных данных. Поэтому я вынужден компенсировать дисбаланс другими способами,...
1050 просмотров
schedule
17.08.2022
Как сделать точечную категориальную потерю кроссэнтропии в Керасе?
У меня есть сеть, которая создает выходной тензор 4D, где значение в каждой позиции в пространственных измерениях (~ пиксель) должно интерпретироваться как вероятности класса для этой позиции. Другими словами, на выходе будет (num_batches, height,...
4996 просмотров
schedule
09.03.2022
Как использовать взвешенную категориальную кроссентропию на FCN (U-Net) в Керасе?
Я построил модель Keras для сегментации изображений (U-Net). Однако в моих выборках некоторые неправильные классификации (области) не так важны, в то время как другие имеют решающее значение, поэтому я хочу присвоить им более высокий вес в функции...
1241 просмотров
schedule
26.01.2023
В чем разница между сигмоидом, за которым следует перекрестная энтропия, и sigmoid_cross_entropy_with_logits в TensorFlow?
При попытке получить кросс-энтропию с помощью сигмовидной функции активации существует разница между
loss1 = -tf.reduce_sum(p*tf.log(q), 1)
loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1)
Но...
39034 просмотров
schedule
05.05.2023
Как выбрать потерю кросс-энтропии в TensorFlow?
Проблемы классификации, такие как логистическая регрессия или полиномиальная логистическая регрессия, оптимизируют кросс-энтропийные потери. Обычно слой кросс-энтропии следует за слоем softmax , который производит распределение вероятностей.
В...
53562 просмотров
schedule
10.01.2023
Сравнение потерь MSE и кросс-энтропии с точки зрения сходимости
Для очень простой задачи классификации, когда у меня есть целевой вектор [0,0,0, .... 0] и вектор прогнозирования [0,0.1,0.2, .... 1], кросс-энтропийные потери сходятся лучше / быстрее или будет потеря MSE? Когда я рисую их, мне кажется, что потеря...
5571 просмотров
schedule
11.07.2022
Потеря кросс-энтропии для одного горячего кодирования
CE-loss суммирует потери по всем выходным узлам.
Sum_i [- target_i * log (output_i)].
Производная CE-потерь: - target_i / output_i.
Поскольку для target = 0 потери и производная потерь равны нулю независимо от фактического выхода, кажется,...
941 просмотров
schedule
18.02.2023
Как рассчитать бинарную кросс-энтропию между прогнозируемым и тестовым набором в python?
Я использую тестовый список и список прогнозов, который содержит 4000 элементов, как в этом примере.
test_list=[1,0,0,1,0,.....]
prediction_list=[1,1,0,1,0......]
Как я могу найти двоичную перекрестную энтропию между этими двумя...
4904 просмотров
schedule
03.12.2023
Разница между logloss в sklearn и BCEloss в Pytorch?
Если посмотреть на документацию по logloss в Sklearn и BCEloss в Pytorch, они должны быть одинаковыми, т.е. просто обычная потеря журнала с примененными весами. Однако они ведут себя по-разному - как с отягощениями, так и без них. Кто-нибудь может...
1306 просмотров
schedule
17.02.2023
Вывод softmax делает вывод двоичной кросс-энтропии NAN, что мне делать?
Я реализовал нейронную сеть в Tensorflow, где последний слой является сверточным слоем, я передаю вывод этого сверточного слоя в функцию активации softmax, а затем передаю его в функцию потери кросс-энтропии, которая определяется следующим образом...
669 просмотров
schedule
16.11.2022
Как рассчитать кросс-энтропию на основе вероятностей в PyTorch?
По умолчанию PyTorch cross_entropy принимает логиты (необработанные выходные данные модели) в качестве входных данных. Я знаю, что CrossEntropyLoss объединяет LogSoftmax (log (softmax (x))) и NLLLoss (потеря вероятности отрицательного...
1333 просмотров
schedule
02.02.2023
потеря перекрестной энтропии не эквивалентна потере двоичного журнала в lgbm
проблема, которую пытается решить: сжатие обучающих экземпляров путем агрегирования метки (среднее из взвешенных средних) и суммирования веса на основе одной и той же функции, при этом потери двоичного журнала остаются такими же, как потеря...
371 просмотров
schedule
10.07.2023