Публикации по теме 'loss-function'


Регуляризация
Регуляризация — это распространенный способ избежать переобучения модели путем добавления дополнительного члена в функцию потерь. мы часто рассчитываем потери, вычисляя ошибки (расстояния) между наземными истинами и выходными результатами (как функция, показанная ниже). Это может привести к сравнительно меньшим потерям при обучении, что мы считаем идеальной моделью. Однако при использовании модели на тестовом наборе данных мы получаем очень высокие потери при тестировании, поэтому мы..

Среднеквадратичная ошибка | Функции потерь
Среднеквадратичная ошибка является наиболее часто используемой в задачах регрессии. Само название предполагает, что функция возвращает значение, взяв среднее значение квадрата ошибок . M = среднее значение (T) | T = сумма (S) | S = квадрат (E) | E = Ошибка Здесь E - разница между фактическим и прогнозируемым выходом. Давайте разберемся в этом на примерах данных. Здесь у меня есть небольшой набор данных из Интернета. Мы используем единственную линейную регрессию для анализа,..

Функции потерь разгаданы
Часть 2: Функции потерь регрессии. Функции потерь регрессии используются для задач регрессии, целью которых является прогнозирование непрерывного значения. Среднеквадратическая ошибка (MSE): Он измеряет среднее значение квадрата разницы между фактическими и прогнозируемыми значениями. Другими словами, его можно определить как среднее значение квадрата остатков для всех точек данных в наборе данных. Остатки — это разница между фактическим и прогнозируемым прогнозом модели...

[TensorFlow 2.0] Магия (математика) потери
Пока я не закончу писать на эту тему, обращайтесь здесь . В этом посте я объясню все 15 различных функций потерь, которые предоставляются текущей версией TensorFlow 2.0. Функция потерь играет важную роль в алгоритмах машинного обучения в том смысле, что она служит целевой функцией. Основная цель конкретной модели машинного обучения может быть очень амбициозной, однако с математической точки зрения каждый алгоритм машинного обучения представляет собой просто задачу минимизации с..

Все о — Логистической регрессии
Логистическая регрессия становится методом классификации только тогда, когда результат или целевая переменная носят дихотомический характер и в картину вводится порог принятия решения. Дихотомический означает, что есть два возможных класса. Например, его можно использовать в сценарии, в котором вы прогнозируете модели голосования в США, чтобы предсказать, кто победит на следующих выборах. В таком случае вы бы использовали, если хотите предсказать, будет ли определенный человек голосовать..

Вопросы по теме 'loss-function'

Как сделать точечную категориальную потерю кроссэнтропии в Керасе?
У меня есть сеть, которая создает выходной тензор 4D, где значение в каждой позиции в пространственных измерениях (~ пиксель) должно интерпретироваться как вероятности класса для этой позиции. Другими словами, на выходе будет (num_batches, height,...
4996 просмотров

Реализация функции потерь (MSVE) в обучении с подкреплением
Я пытаюсь создать агент обучения временной разнице для Отелло. В то время как остальная часть моей реализации, похоже, работает по назначению, мне интересно узнать о функции потерь, используемой для обучения моей сети. В книге Саттона «Обучение с...
239 просмотров

Реализация потерь в Improved-GAN
Недавно я читаю статью Улучшенные методы обучения GAN , автор определяет потерю следующим образом: Затем я проверяю код статьи, соответствующий код определения потерь: output_before_softmax_lab = ll.get_output(disc_layers[-1], x_lab,...
504 просмотров
schedule 25.03.2022

Пользовательская функция потерь: выполнить model.predict для данных в y_pred
Я обучаю сеть шумоподавлению изображений, для этого я использую набор данных CIFAR10. Я пытаюсь создать настраиваемую функцию потерь, чтобы потеря была mse / classification_accuracy. Учитывая, что моя сеть получает на входе 32x32 (зашумленные)...
1221 просмотров
schedule 18.03.2022

Расчет потерь тензорного потока для нескольких положительных классификаций
Мой лейбл выглядит так label = [0, 1, 0, 0, 1, 0] Это означает, что классы 1, 4 присутствуют во входных данных соответствующего образца. Как мне создать ярлыки с горячим кодированием для таких ярлыков? Какая функция потерь больше...
199 просмотров

Есть ли разница между перекрестными потерями энтропии и логистическими потерями?
Я хочу использовать функцию стоимости логистических потерь для моей модели глубокого обучения, чтобы решить проблему двоичной классификации. Я использую керас для создания модели. Однако у keras нет заранее определенной логистической функции потерь...
1227 просмотров
schedule 06.04.2023

Проверка функции потерь **на выборку** при оценке, keras с тензорным потоком
В Keras/Tensorflow я пытаюсь реализовать механизм активного обучения, для которого мне нужно получить потери на выборку. В настоящее время я выполняю evaluate для каждого образца, и это занимает так много времени (один образец на 100 мс). Есть ли...
585 просмотров
schedule 01.06.2023

Какая функция потерь лучше, чем MSE при прогнозировании температуры?
У меня есть вектор признаков размером 1x4098. Каждый вектор признаков соответствует числу с плавающей запятой (температуре). В процессе обучения у меня есть 10 000 образцов. Следовательно, у меня есть размер тренировочного набора 10000x4098 и метка...
587 просмотров

keras custom loss pure python (без бэкэнда keras)
В настоящее время я программирую автоэнкодер для сжатия изображений. Я хотел бы использовать настраиваемую функцию потерь, написанную на чистом питоне, то есть без использования бэкэнд-функций keras. Возможно ли это вообще, и если да, то как? Если...
512 просмотров
schedule 01.02.2023

Кастомный лосс в Керасе с софтмаксом на горячую
У меня есть модель, которая выводит Softmax, и я хотел бы разработать пользовательскую функцию потерь. Желаемое поведение: 1) Softmax в однократно (обычно я делаю numpy.argmax(softmax_vector) и устанавливаю этот индекс равным 1 в нулевом векторе,...
1426 просмотров
schedule 27.09.2023

Как я могу реализовать предельный убыток?
Я пытаюсь реализовать предельные потери, представленные в статье [1]. Пока это то, что я сделал. def marginal_loss(model1, model2, y, margin, threshold): margin_ = 1/(tf.pow(margin,2)-margin) tmp = (1. - y) euc_dist =...
230 просмотров
schedule 18.02.2023

AttributeError: объект 'NoneType' не имеет атрибута '_inbound_nodes'
Я хочу реализовать определенную здесь функцию потерь . Я использую fcn-VGG16 для получения карты x и добавляю слой активации (x - вывод сети fcn vgg16). А затем просто несколько операций по извлечению функций. co_map = Activation('sigmoid')(x)...
591 просмотров

Постепенно обновляйте веса пользовательских потерь в Керасе во время обучения.
Я определил пользовательскую функцию потерь в Keras (бэкенд тензорного потока), которая состоит из MSE реконструкции и расхождения Лейблера Куллбака между изученным распределением вероятностей и стандартным нормальным распределением. (Это для...
833 просмотров

Индивидуальная потеря каждого (последнего слоя) вывода модели Keras
При обучении ИНС для регрессии Керас сохраняет потерю обучения / проверки в объекте истории . В случае нескольких выходов на последнем слое с стандартной функцией потерь , т.е. среднеквадратичная ошибка или MSE: что представляют собой...
436 просмотров

Ошибка пользовательской потери Keras: неизвестная функция потерь
Я попытался настроить функцию потерь в Керасе. Я пробовал два подхода: import keras.backend as K from keras.losses import mean_absolute_error def mae_in_minute(y_true, y_pred): temp = K.mean(K.abs(y_pred - y_true), axis=-1)/60 return...
984 просмотров
schedule 19.03.2023

Как определить пользовательскую функцию потерь keras с помощью простой математической операции
Я определяю пользовательскую функцию my_sigmoid следующим образом: import math def my_sigmoid(x): a = 1/ ( 1+math.exp( -(x-300)/30 ) ) return a А затем определите пользовательскую функцию потерь с именем my_cross_entropy :...
2818 просмотров

Потеря кросс-энтропии для одного горячего кодирования
CE-loss суммирует потери по всем выходным узлам. Sum_i [- target_i * log (output_i)]. Производная CE-потерь: - target_i / output_i. Поскольку для target = 0 потери и производная потерь равны нулю независимо от фактического выхода, кажется,...
941 просмотров

Почему cross_val_score в sklearn переворачивает значение метрики?
Я примеряю эту модель от sklearn . LogisticRegressionCV( solver="sag", scoring="neg_log_loss", verbose=0, n_jobs=-1, cv=10 ) Подгонка приводит к model.score (на тренировочном наборе) 0,67 и изменению. Поскольку нет способа...
738 просмотров

Работа с множественными потерями и их весами в керасах
Обучение модели GAN с использованием train_on_batch с несколькими потерями, могу ли я использовать случайный loss_weights при компиляции модели или есть какая-то конкретная стратегия для использования этих весов потерь, как упоминалось Здесь . В...
1125 просмотров

Как реализовать отрицательную биномиальную вероятностную функцию капюшона в тензорном потоке и использовать ее в качестве функции потерь для обучения RNN?
Я пытаюсь предсказать среднее значение и дисперсию случайной величины на каждом этапе рекуррентной нейронной сети. Мне нужно обучить эту модель, используя отрицательное биномиальное логарифмическое правдоподобие в качестве функции потерь, где модель...
279 просмотров
schedule 02.03.2023