Публикации по теме 'loss-function'
Регуляризация
Регуляризация — это распространенный способ избежать переобучения модели путем добавления дополнительного члена в функцию потерь.
мы часто рассчитываем потери, вычисляя ошибки (расстояния) между наземными истинами и выходными результатами (как функция, показанная ниже). Это может привести к сравнительно меньшим потерям при обучении, что мы считаем идеальной моделью. Однако при использовании модели на тестовом наборе данных мы получаем очень высокие потери при тестировании, поэтому мы..
Среднеквадратичная ошибка | Функции потерь
Среднеквадратичная ошибка является наиболее часто используемой в задачах регрессии. Само название предполагает, что функция возвращает значение, взяв среднее значение квадрата ошибок .
M = среднее значение (T) | T = сумма (S) | S = квадрат (E) | E = Ошибка
Здесь E - разница между фактическим и прогнозируемым выходом. Давайте разберемся в этом на примерах данных.
Здесь у меня есть небольшой набор данных из Интернета. Мы используем единственную линейную регрессию для анализа,..
Функции потерь разгаданы
Часть 2: Функции потерь регрессии.
Функции потерь регрессии используются для задач регрессии, целью которых является прогнозирование непрерывного значения.
Среднеквадратическая ошибка (MSE):
Он измеряет среднее значение квадрата разницы между фактическими и прогнозируемыми значениями.
Другими словами, его можно определить как среднее значение квадрата остатков для всех точек данных в наборе данных. Остатки — это разница между фактическим и прогнозируемым прогнозом модели...
[TensorFlow 2.0] Магия (математика) потери
Пока я не закончу писать на эту тему, обращайтесь здесь .
В этом посте я объясню все 15 различных функций потерь, которые предоставляются текущей версией TensorFlow 2.0. Функция потерь играет важную роль в алгоритмах машинного обучения в том смысле, что она служит целевой функцией. Основная цель конкретной модели машинного обучения может быть очень амбициозной, однако с математической точки зрения каждый алгоритм машинного обучения представляет собой просто задачу минимизации с..
Все о — Логистической регрессии
Логистическая регрессия становится методом классификации только тогда, когда результат или целевая переменная носят дихотомический характер и в картину вводится порог принятия решения. Дихотомический означает, что есть два возможных класса. Например, его можно использовать в сценарии, в котором вы прогнозируете модели голосования в США, чтобы предсказать, кто победит на следующих выборах. В таком случае вы бы использовали, если хотите предсказать, будет ли определенный человек голосовать..
Вопросы по теме 'loss-function'
Как сделать точечную категориальную потерю кроссэнтропии в Керасе?
У меня есть сеть, которая создает выходной тензор 4D, где значение в каждой позиции в пространственных измерениях (~ пиксель) должно интерпретироваться как вероятности класса для этой позиции. Другими словами, на выходе будет (num_batches, height,...
4996 просмотров
schedule
09.03.2022
Реализация функции потерь (MSVE) в обучении с подкреплением
Я пытаюсь создать агент обучения временной разнице для Отелло. В то время как остальная часть моей реализации, похоже, работает по назначению, мне интересно узнать о функции потерь, используемой для обучения моей сети. В книге Саттона «Обучение с...
239 просмотров
schedule
03.10.2022
Реализация потерь в Improved-GAN
Недавно я читаю статью Улучшенные методы обучения GAN , автор определяет потерю следующим образом: Затем я проверяю код статьи, соответствующий код определения потерь:
output_before_softmax_lab = ll.get_output(disc_layers[-1], x_lab,...
504 просмотров
schedule
25.03.2022
Пользовательская функция потерь: выполнить model.predict для данных в y_pred
Я обучаю сеть шумоподавлению изображений, для этого я использую набор данных CIFAR10. Я пытаюсь создать настраиваемую функцию потерь, чтобы потеря была mse / classification_accuracy. Учитывая, что моя сеть получает на входе 32x32 (зашумленные)...
1221 просмотров
schedule
18.03.2022
Расчет потерь тензорного потока для нескольких положительных классификаций
Мой лейбл выглядит так
label = [0, 1, 0, 0, 1, 0]
Это означает, что классы 1, 4 присутствуют во входных данных соответствующего образца.
Как мне создать ярлыки с горячим кодированием для таких ярлыков?
Какая функция потерь больше...
199 просмотров
schedule
02.08.2022
Есть ли разница между перекрестными потерями энтропии и логистическими потерями?
Я хочу использовать функцию стоимости логистических потерь для моей модели глубокого обучения, чтобы решить проблему двоичной классификации. Я использую керас для создания модели. Однако у keras нет заранее определенной логистической функции потерь...
1227 просмотров
schedule
06.04.2023
Проверка функции потерь **на выборку** при оценке, keras с тензорным потоком
В Keras/Tensorflow я пытаюсь реализовать механизм активного обучения, для которого мне нужно получить потери на выборку. В настоящее время я выполняю evaluate для каждого образца, и это занимает так много времени (один образец на 100 мс). Есть ли...
585 просмотров
schedule
01.06.2023
Какая функция потерь лучше, чем MSE при прогнозировании температуры?
У меня есть вектор признаков размером 1x4098. Каждый вектор признаков соответствует числу с плавающей запятой (температуре). В процессе обучения у меня есть 10 000 образцов. Следовательно, у меня есть размер тренировочного набора 10000x4098 и метка...
587 просмотров
schedule
02.12.2023
keras custom loss pure python (без бэкэнда keras)
В настоящее время я программирую автоэнкодер для сжатия изображений. Я хотел бы использовать настраиваемую функцию потерь, написанную на чистом питоне, то есть без использования бэкэнд-функций keras. Возможно ли это вообще, и если да, то как? Если...
512 просмотров
schedule
01.02.2023
Кастомный лосс в Керасе с софтмаксом на горячую
У меня есть модель, которая выводит Softmax, и я хотел бы разработать пользовательскую функцию потерь. Желаемое поведение:
1) Softmax в однократно (обычно я делаю numpy.argmax(softmax_vector) и устанавливаю этот индекс равным 1 в нулевом векторе,...
1426 просмотров
schedule
27.09.2023
Как я могу реализовать предельный убыток?
Я пытаюсь реализовать предельные потери, представленные в статье [1]. Пока это то, что я сделал.
def marginal_loss(model1, model2, y, margin, threshold):
margin_ = 1/(tf.pow(margin,2)-margin)
tmp = (1. - y)
euc_dist =...
230 просмотров
schedule
18.02.2023
AttributeError: объект 'NoneType' не имеет атрибута '_inbound_nodes'
Я хочу реализовать определенную здесь функцию потерь . Я использую fcn-VGG16 для получения карты x и добавляю слой активации (x - вывод сети fcn vgg16). А затем просто несколько операций по извлечению функций.
co_map = Activation('sigmoid')(x)...
591 просмотров
schedule
29.07.2023
Постепенно обновляйте веса пользовательских потерь в Керасе во время обучения.
Я определил пользовательскую функцию потерь в Keras (бэкенд тензорного потока), которая состоит из MSE реконструкции и расхождения Лейблера Куллбака между изученным распределением вероятностей и стандартным нормальным распределением. (Это для...
833 просмотров
schedule
13.03.2023
Индивидуальная потеря каждого (последнего слоя) вывода модели Keras
При обучении ИНС для регрессии Керас сохраняет потерю обучения / проверки в объекте истории . В случае нескольких выходов на последнем слое с стандартной функцией потерь , т.е. среднеквадратичная ошибка или MSE:
что представляют собой...
436 просмотров
schedule
20.10.2023
Ошибка пользовательской потери Keras: неизвестная функция потерь
Я попытался настроить функцию потерь в Керасе.
Я пробовал два подхода:
import keras.backend as K
from keras.losses import mean_absolute_error
def mae_in_minute(y_true, y_pred):
temp = K.mean(K.abs(y_pred - y_true), axis=-1)/60
return...
984 просмотров
schedule
19.03.2023
Как определить пользовательскую функцию потерь keras с помощью простой математической операции
Я определяю пользовательскую функцию my_sigmoid следующим образом:
import math
def my_sigmoid(x):
a = 1/ ( 1+math.exp( -(x-300)/30 ) )
return a
А затем определите пользовательскую функцию потерь с именем my_cross_entropy :...
2818 просмотров
schedule
02.09.2022
Потеря кросс-энтропии для одного горячего кодирования
CE-loss суммирует потери по всем выходным узлам.
Sum_i [- target_i * log (output_i)].
Производная CE-потерь: - target_i / output_i.
Поскольку для target = 0 потери и производная потерь равны нулю независимо от фактического выхода, кажется,...
941 просмотров
schedule
18.02.2023
Почему cross_val_score в sklearn переворачивает значение метрики?
Я примеряю эту модель от sklearn .
LogisticRegressionCV(
solver="sag", scoring="neg_log_loss", verbose=0, n_jobs=-1, cv=10
)
Подгонка приводит к model.score (на тренировочном наборе) 0,67 и изменению. Поскольку нет способа...
738 просмотров
schedule
19.11.2022
Работа с множественными потерями и их весами в керасах
Обучение модели GAN с использованием train_on_batch с несколькими потерями, могу ли я использовать случайный loss_weights при компиляции модели или есть какая-то конкретная стратегия для использования этих весов потерь, как упоминалось Здесь . В...
1125 просмотров
schedule
20.08.2022
Как реализовать отрицательную биномиальную вероятностную функцию капюшона в тензорном потоке и использовать ее в качестве функции потерь для обучения RNN?
Я пытаюсь предсказать среднее значение и дисперсию случайной величины на каждом этапе рекуррентной нейронной сети. Мне нужно обучить эту модель, используя отрицательное биномиальное логарифмическое правдоподобие в качестве функции потерь, где модель...
279 просмотров
schedule
02.03.2023