Вопросы по теме 'automatic-differentiation'
Допустимые типы в функциях Numeric.AD
Мне не очень удается разобраться в основных принципах работы типов, включенных в пакет ad . Например, следующее работает отлично:
import Numeric.AD
ex :: Num a => [a] -> a
ex [x, y] = x + 2*y
> grad ex [1.0, 1.0]
[1.0, 2.0]
где...
398 просмотров
schedule
10.10.2022
Проблема оптимизации, нелинейная: автоматический аналитический якобиан/гессе на основе цели и ограничений в R?
Можно ли в R найти шаблон Якобиана/Гессиана/разреженности аналитически, если вы предоставляете только целевую функцию и ограничения для задачи оптимизации?
AMPL делает это, и, насколько я слышал, даже MATLAB может это сделать, но я не знаю, нужен...
549 просмотров
schedule
07.11.2022
Как повысить производительность автоматического дифференцирования?
Мне трудно оптимизировать программу, которая по большей части использует функцию ad s conjugateGradientDescent .
По сути, мой код представляет собой перевод кода старых документов , написанного на Matlab и C. Я не измерял, но этот код...
548 просмотров
schedule
05.07.2022
Понимание автоматического дифференцирования более высокого порядка
Недавно только что закончил свой базовый реверсивный режим AD для машинного обучения, я обнаружил, что хочу узнать об этой области, но я наткнулся на стену твердости с методами более высокого порядка.
Основная обратная AD очень проста и легка...
493 просмотров
schedule
11.08.2022
Частная производная с использованием Autograd
У меня есть функция, которая принимает многомерный аргумент x. Здесь x = [x1,x2,x3]. Допустим, моя функция выглядит так: f(x,T) = np.dot(x,T) + np.exp(np.dot(x,T), где T — константа.
Меня интересуют функции df/dx1, df/dx2 и df/dx3.
Я добился...
2864 просмотров
schedule
20.05.2023
Применима ли Julia ForwardDiff к очень сложной функции, включающей интеграцию ODE и вложенную автоматическую дифференциацию?
Мне нужно оценить параметры непрерывно-дискретной нелинейной стохастической динамической системы с использованием методов фильтрации Калмана.
Я собираюсь использовать Julia ode45() из ODE и самостоятельно реализовать расширенный фильтр Калмана для...
194 просмотров
schedule
03.02.2024
Разделение вычисления градиента TensorFlow на две (или более) части
Можно ли использовать функцию TensorFlow tf.gradients() по частям, то есть - вычислить градиент от потери по некоторому тензору и этого тензора по весу, а затем умножить их, чтобы получить исходный градиент от потери к весу?
Например, пусть W,b...
893 просмотров
schedule
22.05.2022
Python: дифференциация по точечному выражению?
У меня есть точечно определенная функция. Это происходит из-за ситуации с депозитом, когда вы каждый месяц вносите 1000 долларов США с процентной ставкой 5%, которую вы планируете с помощью Numpy. Существует несколько способов вычисления предельного...
340 просмотров
schedule
29.07.2022
Использование автоматического дифференцирования для функции, которая использует предварительно выделенный массив в Джулии
Мое длинное название темы в значительной степени охватывает это.
Мне удалось изолировать мою гораздо более серьезную проблему в следующем надуманном примере ниже. Я не могу понять, в чем именно проблема, хотя я думаю, что это как-то связано с...
285 просмотров
schedule
28.06.2023
Гессен функции черного ящика, использующей Pytorch
Прежде всего, я новичок в Python и машинном обучении, поэтому, пожалуйста, извините за мое незнание того, что может быть очень простой проблемой; Я ценю любой вклад по этому вопросу!
У меня есть очень сложная многомерная функция со скалярными...
366 просмотров
schedule
22.02.2022