Вопросы по теме 'activation-function'
Насколько точной должна быть функция активации и насколько большими будут ее входные данные?
Я пишу базовую нейронную сеть на Java и пишу функции активации (в настоящее время я только что написал сигмовидную функцию). Я пытаюсь использовать double s (в отличие от BigDecimal ) в надежде, что обучение действительно займет разумное количество...
103 просмотров
schedule
09.03.2023
Факел - почему люди не используют активацию явно?
Всякий раз, когда я видел нейронные сети, реализованные в Torch, nn, они только соединяли модули. Например, есть модуль секвенсора с LookupTable, Splittable, FasLSTM, Linear, LogSoftMax. Почему люди не используют промежуточные функции активации,...
78 просмотров
schedule
23.02.2023
Нормализация сложных значений в NumPy/Python
В настоящее время я пытаюсь нормализовать сложные значения. Поскольку у меня нет хорошего способа сделать это, я решил разделить свой набор данных на два, состоящий из данных только с реальной частью и данных только с мнимой частью.
def...
3901 просмотров
schedule
13.03.2023
Неправильная классификация логистической функции
У меня возникли проблемы с попыткой научить нейронную сеть логической функции XOR. Я уже обучил сеть с успешными результатами, используя гиперболический тангенс и ReLU в качестве функций активации (что касается ReLU, я знаю, что это не подходит для...
85 просмотров
schedule
30.07.2023
Различные весовые функции для нейронов
Я поигрался с TensorFlow и сделал общую полностью подключенную модель.
На каждом слое я применяю
sigmoid(WX + B)
который, как всем известно, хорошо работает.
Затем я начал возиться с функцией, которая применяется на каждом уровне, и...
52 просмотров
schedule
02.10.2022
Почему softmax не используется в скрытых слоях
Я прочитал ответ, данный здесь . Мой точный вопрос относится к принятому ответу:
Независимость от переменных: много регуляризации и усилий приложено, чтобы ваши переменные были независимыми, некоррелированными и довольно разреженными. Если вы...
764 просмотров
schedule
16.03.2023
Искусственная нейронная сеть - почему обычно в скрытом слое используется функция активации сигмоида вместо функции активации сигмовидной формы?
почему функция активации log-сигмоида является основным выбором в скрытом слое вместо функции активации tanh-сигмоида? А также, если я использую нормализацию Z-оценки, могу ли я использовать функцию активации сигмоида в скрытом слое?
578 просмотров
schedule
01.06.2023
Влияние использования relu для градиентного спуска
Какое влияние оказывает тот факт, что функция активации relu не содержит производной?
Как реализовать функцию ReLU в Numpy реализует relu как максимум из (0, элементы вектора матрицы).
Означает ли это, что для градиентного спуска мы не берем...
1376 просмотров
schedule
01.03.2022
Классификация текста с помощью нейронной сети
Я новичок в машинном обучении и нейронных сетях. Я пытаюсь провести классификацию текста с помощью нейронной сети с нуля. В моем наборе данных 7500 документов, каждый из которых помечен одним из семи классов. Всего около 5800 уникальных слов. Я...
229 просмотров
schedule
21.03.2022
Как реализовать дырявый relu с помощью функций Numpy
Я пытаюсь реализовать дырявый Relu, проблема в том, что мне нужно сделать 4 цикла for для 4-мерного массива ввода.
Есть ли способ, которым я могу сделать дырявый relu только с помощью функций Numpy?
7217 просмотров
schedule
24.08.2022
как определить производную от пользовательской функции активации в keras
У меня есть настраиваемая функция активации и ее производная, хотя я могу использовать настраиваемую функцию активации, я не знаю, как сказать keras, что является ее производной.
Похоже, он сам его находит, но у меня есть параметр, который должен...
1513 просмотров
schedule
13.12.2022
Умножение матриц в pyTorch
Я пишу простую нейронную сеть в pyTorch, где функции и веса являются (1, 5) тензорами. Каковы различия между двумя методами, которые я упоминаю ниже?
y = activation(torch.sum(features*weights) + bias)
и
yy = activation(torch.mm(features,...
2900 просмотров
schedule
10.02.2023
Как реализовать функцию активации RBF в Keras?
Я создаю настраиваемую функцию активации, в частности функцию активации RBF:
from keras import backend as K
from keras.layers import Lambda
l2_norm = lambda a,b: K.sqrt(K.sum(K.pow((a-b),2), axis=0, keepdims=True))
def rbf2(x):
X = #here i need...
6452 просмотров
schedule
01.03.2022
почему линейная функция бесполезна в многослойной нейронной сети? Как последний слой становится линейной функцией ввода первого слоя?
Я изучал функцию активации в NN, но не мог правильно понять эту часть: «Каждый слой активируется линейной функцией. Эта активация, в свою очередь, переходит на следующий уровень в качестве входных данных, а второй слой вычисляет взвешенную сумму на...
319 просмотров
schedule
09.07.2023
Tensorflow применяет различные функции активации в выходном слое
Я хочу построить такую сеть
Скрытый слой не важен, я хочу знать, как я могу написать код в моем выходном слое, и следующий мой код, я прав?
Параметры:
state_dim = 13
layer1_size, layer2_size = 400, 300
action_dim = 2
W1 =...
206 просмотров
schedule
17.07.2022
В чем разница между типом слоя и его функцией активации в PyTorch?
Я пытаюсь написать простую нейронную сеть с помощью pytorch. Я новичок в этой библиотеке. Я столкнулся с двумя способами реализации одной и той же идеи: слой с некоторой фиксированной функцией активации (например, tanh).
Первый способ его...
98 просмотров
schedule
01.11.2022
Могу ли я узнать некоторые подробности о реализации пользовательской функции активации в Keras?
@патапуф_ай
Относительно Как сделать пользовательскую активацию использовать только Python в Tensorflow?
Я новичок в Python, keras и tf. Я реализовал кусочно-постоянную пользовательскую функцию активации, используя метод, описанный выше,...
393 просмотров
schedule
25.09.2022
Нейронная сеть - упражнение
В настоящее время я изучаю для себя концепцию нейронных сетей и работаю с очень хорошим PDF-файлом с сайта http://neuralnetworksanddeeplearning.com/chap1.html
Я также сделал несколько упражнений, но есть одно упражнение, которое я действительно...
742 просмотров
schedule
14.03.2023
Как мы узнаем, что нейрон активирован, когда мы используем функцию активации
Мне нужно разъяснение, когда именно активируется функция активации. Работа функции активации состоит в том, чтобы ввести нелинейность, правильно. Это просто масштабирование заданного ввода в ограниченном диапазоне?
230 просмотров
schedule
30.07.2023
Tensorflow.js: ошибка удаления тензором при использовании tanh или sigmoid, но не функция активации relu
В TensorFlow.js я создал последовательную нейронную сеть с 3 плотными слоями, которая работает, когда я устанавливаю функцию активации на «relu», но когда я пробую «tanh» или «sigmoid», она выдает ошибку: «Ошибка: тензор удален. ".
Я составил...
282 просмотров
schedule
20.09.2023