Вопросы по теме 'activation-function'

Насколько точной должна быть функция активации и насколько большими будут ее входные данные?
Я пишу базовую нейронную сеть на Java и пишу функции активации (в настоящее время я только что написал сигмовидную функцию). Я пытаюсь использовать double s (в отличие от BigDecimal ) в надежде, что обучение действительно займет разумное количество...
103 просмотров

Факел - почему люди не используют активацию явно?
Всякий раз, когда я видел нейронные сети, реализованные в Torch, nn, они только соединяли модули. Например, есть модуль секвенсора с LookupTable, Splittable, FasLSTM, Linear, LogSoftMax. Почему люди не используют промежуточные функции активации,...
78 просмотров
schedule 23.02.2023

Нормализация сложных значений в NumPy/Python
В настоящее время я пытаюсь нормализовать сложные значения. Поскольку у меня нет хорошего способа сделать это, я решил разделить свой набор данных на два, состоящий из данных только с реальной частью и данных только с мнимой частью. def...
3901 просмотров

Неправильная классификация логистической функции
У меня возникли проблемы с попыткой научить нейронную сеть логической функции XOR. Я уже обучил сеть с успешными результатами, используя гиперболический тангенс и ReLU в качестве функций активации (что касается ReLU, я знаю, что это не подходит для...
85 просмотров
schedule 30.07.2023

Различные весовые функции для нейронов
Я поигрался с TensorFlow и сделал общую полностью подключенную модель. На каждом слое я применяю sigmoid(WX + B) который, как всем известно, хорошо работает. Затем я начал возиться с функцией, которая применяется на каждом уровне, и...
52 просмотров

Почему softmax не используется в скрытых слоях
Я прочитал ответ, данный здесь . Мой точный вопрос относится к принятому ответу: Независимость от переменных: много регуляризации и усилий приложено, чтобы ваши переменные были независимыми, некоррелированными и довольно разреженными. Если вы...
764 просмотров

Искусственная нейронная сеть - почему обычно в скрытом слое используется функция активации сигмоида вместо функции активации сигмовидной формы?
почему функция активации log-сигмоида является основным выбором в скрытом слое вместо функции активации tanh-сигмоида? А также, если я использую нормализацию Z-оценки, могу ли я использовать функцию активации сигмоида в скрытом слое?
578 просмотров

Влияние использования relu для градиентного спуска
Какое влияние оказывает тот факт, что функция активации relu не содержит производной? Как реализовать функцию ReLU в Numpy реализует relu как максимум из (0, элементы вектора матрицы). Означает ли это, что для градиентного спуска мы не берем...
1376 просмотров

Классификация текста с помощью нейронной сети
Я новичок в машинном обучении и нейронных сетях. Я пытаюсь провести классификацию текста с помощью нейронной сети с нуля. В моем наборе данных 7500 документов, каждый из которых помечен одним из семи классов. Всего около 5800 уникальных слов. Я...
229 просмотров

Как реализовать дырявый relu с помощью функций Numpy
Я пытаюсь реализовать дырявый Relu, проблема в том, что мне нужно сделать 4 цикла for для 4-мерного массива ввода. Есть ли способ, которым я могу сделать дырявый relu только с помощью функций Numpy?
7217 просмотров
schedule 24.08.2022

как определить производную от пользовательской функции активации в keras
У меня есть настраиваемая функция активации и ее производная, хотя я могу использовать настраиваемую функцию активации, я не знаю, как сказать keras, что является ее производной. Похоже, он сам его находит, но у меня есть параметр, который должен...
1513 просмотров

Умножение матриц в pyTorch
Я пишу простую нейронную сеть в pyTorch, где функции и веса являются (1, 5) тензорами. Каковы различия между двумя методами, которые я упоминаю ниже? y = activation(torch.sum(features*weights) + bias) и yy = activation(torch.mm(features,...
2900 просмотров

Как реализовать функцию активации RBF в Keras?
Я создаю настраиваемую функцию активации, в частности функцию активации RBF: from keras import backend as K from keras.layers import Lambda l2_norm = lambda a,b: K.sqrt(K.sum(K.pow((a-b),2), axis=0, keepdims=True)) def rbf2(x): X = #here i need...
6452 просмотров

почему линейная функция бесполезна в многослойной нейронной сети? Как последний слой становится линейной функцией ввода первого слоя?
Я изучал функцию активации в NN, но не мог правильно понять эту часть: «Каждый слой активируется линейной функцией. Эта активация, в свою очередь, переходит на следующий уровень в качестве входных данных, а второй слой вычисляет взвешенную сумму на...
319 просмотров
schedule 09.07.2023

Tensorflow применяет различные функции активации в выходном слое
Я хочу построить такую ​​сеть Скрытый слой не важен, я хочу знать, как я могу написать код в моем выходном слое, и следующий мой код, я прав? Параметры: state_dim = 13 layer1_size, layer2_size = 400, 300 action_dim = 2 W1 =...
206 просмотров

В чем разница между типом слоя и его функцией активации в PyTorch?
Я пытаюсь написать простую нейронную сеть с помощью pytorch. Я новичок в этой библиотеке. Я столкнулся с двумя способами реализации одной и той же идеи: слой с некоторой фиксированной функцией активации (например, tanh). Первый способ его...
98 просмотров

Могу ли я узнать некоторые подробности о реализации пользовательской функции активации в Keras?
@патапуф_ай Относительно Как сделать пользовательскую активацию использовать только Python в Tensorflow? Я новичок в Python, keras и tf. Я реализовал кусочно-постоянную пользовательскую функцию активации, используя метод, описанный выше,...
393 просмотров
schedule 25.09.2022

Нейронная сеть - упражнение
В настоящее время я изучаю для себя концепцию нейронных сетей и работаю с очень хорошим PDF-файлом с сайта http://neuralnetworksanddeeplearning.com/chap1.html Я также сделал несколько упражнений, но есть одно упражнение, которое я действительно...
742 просмотров

Как мы узнаем, что нейрон активирован, когда мы используем функцию активации
Мне нужно разъяснение, когда именно активируется функция активации. Работа функции активации состоит в том, чтобы ввести нелинейность, правильно. Это просто масштабирование заданного ввода в ограниченном диапазоне?
230 просмотров

Tensorflow.js: ошибка удаления тензором при использовании tanh или sigmoid, но не функция активации relu
В TensorFlow.js я создал последовательную нейронную сеть с 3 плотными слоями, которая работает, когда я устанавливаю функцию активации на «relu», но когда я пробую «tanh» или «sigmoid», она выдает ошибку: «Ошибка: тензор удален. ". Я составил...
282 просмотров