Публикации по теме 'backpropagation'


Цифровое пошаговое руководство RNN + код
Введение в рекуррентные нейронные сети вместе с кодом с нуля Оглавление Обзор Модель Прямое распространение Обратное распространение во времени (BPTT) Обновления веса Усеченное обратное распространение во времени (TBPTT) Заключение Обзор В этой статье мы рассмотрим математические вычисления рекуррентной нейронной сети. Мы исследуем результаты прямого прохода и градиенты обратного прохода. Если вы не знакомы с прямым и обратным распространением в обычной нейронной сети,..

Нейронные сети за 10 минут. Просто Объясняется!
Что такое нейронные сети? Нейронные сети являются фундаментальными строительными блоками алгоритмов глубокого обучения. Нейронная сеть — это тип алгоритма машинного обучения, предназначенный для имитации поведения человеческого мозга. Он состоит из взаимосвязанных узлов, также известных как искусственные нейроны, которые организованы в слои. Чем нейронная сеть отличается от машинного обучения? Нейронные сети — это тип алгоритма машинного обучения, но они отличаются от..

Обратное распространение в полносвязных нейронных сетях с нуля
Руководство по созданию собственной полносвязной нейронной сети с использованием Python и NumPy. Нежное введение В известном исследовании, проведенном Павловым, собак лечат всякий раз, когда они слышат звон колокольчика. Поначалу собак мало беспокоит непонятно звенящий колокольчик — они машут хвостом и занимаются своими делами. Но когда они узнают, что прием пищи почти всегда сопровождается звонком колокольчика, их мозг связывает звон колокольчиков с поступающей едой. В результате,..

Боковое движение в нейронных сетях
Нейронные сети страдают от нескольких пагубных проблем. Главный из них - переобучение: при достаточном времени обучения нейронная сеть будет точно предсказывать данные обучения, теряя при этом способность воспринимать новые данные. Он совершенно не в состоянии обобщить то, чему научился. Например, классификатор изображений в конечном итоге может идеально предсказать, смотрит ли он на изображение кошки, среди изображений, которые вы уже классифицировали вручную . Тем не менее, эта..

Машинное обучение: обратное распространение
Введение: Математика всех пугает. Ха-ха, я знаю. Алгоритм обратного распространения действительно сложен для понимания, не так ли? В старших классах я прочитал много книг. Ага, я не опечатался, много книг по физике. Несмотря на то, что эти знания потом так и не пригодились, они дали мне один важный опыт в чтении. «Почти каждая книга — дерьмо, бессмысленная, пустая трата времени» Почему? Когда вы много читаете, вы обнаружите, что каждая книга написана по-своему. Иногда в одном и том..

ELI5: градиентный спуск
Сейчас, в эпоху науки о данных, когда все без ума от машинного обучения, мы часто забываем основы. Теперь в нашем распоряжении множество данных, новые модные графические процессоры, библиотеки ML / DL. Кого волнуют лежащие в основе линейная алгебра и исчисление ? На самом деле мы должны заботиться. Глубокое обучение не будет вечным черным ящиком, в который вы просто помещаете некоторые данные и тренируете их, изменяя некоторые значения, пока он не получит правильный ответ...

Вопросы по теме 'backpropagation'

Алгоритм обратного распространения - вычисление производной ошибки
При вычислении производной ошибки работают следующие работы, которые я использую, но точно не знаю, почему. double errorDerivative = (-output * (1-output) *(desiredOutput - output)); Когда я удаляю минус из первого вывода, он терпит неудачу и...
858 просмотров

Скорость обучения нейронной сети и пакетное обновление веса
Я запрограммировал нейронную сеть на Java и сейчас работаю над алгоритмом обратного распространения. Я читал, что пакетное обновление весов приведет к более стабильному поиску градиента вместо онлайн-обновления веса. В качестве теста я создал...
26938 просмотров
schedule 25.05.2022

Encog AI Framework: обратное распространение с введением гауссовского шума
Я возился со стандартными многослойными персептронами и алгоритмом обратного распространения в Encog уже две недели, как с помощью рабочей среды, так и с помощью кода Java. Моя следующая работа потребует вставки шума во входные шаблоны, как в этой...
743 просмотров

Как автоматизировать тестирование в weka?
Моя программа на C# генерирует данные как для обучения, так и для тестирования. Мне нужно использовать нейронную сеть обратного распространения / многослойный персептрон в графическом интерфейсе Weka для классификации и тестирования. В настоящее...
592 просмотров

Нейронная сеть не подходит для XOR
Я создал сценарий Octave для обучения нейронной сети с 1 скрытым слоем с использованием обратного распространения, но он не подходит для функции XOR. x Входная матрица 4x2 [0 0; 0 1; 1 0; 1 1] y Выходная матрица 4x1 [0; 1; 1; 0]...
1218 просмотров

мне нужен способ обучения нейронной сети, отличный от обратного распространения ошибки
Это постоянное предприятие, и некоторые детали намеренно запутаны. У меня есть коробка с несколькими входами и одним выходом. Выходное напряжение изменяется при изменении входного напряжения. Желательность выходной последовательности не может...
137 просмотров
schedule 18.06.2022

Использование ИНС для вычисления длины вектора положения и угла между ним и осью x.
Я новичок в нейронных сетях и пытаюсь освоиться, решая следующую задачу: Учитывая полукруг, который определяет область над осью X , я хотел бы научить ИНС выводить длину вектора, указывающего на любую позицию в этой области. Кроме того, я также...
155 просмотров

Есть ли идеи для прогнозирования множественных коэффициентов линейной регрессии с помощью нейронных сетей (ИНС)?
В случае, если есть 2 входа ( X1 и X2 ) и 1 целевой выход ( t ) для оценки нейронной сетью (каждый узел имеет 6 выборок): X1 = [2.765405915 2.403146899 1.843932529 1.321474515 0.916837222 1.251301467]; X2 = [84870 363024 983062 1352580 804723...
1290 просмотров

Проверка того, как скорость обучения влияет на обратное распространение, искусственная нейронная сеть
Я создал искусственную нейронную сеть на Java, которая обучается с помощью алгоритма обратного распространения ошибки. Я построил следующий график, показывающий, как изменение скорости обучения влияет на время, необходимое сети для обучения....
609 просмотров

Простое обратное распространение с ReLU (исправленные единицы) не работает
У меня есть простой код для традиционного обратного распространения (с традиционной сигмовидной функцией активации), который работает нормально. Затем я заменил сигмоиду на выпрямитель, и она не сходится даже для простого XOR-теста. Я добавил...
749 просмотров
schedule 21.07.2022

Обратное распространение и обучающий набор для чайников
Я в самом начале изучения нейронных сетей, но мои скудные навыки или недостаток интеллекта не позволяют мне понять из популярных статей, как правильно подготовить обучающую выборку для метода обучения обратного распространения ошибки (или его...
275 просмотров

Обратное распространение с Momentum с использованием Scikit-Learn
Я пытаюсь использовать нейронную сеть Scikit-Learn для классификации моего набора данных с использованием обратного распространения с Momentum. Мне нужно указать эти параметры: Скрытые нейроны, Скрытые слои, Набор для обучения, Скорость обучения и...
809 просмотров

Код обратного распространения (во времени) в Tensorflow
Где я могу найти код обратного распространения (через время) в Tensorflow (API Python)? Или используются другие алгоритмы? Например, когда я создаю сеть LSTM.
3614 просмотров
schedule 20.09.2023

Влияние количества шагов назад при использовании усеченного обратного распространения во времени
В настоящее время я разрабатываю модель для прогнозирования временных рядов с использованием ячеек LSTM с тензорным потоком. Моя модель похожа на ptb_word_lm . . Это работает, но я не уверен, как понимать параметр количества шагов назад при...
944 просмотров

Нейронная сеть обратного распространения не учится должным образом
Я кодирую нейронную сеть, и у меня проблемы с пониманием и кодированием обратного распространения ошибки, но она не учится должным образом. Я не знаю, где проблема в моей функции обратного распространения. Это моя функция ошибок L = plogq +...
104 просмотров
schedule 16.12.2022

Обратное распространение в градиентном спуске для нейронных сетей против линейной регрессии
Я пытаюсь понять «обратное распространение», как оно используется в нейронных сетях, оптимизированных с помощью градиентного спуска. Читая литературу, кажется, что он делает несколько вещей. Используйте случайные веса для начала и получайте...
2138 просмотров

Нейронная сеть XOR с 8+ входными узлами
Используя стандартный фон, я могу обучить сеть с 8 бинарными входами для изучения XOR. Таким образом, всего 256 входных наборов, и выходные данные правильно идентифицируют 8 входных наборов, причем только один из 8 входных параметров равен 1, а...
125 просмотров
schedule 19.06.2023

Обратное распространение ошибок в Python
Я пытаюсь понять, как работает обратное распространение ошибок, поэтому я пытаюсь сделать это с помощью очень простой нейронной сети, показанной выше. Я сделал следующее до сих пор: import numpy as np def forward_propagation(X, theta_1,...
110 просмотров
schedule 05.09.2022

Как мне нормализовать мою нейронную сеть обратного распространения с несколькими функциями с несколькими диапазонами?
У меня есть набор данных с 11 функциями со следующим диапазоном: 1000001 < feature 1 < 1560504 10000 < feature 2 < 15151 1 < feature 3 < 8 1001 < feature 4 < 3051 100 < feature 5 < 136 100 < feature 6 <...
300 просмотров

Реализация алгоритма обратного распространения
Я строю нейронную сеть с архитектурой: input layer --> fully connected layer --> ReLU --> fully connected layer --> softmax Я использую приведенные здесь уравнения DeepLearningBook для реализации обратного распространения. Я думаю,...
116 просмотров