Метод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона...
35 KB (3,190 words) - 04:58, 20 June 2024
A-элементов, причём, обучение такой сети проводится по методу обратного распространения ошибки, и обучаемыми являются все слои перцептрона (в том числе...
92 KB (5,593 words) - 22:09, 16 April 2024
одновременно С. И. Барцевым и В. А. Охониным, переоткрыт и развит метод обратного распространения ошибки. 2007 — Джеффри Хинтоном в университете Торонто созданы...
90 KB (5,724 words) - 12:32, 22 July 2024
частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает...
28 KB (1,983 words) - 07:17, 1 October 2023
Градиентный спуск (redirect from Метод градиента)
перцептрона и в теории искусственных нейронных сетей известен как метод обратного распространения ошибки. При обучении нейросети типа «персептрон» требуется изменять...
16 KB (1,365 words) - 04:08, 29 September 2023
бинарных многослойных перцептронов. Является альтернативой методу обратного распространения ошибки, но, в отличие от него, гарантирует процесс сходимости...
5 KB (488 words) - 00:57, 2 February 2023
использовании метода обратного распространения ошибки. Простейшая архитектура автокодировщика — сеть прямого распространения, без обратных связей, наиболее...
15 KB (976 words) - 08:27, 4 January 2024
Функция активации Сигмоида Softmax Радиально-базисная функция Метод обратного распространения ошибки Глубокое обучение Многослойный перцептрон Рекуррентная нейронная...
24 KB (1,394 words) - 09:40, 16 July 2024
Функция активации Сигмоида Softmax Радиально-базисная функция Метод обратного распространения ошибки Глубокое обучение Многослойный перцептрон Рекуррентная нейронная...
29 KB (1,956 words) - 12:33, 12 July 2024
GPT-4 (category Википедия:Ошибки CS1 (избыточный параметр))
Функция активации Сигмоида Softmax Радиально-базисная функция Метод обратного распространения ошибки Глубокое обучение Многослойный перцептрон Рекуррентная нейронная...
12 KB (649 words) - 12:49, 11 June 2024
Функция активации Сигмоида Softmax Радиально-базисная функция Метод обратного распространения ошибки Глубокое обучение Многослойный перцептрон Рекуррентная нейронная...
19 KB (1,218 words) - 15:47, 27 June 2024