Cтраница 1
Алгоритмы обучения распознаванию образов, основанные на восстановлении плотности распределения вероятностей ( состава объединения Р ( к со 0), Р ( х со 1) и его пропорции Р ( со 0)), традиционно связаны с двумя классами распределений. [1]
Алгоритмы обучения бывают с учителем и без. Алгоритм называется алгоритмом с учителем, если при обучении известны и входные, и выходные вектора сети. Имеются пары вход выход - известные условия задачи и решение. В процессе обучения сеть меняет свои параметры и учится давать нужное отображение х - Y Сеть учится давать результаты, которые нам уже известны. За счет способности к обобщению сетью могут быть получены новые результаты, если подать на вход вектор, который не встречался при обучении. [2]
Алгоритм обучения представляет собой правило выбора порции обучающей информации U, которую необходимо заучить. [3]
Алгоритм обучения на графе допускает следующую интерпретацию. На k - м шаге рассматривается каждая ветвь, построенная на предыдущем шаге. Если конъюнкция zh ( со), соответствующая этой ветви, характеризует ( с вероятностью 1) некоторый класс Qlt то ветвь заканчивается листом с номером i. В противном случае ветвь дополняется узлом, отобранным в соответствии с критерием (7.13) и из этого узла строятся два новых ребра, отвечающих возможным значениям соответствующего признака. [4]
Алгоритм обучения может быть теперь представлен в виде следующих шагов. [5]
Алгоритм обучения ( без учителя) Кохонена может быть теперь описан следующим образом. [6]
Алгоритмы обучения, как и вообще искусственные нейронные сети, могут быть представлены как в дифференциальной, так и в конечно-разностной форме. При использовании дифференциальных уравнений предполагают, что процессы непрерывны и осуществляются подобно большой аналоговой сети. [7]
Область связей нейрона. [8] |
Алгоритм обучения когнитрона является концептуально привлекательным. В заданной области слоя обучается только наиболее сильно возбужденный нейрон. Автор сравнивает это с элитным обучением, при котором обучаются только умные элементы. Те нейроны, которые уже хорошо обучены, что выражается силой их возбуждения, получат приращение силы своих синапсов с целью дальнейшего усиления своего возбуждения. [9]
Алгоритм обучения когнитрона позволяет весам синапсов возрастать без ограничений. Благодаря отсутствию механизма уменьшения весов они просто возрастают в процессе обучения. [10]
Алгоритм обучения сети Хопфилда основывается на правиле Хебба. [11]
Функция активации нейронов сети Хопфилда. [12] |
Алгоритм обучения сети Хопфилда основывается на правиле Хебба и включает следующие шаги. [13]
Алгоритм обучения перцептрона включает следующие шаги. [14]
Алгоритм обучения персептрона может быть реализован на цифровом компьютере или другом электронном устройстве, и сеть становится в определенном смысле самоподстраивающейся. По этой причине процедуру подстройки весов обычно называют обучением и говорят, что сеть обучается. [15]