Искусственный интеллект


Нейронные сети Хопфилда и Хэмминга - часть 6


При каждом таком цикле вектора на выходах обоих слоев приближаются к паре образцовых векторов, первый из которых – X – наиболее походит на P, который был подан на вход сети в самом начале, а второй – Y – ассоциирован с ним. Ассоциации между векторами кодируются в весовой матрице W(1) первого слоя. Весовая матрица второго слоя W(2) равна транспонированной первой (W(1))T. Процесс обучения, также как и в случае сети Хопфилда, заключается в предварительном расчете элементов матрицы W (и соответственно WT) по формуле:

(11)

Эта формула является развернутой записью матричного уравнения

(12)

для частного случая, когда образы записаны в виде векторов, при этом произведение двух матриц размером соответственно [n*1] и [1*m] приводит к (11).

В заключении можно сделать следующее обобщение. Сети Хопфилда, Хэмминга и ДАП позволяют просто и эффективно разрешить задачу воссоздания образов по неполной и искаженной информации. Невысокая емкость сетей (число запоминаемых образов) объясняется тем, что, сети не просто запоминают образы, а позволяют проводить их обощение, например, с помощью сети Хэмминга возможна классификация по критерию максимального правдоподобия [3]. Вместе с тем, легкость построения программных и аппаратных моделей делают эти сети привлекательными для многих применений.

Литература

  1. С. Короткий, Нейронные сети: алгоритм обратного распространения.

  2. С. Короткий, Нейронные сети: обучение без учителя.

  3. Artificial Neural Networks: Concepts and Theory, IEEE Computer Society Press, 1992.

  4. Ф.Уоссермен, Нейрокомпьютерная техника, М.,Мир, 1992.

На главную страницу | Листинг




- Начало -  - Назад -  



Книжный магазин