це значення обраховується для кожного нейрона на початку розпізнавання, тоді, коли зображення потрапляє на вхід мережі.
Можна сказати, що для двійкових зображень початкова впевненість – це просто інвертована функція додавання за модулем 2. Для зображень з множин та початкову впевненість необхідно обраховувати як відстань:
Тут eij – запам’ятований еталон нейрона Nij, aij - значення відповідного пікселя зображення, поданого на вхід. Якщо eij = aij, тоді впевненість нейрона буде максимальною. Якщо різниця між eij та aij максимальна, тоді впевненість нейрона буде дорівнювати нулю.
Перейдемо від окремих нейронів до мережі в цілому, і просумуємо початкову впевненість нейронів - ми отримаємо величину, яку називають початковою впевненістю мережі. Якщо розглядати зображення з множини , то початкова впевненість мережі дорівнює кількості бітів співпадання на однакових позиціях у еталонному та вхідному зображеннях. Ця величина є “двоїстою” до відстані Хемінга між зображеннями. Відстанню Хемінга між двома двійковими кортежами однакової розмірності називають кількість неспівпадаючих бітів на однакових позиціях у цих кортежах. Якщо кортежі повністю співпадають, відстань Хемінга між ними дорівнює 0, а початкова впевненість мережі – кількості бітів, або розмірності кортежу. Якщо ж у кортежах не співпадає жоден біт, тоді відстань Хемінга між ними дорівнює розмірності кортежу , а початкова впевненість мережі – нулю.Отже, коли на вхід мережі подається деяке зображення, для кожного нейрона мережі обраховується початкова впевненість, і це значення береться як початкове збудження нейрона. Далі, як і у мережі Хопфілда, вхідне зображення більше не впливає на процес розпізнавання.
Зупинимося на тому, з яких міркувань встановлюються зв’язки між нейронами мережі і яку роль вони відіграють. Кожен нейрон бере до уваги не тільки власну впевненість, але і впевненість сусідніх до нього нейронів. Це дуже подібно до того, як людина сприймає зображення в цілому – якщо картинка загалом знайома, але незначна частина картинки відрізняється від запам’ятованої, людина все ж таки впізнає її. У штучній нейронній мережі це можна промоделювати таким чином: якщо впевненість нейрона є малою, але впевненість його сусідів (зв’язки встановлюються між сусідніми нейронами) достатньо велика, то нейрон “довіряє” їм і збільшує власну впевненість. І навпаки, якщо впевненість нейрона є великою, але впевненість його сусідів мала, то нейрон зменшує власну впевненість.
Опишемо цей процес більш формально. Впевненість кожного нейрона обмежена як зверху, так і знизу, для зображень усіх трьох видів: для aij{0,1}, для aij[0,255], для aij[0,1]. Будемо вважати, що якщо впевненість нейрона перевищує 50% максимальної впевненості, то він збільшує впевненість сусідніх нейронів; якщо впевненість нейрона менше, ніж 50% максимальної впевненості, то він зменшує впевненість сусідів; у тому випадку, коли впевненість нейрона дорівнює 50% максимальної впевненості, він ніяк не впливає на впевненість сусідів.
Перерахунок впевненості для деякого нейрону повинен відповідати наступним умовам, які випливають із побудови мережі та наведених вище правил. Якщо середня впевненість сусідніх нейронів дорівнює 50% максимальної, то нейрон не змінює власну впевненість. Якщо середня впевненість сусідів більше, ніж 50% максимальної, то нейрон збільшує власну впевненість пропорційно середній впевненості сусідів; якщо при цьому його нова впевненість перевищує максимально можливу, то вона зменшується до максимальної. Аналогічно, якщо середня впевненість сусідів менше, ніж 50% максимальної, то нейрон зменшує власну впевненість пропорційно середній впевненості сусідів; якщо при цьому його нова впевненість стає менше нуля, то вона збільшується до нуля.
При цьому, коли ми підраховуємо середню впевненість сусідніх нейронів, застосовуються ваги відповідних зв’язків – тих, які йдуть від сусідніх нейронів до центрального. Фактично, це є зважена сума:
,
де i – вага зв’язку, який іде від i–го сусіда до центрального нейрона, pi - впевненість i–го сусіда. Ваги зв’язків можна розглядати як ступінь довіри між нейронами мережі: чим більше вага t(ij)-(kl), тим більше впевненість нейрона Nkl впливає на впевненість нейрона Nij.
Робота мережі проходить аналогічно мережі Хопфілда: після подання вхідного зображення в мережу, і обрахунку початкової впевненості, нейрони починають асинхронно змінювати власну впевненість (перераховувати її за впевненостями сусідів). Якщо цей процес продовжувати досить довго, то можливі лише два випадки.
Якщо мережа стабілізується, тобто настає момент, коли жоден нейрон не може змінити власну впевненість, остаточну впевненість мережі покладають рівній середній впевненості усіх нейронів мережі. Здається, що якщо кількість нейронів із малою впевненістю більше, ніж кількість нейронів з великою впевненістю, то остаточна впевненість мережі повинна прямувати до нуля – і навпаки, якщо кількість нейронів із великою впевненістю більше, ніж кількість нейронів з малою впевненістю, то остаточна впевненість мережі повинна прямувати до максимально можливої. Найчастіше так і буває, але, нажаль, можливі ситуації, коли мережа стабілізується у деякому стані, де є нейрони, впевненість яких є проміжною між нулем та максимальною впевненістю.
Якщо мережа не стабілізується занадто довго, треба зупинити перерахунки, і вважати, що остаточна впевненість мережі дорівнює 50% від максимальної – це дозволяю уникнути зациклень.
Коли за цим алгоритмом отримано остаточну впевненість мережі, її інтерпретують так: якщо вона більше, або дорівнює деякій пороговій впевненості (наприклад, 50% від максимальної), ми вважаємо, що мережа відповідає “так” – це зображення потрапляє до того ж самого класу, що й еталонне зображення даної мережі. Інакше мережа відповідає “ні” - це зображення з іншого класу.
Налаштування зв’язків між нейронами мережі проводиться за тією ж схемою, що і для персептрона Розенблата – ітеративно, багаторазово для кожної пари навчальної вибірки. При перерахунку впевненості деякого нейрона сусідні нейрони