сприйняття людиною навколишнього середовища. Тому становиться природнім застосування штучних нейронних мереж для вирішення цієї задачі, бо поняття штучної нейронної мережі виникло саме як модель роботи людського мозку, а задачу розпізнавання образів розглядати як класифікаційну задачу. Але перед цим введемо декілька необхідних понять та уточнень [].
Зображенням, або образом, називають матрицю вигляду . Елементи матриці aij можуть відрізнятися за типом, і тому розглядають три базових множини матриць.
Множина – множина усіх можливих матриць вигляду , елементи яких aij можуть приймати лише два значення: 0 або 1. Такі матриці називають двійковими, або монохромними зображеннями, і відповідно множину – множиною двійкових зображень розмірності mn.
Множина – множина усіх можливих матриць вигляду , елементи яких aij можуть приймати довільні цілі значення з сегменту [0,255]. Такі матриці називають зображеннями у сірій шкалі, і інтерпретують значення елементів матриці як яскравість відповідних пікселів зображення. Множину за аналогією називають множиною зображень у сірій шкалі розмірності mn.
Множина – множина усіх можливих матриць вигляду , елементи яких aij можуть приймати довільні дійсні значення з сегменту [0,1]. Такі матриці, фактично, теж можна розглядати як зображення у сірій шкалі, але між множинами і є істотна відмінність: існує скінченна кількість матриць розміром mn, елементи яких приймають цілі значення з фіксованого проміжку – отже, множина матриць є скінченою. Але зрозуміло, що множина не є скінченною - існує нескінченна кількість матриць розміром mn, елементи яких приймають дійсні значення з фіксованого проміжку. Тому множина приймає традиційну назву – множина дійсних матриць розмірності mn (памятаючи, що елементи цих матриць належать сегменту [0,1]).
Подальший розгляд будемо робити для множини , а якщо це буде необхідно – зробимо уточнення для кожної з базових множин.
Якщо серед усіх елементів множини матриць вибрати декілька фіксованих попарно не рівних між собою еталонних зображень {Et}tT, де Т – скінчена множина, тоді можна вважаєти що, уся множина матриць розбивається деяким чином на класи еквівалентності, і кожне з еталонних зображень є представником окремого класу образів. Іншими словами, задається представник кожного класу, а потім намагаються за ними побудувати канонічне розбиття (або відношення еквівалентності). Зрозуміло, що це можна зробити багатьма способами.
Канонічне розбиття на множині матриць можна задати за допомогою канонічного відображення, тобто такого, яке за конкретною матрицею відновлює клас, до якого вона потрапляє. Наприклад, F : [/R]. Тут R – відношення еквівалентності, яке будується, [/R] – множина класів еквівалентності, на які розбито множину . Відображення F повинно бути всюди визначеним, і, зрозуміло, функціональним. Очевидно, що заданням такого відображення фактично будується відношення еквівалентності R.
В задачі розпізнавання літер важливим є таке розбиття, в якому різні зображення, які з точки зору людини відповідають одній літері, потрапляли б до одного класу еквівалентності. Але зрозуміло, що будуть існувати зображення, які не відповідають жодній літері. Отже, в кожній множині матриць мають існувати такі елементи, які не повинні потрапляти до жодного з класів еквівалентності. Тому, щоб зберегти усі побудовані конструкції, до множини еталонів {Et}tT додають фіктивний еталон, який позначають Е0 – він буде представляти той клас еквівалентності, до якого попадають зображення, що не є літерами.
Отже нашу задачу розпізнавання можна перетворити в таку задачу класифікації. За множиною еталонних зображень {Et}tT потрібно побудувати канонічне відображення F, яке задає розбиття усіх можливих зображень на класи еквівалентності, такі, що зображення, які з людської точки зору відповідають одній літері, потрапляли б до одного класу.
Для розвязку такої задачі класифікації зручно [] застосувати модифіковану нейронну мережу Хопфілда, у якій кількість зв’язків залежить від кількості нейронів мережі не квадратично, а лінійно. Всі зображення, що можуть надходити на вхід мережі, представляються як бітові матриці розмірності m n. Для кожного класу одна з можливих 2mn матриць є еталонною, тобто являє собою зображення тієї літери, яку мережа повинна розпізнавати – це окреме зображення в подальшому називається еталоном. На відміну від мережі Хопфілда, модифікована мережа налаштовується не на декілька, а лише на один еталон.
За еталоном будується нейроноподібна мережа, що містить mn нейронів, кожен з яких однозначно відповідає деякому біту вхідного зображення. Будемо позначати як Nij той нейрон, що відповідає біту зображення з координатами (i,j), i=, j=. Нейрони зв’язані між собою за наступним правилом: між нейронами Nij та Nkl є зв’язок, якщо або . Фактично це означає, що зв’язуються між собою ті нейрони, які відповідають сусіднім бітам зображення .
Мал. 31. 3. Структура модифікованої мережі. Стрілками зображено вісім зв’язків центрального нейрона.
На відміну від мережі Хопфілда, зв’язки тут не є симетричними – тобто, якщо між нейронами Nij та Nkl є зв’язок, то насправді це два різні зв’язки:
Мал.31.4. Зв’язки модифікованої мережі: t(ij)-(kl) t(kl)-(ij)
За еталонним зображенням кожний нейрон Nij “запам’ятовує” відповідний йому біт (i,j). Це запам’ятоване значення в подальшому будемо називати еталонним бітом нейрона.
Як можна проінтерпретувати таке з’єднання нейронів? Нехай на вхід мережі подано деяке зображення з множини . Кожному нейрону у цьому зображення відповідає деякий біт. Якщо порівняти його з еталонним бітом цього нейрона, можливі чотири випадки:
Значення еталенного біту | Значення біту зображення | Точна впевненість нейрона
0 | 0 | 1
0 | 1 | 0
1 | 0 | 0
1 | 1 | 0
Початковою впевненістю нейрона називають міру співпадання між відповідним бітом зображення та еталонним бітом нейрона. Чому саме “початкова” впевненість – тому, що