(ламповий) комп’ютер. За 55 років розвитку потужність і пам’ять комп’ютерів виросли у десятки мільйонів (!) разів. Вартість однієї логічної операції знизилася у декілька мільйонів разів. Об’єм процесорів – в тисячі разів. Комп’ютерна еволюція іде по класичній експоненті: кожні 1,5-2 роки потужність і пам’ять комп’ютерів подвоюються.
Історія вітчизняної обчислювальної техніки добре викладена свідком і учасником робіт по створення перших ЕОМ Б.М.Малиновським. Слід відмітити, що задачі розпізнавання образів і в тому числі задачі діагностування були сформульовані ще за часів ЕОМ першого покоління. А для реалізації деяких з них (наприклад, “космічна інспекція” – розпізнавання (класифікація) ворожих супутників на боту космічного корабля) розроблялися спеціальний процесор.
Науково-технічна революція породила велику кількість складних технічних систем, котрі у своїй сукупній дії сприяють підвищенню ризику в житті людства. Загрози від техносфери стали в категоріях збитків для людини порівняними із негативними природними впливами (землетруси, смерчі, цунамі). Загострилася проблема надійності та безпеки функціонування техніки. Тому нормальним супроводом довільного складного процесу мали стати системи діагностування. Так задачі технічного діагностування були сформульовані в теорії розпізнавання образів.
Реалізація архітектурних принципів побудови комп’ютерів, відомих як принципи фон Неймана, відкрила еру обчислювальної техніки. Їх п’ять.
Перший принцип – максимально можлива простота процесора і пов’язана з нею простота машинної мови системи команд ЕОМ.
Другий принцип – послідовне (командно-адресне) управління обчислювальним процесом, при котрому команди вибираються з оперативного запам’ятовуючого пристрою (ОЗП) і виконуються (в процесорі) послідовно одна за одною. Данні (операнди) для кожної команди зберігаються у тому ж самому ОЗП за адресами, що вказані в команді. Взаємозв’язок (інтерфейс) процесора і ОЗП обмежує можливості цих пристроїв, являючись своєрідним “вузьким горлом” всієї архітектури фон Неймана.
Третій принцип – адресна організація ОЗП з послідовною (лінійною) структурою адрес з фіксованим розміром ячеєк. Така організація ОЗП погано погоджується із складними структурами даних, котрі характерні для більшості задач, що розв’язуються на сучасних ЕОМ.
Четвертий принцип – використання процесора для управління всіма допоміжними операціями, що забезпечують обчислювальний процес: обмінами між ОЗП і зовнішньою пам’яттю, а також введенням/виведенням інформації.
І, нарешті, п’ятий принцип – жорсткість архітектури, що виключає довільні зміни конфігурації сукупності пристроїв, що входять до складу ЕОМ як з точки зору зміни складу пристроїв, так і з точки зору зміни взаємозв’язків між ними.
Однак архітектура універсальних ЕОМ перших поколінь стримувала широке впровадження методів комп’ютерного діагностування, котрі в свою чергу сприяли порушенню фон нейманівських принципів. Яскравим прикладом стала проблема вібро-акустичного діагностування в реальному часі функціонального стану космічних ракетних двигунів (реальний час функціонування 50 сек., умовний час розвитку аварії – 70 мс, інтервал часу між двома черговими діагностичними висновками – 20 мс, 50 інформаційних вібро-акустичних сигналів з давачів на корпусі двигуна, на кожному з котрих обчислювалися 50 неперервних діагностичних ознак, котрі після дискретизації мали по 50 значень). Реалізація такої діагностичної задачі на комп’ютерах із фон нейманівською архітектурою являла собою значну проблему.
Добре відомі спроби розроблення комп’ютерів наступних поколінь із порушенням принципів фон Неймана (повністю чи частково).
У 1994 році спеціалісти передбачали, що суперкомп’ютер потужністю в 1 терафлопс (1012 операцій за секунду) з’явиться у 2004 р., а він створений компанією “Інтел” у грудні 1996 р.
У 1998 р. по замовленню Міністерства енергетики США фірма ІВМ створила суперкомп’ютер “Пасифік блю” потужністю 4 терафлопса, котрий працює як 15 тисяч персональних комп’ютерів, а об’єм його пам’яті у 80 тисяч разів більше ніж у “персоналок” (цієї пам’яті досить для зберігання повних текстів всіх 17 мільйонів книжок, зібраних в Бібліотеці Конгресу США).
У 2000 році по замовленню того ж Міністерства енергетики США був створений суперкомютер “White Version” потужністю 10 терафлопсів вартістю 85 мільйонів доларів.
На початку 2000 р. фірма ІВМ офіційно об’явила про те, що виділяє 100 мільйонів доларів на створення суперкомп’ютера у 1000 терафлопсів під назвою “Блю Джин” і планує закінчити цей проект до 2005 року. Такий суперкомп’ютер буде мати висоту всього два метри і займати площу 4 м2. Швидкодія, що планується, - мільярд мільярдів операцій за секунду, що еквівалентне сукупній дії двох мільйонів сучасних персональних комп’ютерів. “Блю Джин” буде у 1000 разів потужнішим, ніж знаменитий “Дип блю” (1 терафлопс), котрий у 1997 р. обіграв чемпіона світу з шахів Гарі Каспарова.
Через 10-15 років потужності в 1 терафлопс досягнуть вже персональні комп’ютери при тій же вартості у 1-1,5 тисяч доларів.
Що ж може протиставити цьому людський мозок? Людський мозок вміщує біля 10 мільярдів нейронів, що виконують функції логічних елементів та пам’яті. Швидкодія цих елементів, основана на хімічній природі, невелика – біля 1/100 секунди, і швидкість передачі інформації мала – порядку 30 м/сек.. Це не йде в жодне порівняння з електронним чіпом, що здійснює порядку мільярда операцій в секунду та передає сигнали електричним струмом із швидкістю біля 300 тисяч км/сек.
Отже, безперечно майбутнє за думаючими машинами. І принцип їх роботи має відрізнятися від сучасних комп’ютерів.
У 1936 році Алан Т’юрінг описав деяку математичну машину, котру потім назвали його ім’ям. Т’юрінг довів, що скільки завгодно складні обчислення можна виконувати за допомогою логічних елементів всього трьох типів. Пройшло не так вже багато часу, і придумана машина перетворилася в реальну. Причиною тому послужила Друга світова війна. Якщо б не війна, можливо, люди ще б не одне десятиріччя рахували б на арифмометрах. Проте вимагалися складні балістичні розрахунки, прогнози погоди, дешифровка ворожих шифрів... Перший електронний