Базові архітектури та методи навчання статичних та динамічних штучних нейронних мереж для розв’язання задач апроксимації, фільтрації, ідентифікації та класифікації. Метод автоматичної побудови адаптивної схеми дискретизації вхідних сигналів у ШНМ СМАС.
Обрана тема дисертаційної роботи є актуальною, тому що штучні нейронні мережі (ШНМ) протягом останнього часу переконливо довели свою ефективність при вирішенні різноманітних задач адаптивної обробки інформації, таких як апроксимація нелінійних функцій, класифікація, управління, фільтрація сигналів та зображень тощо. Але, як показали досліди у цьому напрямку, застосування спеціальних методик (таких, як адаптивна дискретизація вхідного простору змінних, оптимізовані процедури навчання мереж, побудова спеціальних нейромережних структур) дозволяє, якщо не запобігти, то значною мірою зменшити негативний вплив зростання вимірності вхідного простору ШНМ, що й обумовило напрямок досліджень дисертаційної роботи. Тема дисертаційної роботи й отримані результати відповідають проблематиці держбюджетної теми № ДР 0101U001762 "Розробка теоретичних основ та математичного забезпечення нейро-фаззі систем ранньої діагностики, прогнозування та моделювання в умовах апріорної і поточної невизначеності", що виконується у Харківському національному університеті радіоелектроніки, і в якій автор брав участь як виконавець. Методи дослідження базуються на теорії обчислювального інтелекту, зокрема на методах теорії ШНМ, яка дозволила побудувати нейромережні моделі та отримати процедури їх навчання; та на теорії оптимальності, за допомогою якої синтезовані швидкісні процедури навчання. В роботах, написаних із співавторами, здобувачу належать: в [1] - запропоновані параболічні базисні функції для ШНМ СМАС, дослідження впливу форми базисних функцій і архітектури СМАС на її апроксимуючі властивості під час роботи з багатовимірними функціями; в [2 - 4, 9 - 11] - дослідження та удосконалення модульних моделей ШНМ СМАС, порівняльний аналіз відновлення багатовимірних функцій за наявності вад за допомогою мережі СМАС, багатошарового персептрона (БП) та радіально-базисних мереж (РБМ) різноманітних архітектур, розробка практичних рекомендацій щодо вибору типу й архітектури нейронних мереж залежно від умов задачі, що розвязується; в [5] - розробка методу автоматичної побудови адаптивної схеми дискретизації вхідних сигналів ШНМ СМАС на основі коефіцієнта подібності Грея; в [6, 13, 14] - дослідження впливу вибору архітектури БП на його апроксимуючі властивості, аналіз методів адаптивної оптимізації архітектури БП; в [7] - дослідження динамічних КІХ-мереж, розробка удосконалених процедур навчання багатовимірних динамічних нейронних мереж прямого поширення; в [8] - пошук методу навчання ШНМ СМАС, який ефективно працює в умовах наявності завад вимірів; в [12] - вибір оптимального методу навчання БП у задачі апроксимації багатовимірних функцій; в [15, 16] - запропоновано удосконалену модель навчання рекурентних та модульних ШНМ за рахунок використання внутрішніх залежностей між параметрами, що настроюються.Так, проведено аналіз існуючих архітектур статичних та динамічних ШНМ, які використовуються для розвязання різноманітних задач ідентифікації, фільтрації, відновлення, прогнозування, класифікації як статичних так і динамічних нелінійних обєктів. У разі використання ШНМ, розвязання різноманітних задач апроксимації та фільтрації зводиться до налаштування параметрів нейронних мереж за допомогою певної процедури навчання. Відзначено, що для багатьох типів нейронних мереж із збільшенням кількості вхідних змінних обчислювальні витрати та обсяг памяті ваг зростають експоненційно. Розповсюдженню нейронних мереж СМАС сприяла їх здатність до швидкого навчання, здатність до узагальнення, фільтрації та відновлення за наявності вад сигналу, а також простота апаратної реалізації. При цьому витрати памяті мережі MHCMAC зростають лінійно зі зростанням кількості вхідних змінних, на відміну від HCMAC, де витрати памяті зростають зі степенем двійки граничного логарифму кількості вхідних змінних.Тому моделювання ШНМ здійснювалося у середовищі MATLAB 7 з використанням ПЕОМ на базі процесорів Intel Pentium4 та Intel Core2 Quad під управлінням ОС GNU/Linux. Розглянуто задачу відновлення багатовимірних функцій за наявності вад вимірів. Відзначено гнучкість і універсальність БП, а також високу швидкість навчання та ефективність ієрархічних нейронних мереж HCMAC. Результати моделювання показали, що зі збереженням постійної кількості звязків усередині мережі (обєму памяті), БП з двома прихованими шарами є оптимальними, адже вони у багатьох випадках забезпечують більшу точність апроксимації та менший час навчання, ніж БП з іншою кількістю прихованих шарів. Результати свідчать про високу ефективність динамічних КІХ-мереж, проте за рахунок значного ускладнення процедур навчання мережі, обумовленого застосуванням синаптичних КІХ-фільтрів, час навчання мережі збільшується приблизно у чотири рази. нейронний мережа апроксимація ідентифікаціяУ дисертації наведено результати, які, відповідно до мети дослідження, у сукупності є розвязанням актуальної науково-практичної задачі, повязаної з адаптивною обробкою інформації у реальному часі. Вивчено базові архітектури і методи навчан
План
Основний зміст роботи
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы