Розробка моделі нейромережевої автоасоціативної пам"яті на основі нечітких базисних функцій. Удосконалення методу самонавчання тришарової нейронної мережі. Підвищення точності та швидкості прогнозування й ідентифікації нелінійних нестаціонарних об"єктів.
При низкой оригинальности работы "Нейро-фаззі моделі та системи, що самонавчаються, у задачах інтелектуального аналізу даних", Вы можете повысить уникальность этой работы до 80-100%
Системи, побудовані шляхом поєднання нейромережевого підходу і нечіткої логіки, що називаються нейро-фаззі системами, дозволяють істотно розширити функціональні можливості і коло задач, що вирішуються. В межах зазначених тем здобувачкою як виконавцем запропоновано удосконалені методи самонавчання відомих нейронних мереж для зниження розмірності даних, удосконалено нейромережеві BSB-та GBSB-моделі, розроблено моделі нечіткої нейромережевої автоасоціативної памяті, узагальненої регресійної нейро-фаззі мережі і адаптивного F-перетворення. Метою дисертаційної роботи є розробка нейро-фаззі моделей та систем, що самонавчаються, для таких задач інтелектуального аналізу даних, як зниження розмірності простору ознак вихідних даних, запамятовування та відновлення даних, відтворення функціональних залежностей нестаціонарних нелінійних обєктів за умов невизначеності у послідовному режимі обробки. Розроблені в дисертаційній роботі методи зниження розмірності даних, запамятовування і відновлення даних, а також відтворення функціональних залежностей за умов поточної і апріорної невизначеності, що засновані на нейромережевих та нейро-фаззі методах та моделях, можуть бути використані в різних галузях, де дані представлено в числовій формі у вигляді таблиць «обєкт-властивість» або часових рядів у режимі послідовної або пакетної обробки. У публікаціях, написаних у співавторстві, авторці належить: [1] - модель і метод самонавчання формального нейрона на основі поліноміальної функції активації; [2] - метод навчання локальних предикторів з використанням поліноміальної функції активації; [4] - BSB-і GBSB-нейромоделі з використанням нечітких функцій належності та адаптивний метод їх самонавчання; [5, 16] - метод нечіткої кластеризації стиснених даних; [6] - модель та метод самонавчання нейромережевої автоасоціативної памяті на основі нечітких базисних функцій; [7, 25] - адаптивне F-перетворення; [8, 27] - метод навчання узагальненої регресійної нейро-фаззі мережі; [10] - метод самонавчання тришарової нейронної мережі на основі поліноміальної функції активації, [13] - модель модифікованого нейрона Оя; [14] - розвязано задачу зниження розмірності за допомогою автоасоціативної тришарової мережі на основі поліноміальної функції активації; [15] - метод самонавчання BSB-моделі, що має високу швидкодію та фільтруючі властивості; [17] - модифікований метод самонавчання нейронної мережі Хебба-Сенгера, [18] - розвязано задачу обробки медико-біологічних даних за допомогою нечіткої BSB-нейромоделі, [19] - модифіковане правило самонавчання нейронної мережі Оя-Карунена; [20, 22] - правило навчання модифікованого нейрона Оя; [21] - метод нечіткої кластеризації за допомогою BSB-нейромоделі; [23] - швидкодіючий адаптивний алгоритм самонавчання ієрархічної штучної нейронної мережі Рубнера-Шультена-Тевена; [24] - адаптивне правило для аналізу мінімальних компонент, що має високу швидкодію і згладжуючі властивості; [26] - модель узагальненої регресійної нейро-фаззі мережі.Проведено аналіз існуючих методів навчання і самонавчання штучних нейронних мереж, які застосовуються для вирішення задач зниження розмірності простору ознак даних. Було показано, що на квадраті функція (1) задовольняє всім вимогам, що висуваються до сигмоїдальних функцій активації, але має при цьому квадратичні похідні по настроюваних параметрах, що, в свою чергу, дозволяє спростити чисельну реалізацію процедури навчання. Алгоритм навчання цієї мережі є процедурою настроювання трьох матриць синаптичних ваг, починаючи з вихідного (третього) шару і має вигляд: (3) де - приріст вектора синаптичних ваг на k-му кроці; У дисертаційній роботі запропоновано модифіковану модель послідовної нейронної мережі Хебба-Сенгера та оптимальний за швидкодією алгоритм навчання цієї мережі для обчислення множини головних компонент: (6) де - параметр, що забезпечує компроміс між слідкуючими та фільтруючими властивостями алгоритму. У четвертому розділі запропоновано модель нейромережевої автоасоціативної памяті на основі нечітких базисних функцій, модель узагальненої регресійної нейро-фаззі мережі, модель адаптивного F-перетворення на основі узагальненої регресійної нейронної мережі та удосконалено нейромережеві BSB-і GBSB-моделі шляхом введення нечітких функцій належності.У дисертаційній роботі представлено результати, що є відповідно до поставленої мети вирішенням актуальних задач інтелектуального аналізу даних за допомогою нейро-фаззі систем та моделей, що самонавчаються. Удосконалено метод самонавчання тришарової автоасоціативної нейронної мережі для зниження розмірності простору ознак даних шляхом введення поліноміальної функції активації, а також запропоновано модель цієї нейронної мережі. Нейронна мережа з запропонованим методом самонавчання має можливість працювати за умов нелінійності і нестаціонарності вхідних даних, проте складається виключно з лінійних елементів, за рахунок чого, розроблений метод самонавчання має підвищену швидкодію. Удосконалено нейромережеві BSB-та GBSB-моделі, за рахунок
План
ОСНОВНИЙ ЗМІСТ РОБОТИ
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы