Формирование выборок для решения задачи автоматизации диагностики хронического обструктивного бронхита. Разработка программного обеспечения, реализующее предложенные показатели, проведение экспериментов по исследованию их свойств. Качество нейромодели.
Аннотация к работе
Восточно-Европейский журнал передовых технологий ISSN 1729-3774 5/4 (71 ) 2014 Оценка координат астероида на дискретном изображении [Текст] / А. М.Теория статистических выводов [Текст]: пер. с англ. Numbered-Residuals Statistics For Observatory Codes [Electronic resource] / Available at: http://www. minorplanetcenter.net/iau/special/residuals2.txt Запропоновано метод формування навчальних вибірок, який дозволяє охарактеризувати індивідуальну інформативність зразків відносно центрів і меж інтервалів ознак. Це дозволяє автоматизувати аналіз вибірки і її поділ на підвибірки, і, як наслідок, скоротити розмірність навчальних даних. Предложен метод формирования обучающих выборок, позволяющий охарактеризовать индивидуальную информативность экземпляров относительно центров и границ интервалов признаков.Раздельная реализация данных процедур на основе trialчных методов приводит к существенным затратам времени, поскольку при таком подходе информация о выборке, получаемая в результате промежуточных вычислений в одной процедуре, как правило, не используется в другой. Пусть задана исходная выборка в виде набора прецедентов , где x={xs}, xs - s-й экземпляр выборки, x={xj}, xs={xsj}, xj={xsj}, xsj - значение j-го диагностического признака xj, характеризующее экземпляр xs, y={ys}, ys - значение выходного признака, сопоставленное экземпляру xs, s=1, 2, ..., S, S - число экземпляров в исходной выборке, j=1, 2, ..., N, N - число диагностических признаков, характеризующих выборку. Данные методы в зависимости от стратегии формирования решений разделяют на методы с добавлением (incremental methods) [4-6] (последовательно добавляют экземпляры из исходной выборки в формируемую подвыборку) и методы с удалением (decremental methods) [7, 8] (последовательно удаляют экземпляры из исходной выборки, получая в итоге подвыборку). Также отдельно выделяют методы фильтрации шума (noise filtering methods) [9, 10] (удаляют экземпляры, метки классов которых не совпадают с метками большинства соседних экземпляров), методы конденсации (condensation methods) [11, 12] (добавляют экземпляры из исходной выборки в формируемую подвыборку, если они несут новую информацию, но не добавляют, если они имеют те же метки классов, что и соседние с ними экземпляры) и методы на основе стохастического поиска [11, 13, 14] (случайным образом формируют подвыборку из исходной выборки, возможно перебирая некоторое множество вариантов и отбирая наилучший из них). Среди данных методов выделяют методы на основе кластер-анализа (cluster analisys based methods) [15, 16] (заменяют исходную выборку центрами ее кластеров), методы преобразования сжатием (data squashing methods) [17] (заменяют экземпляры исходной выборки на получаемые на их основе искусственные прототипы, имеющие веса) и нейросетевые методы (neural network based metods) [18, 19] (на основе исходной выборки обучают нейронную сеть, из которой затем извлекают центры кластеров как экземпляры формируемой подвыборки).