Задача целенаправленной предобработки обучающей выборки для ускорения обучения нейросети. Значение константы Липшица выборки, как индикатор сложности выборки. Показатели зависимости свойств обученных нейронных сетей от величины константы Липшица выборки.
Аннотация к работе
Индикатором сложности выборки служит значение константы Липшица выборки. Предобработка данных является важным шагом при применении обучаемых с учителем нейросетей [1,2] и определяет скорость обучения, величины ошибок обучения и обобщения и иные свойства сети. Поскольку КЛ выборки определяется примерами с разными ответными и близкими входными частями, то целенаправленно предобрабатывать нужно входные признаки, имеющие различные значения для этих конфликтных примеров. Расчет КЛ требует порядка (n m)N2 операций, где N, n, m ? число примеров выборки, входных и выходных сигналов сети соответственно. При непересекающихся классах возможно обучение на малом предварительно отобранном наборе наиболее близких друг к другу примеров разных классов ? примеров, между которыми и должна проходить разделяющая поверхность [7,8].? c.3-8. целевые функции с допуском на точность решения примера позволят эффективно оценивать [4] максимальное собственное число матрицы вторых производных целевой фунции по параметрам сети только для начальных итераций обучения, так как затем все большее число примеров будет укладываться в допуск по точности, и все меньшее число недостаточно точно решенных примеров можно будет использовать для оценивания.