Задача целенаправленной предобработки обучающей выборки для ускорения обучения нейросети. Значение константы Липшица выборки, как индикатор сложности выборки. Показатели зависимости свойств обученных нейронных сетей от величины константы Липшица выборки.
При низкой оригинальности работы "Оптимизация предобработки данных: константа Липшица обучающей выборки и свойства обученных нейронных сетей", Вы можете повысить уникальность этой работы до 80-100%
Индикатором сложности выборки служит значение константы Липшица выборки. Предобработка данных является важным шагом при применении обучаемых с учителем нейросетей [1,2] и определяет скорость обучения, величины ошибок обучения и обобщения и иные свойства сети. Поскольку КЛ выборки определяется примерами с разными ответными и близкими входными частями, то целенаправленно предобрабатывать нужно входные признаки, имеющие различные значения для этих конфликтных примеров. Расчет КЛ требует порядка (n m)N2 операций, где N, n, m ? число примеров выборки, входных и выходных сигналов сети соответственно. При непересекающихся классах возможно обучение на малом предварительно отобранном наборе наиболее близких друг к другу примеров разных классов ? примеров, между которыми и должна проходить разделяющая поверхность [7,8].? c.3-8. целевые функции с допуском на точность решения примера позволят эффективно оценивать [4] максимальное собственное число матрицы вторых производных целевой фунции по параметрам сети только для начальных итераций обучения, так как затем все большее число примеров будет укладываться в допуск по точности, и все меньшее число недостаточно точно решенных примеров можно будет использовать для оценивания.
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы