249
В соответствии с выбранной структурой, синтезируя нейронную
сеть, необходимо определить 50 параметров: 30 весовых коэффици-
ентов
ji
α , характеризующих связи между нейронами входного слоя
и нейронами скрытого слоя, 10 коэффициентов сдвига и 10 коэф-
фициентов
j
β , характеризующих преобразование сигналов от нейро-
нов скрытого слоя к выходному. То есть поиск необходимых значе-
ний коэффициентов необходимо вести в 50-мерном пространстве.
Выбор значений весовых коэффициентов и сдвигов может быть
произведен несколькими методами. Например, методом Монте-
Карло, (т.е.
методом случайных чисел) задается сочетание интересу-
ющих нас параметров
11
1
1
(
,...
,... ,... ,... ,... )
ji
n
n
α
α
β
β
ϕ
ϕ . Для каждого из
сочетаний параметров по математической модели электромеха-
нической системы с нейроконтроллером, на компьютере рассчиты-
вается динамический процесс, и определяются интересующие нас
динамические показатели. Далее в соответствии с
методом градиент-
ного спуска даются приращения тем или иным весовым коэффици-
ентам и вновь определяются вышеуказанные динамические показате-
ли. Выбрав направление изменения весовых коэффициентов, дающее
наилучшее изменение динамических показателей продолжают изме-
нение весовых
коэффициентов до тех пор, пока не получат
наилучшие из них.
Процесс синтеза весовых коэффициентов можно было бы вести,
задав предварительно, желаемый вид переходного процесса для
типового управляющего или возмущающего воздействия. При этом
можно в заданные моменты времени вычислять отклонение выход-
ной координаты от значений эталонной модели и методом градиент-
ного спуска, определять весовые коэффициента обеспечивающие,
например, минимум среднеквадратичной ошибки. Этот метод носит
название BACK PROPACATION (метод обратного расчета ошибки).
Его недостаток – нет уверенности, что полученный результат
наилучший. Действительно, допустим нас интересует минимум
какого-то динамического параметра
λ, а его зависимость от весового
коэффициента
i
α имеет вид, показанный на рис. 7.28.
В
зависимости от исходного значения
1
α расчет по выше
приведенному методу может привести нас в точки экспериментов 1,
3, 4 (но не в
наилучшую точку – 2). Чтобы избежать этого задают
большое число сочетаний значений весовых коэффициентов, охваты-
250
вая как можно большую область параметров, что, конечно, усложня-
ет и затягивает расчет.
λ
i
α
Рис. 7.28. К определению глобального экстремума
Существуют и другие методы синтеза (обучения) нейронной
сети; например, обучение с наблюдением (Supervised learning), обу-
чение без наблюдения (Unsupervised learning).
Опишем более подробно еще один из
эффективных методов
синтеза (обучения) нейронной сети, обеспечивающей нахождение
глобального
Достарыңызбен бөлісу: