«1С:Предприятие 8» базасында қорларға деген қажеттілікті болжамдау процесінде
компьютерлік технологияларды қолдануды жетілдіру және практикасы
Түйіндеме. Мақаланың тақырыбы логистика саласында қорларды басқарумен байланысты өзекті
проблемалардың шешілуіне кешенді тәсілдің орындылығы жағдайында маңызды және өндірістік кәсіпорындар,
сауда компаниялары үшін, сондай-ақ автоматтандырылған басқару жүйесінің көмегімен қорларға деген
қажеттіліктерді жоспарлау және оларды сатып алу процестерін тиімді етуді қажет ететін кәсіпорындар үшін
қызығушылық тудыруы мүмкін.
Түйін сөздер: қажеттілікті болжамдау процесінде «1С:Сауда кәсіпорнын басқару», тапсырыстың нүктесі,
жоспарла- көмекшісі, күнтізбелік сатып алу жоспары.
M.B. Auganbayeva
Improvement and practical usage of computer technology in inventory demand
forecasting process in 1S: Predpriyatie 8.
Summary. Theme of the article is relevant in case of comprehensive approach towards solution of key problems
in logistics, and it can be of interest to manufacturing or trading companies, and any other organizations that need to
optimize their inventory management processes using automated management systems.
Key words: demand forecasting process, “1S: Trading Company Management”, point of order, assistant
planning, procurement schedule.
200
УДК: 519.7; 519.66; 57.087.1, 612.087.1
Ахметов Б.С
1
., Иванов А.И.
2
, Малыгин А.Ю.
3
, Качалин С.В.
3
, Сейлова Н.А.
1
1
Казахский национальный технический университет имени К.И. Сатпаева
2
Пензенский научно-исследовательский электротехнический институт
3
Пензенский государственный университет
г. Алматы, Республика Казахстан
seilova_na@mail.ru
МОРФИНГ-РАЗМНОЖЕНИЕМ ПРИМЕРОВ РОДИТЕЛЕЙ В НЕСКОЛЬКИХ
ПОКОЛЕНИЯХ ПРИМЕРОВ ПОТОМКОВ
Аннотация. Рассматривается задача создания специальных математических приемов, позволяющих
корректно увеличивать размеры обучающей выборки, используемых для обучения искусственных нейронных
сетей. Для заполнения пробелов в гистограмме биометрических данных применяются генетические алгоритмы
размножения примеров, реализованные по ГОСТ Р 52633.2-2010. Показано, что можно отказаться от
использования «мутаций» данных, заменив их более понятной процедурой морфинг-экстраполяции. Даны
условия, при которых применение генетического алгоритма не приводит к сжатию или расширению
многообразия размножаемых биометрических данных.
Ключевые слова: выборка биометрических данных, искусственные нейронные сети, генетические
алгоритмы, морфинг-размножение.
Практика показывает, что маленькие нейронные сети хорошо учатся, но бесполезны, так как
принимаемые ими решения оказываются много хуже, чем решения человека. Большие нейронные
сети очень плохо учатся. Необходимы специальные меры [1,2], делающие алгоритмы обучения
быстрыми и устойчивыми.
Одной из причин неустойчивости множества существующих алгоритмов обучения
искусственных нейронных сетей [1] является ошибка дискретизации непрерывных (континуальных)
биометрических данных, возникающая из-за их представления малым числом примеров в обучающей
выборке. Практика показывает, что стандартный алгоритм обучения [5] начинает хорошо работать
при наличии 20-30 примеров биометрического образа «Свой» в обучающей выборке. В этом
отношении стандартный обучающий автомат [1, 2] работает много хуже, чем учится человек.
Человеку для эффективного обучения достаточно предъявить 2-3 примера одного и того же
биометрического образа «Свой». В этом отношении нейросетевой искусственный интеллект имеет
существенные резервы по снижению размеров обучающей выборки.
В связи с вышеизложенным возникает задача создания специальных математических приемов,
позволяющих корректно увеличивать размеры обучающей выборки, например, скрещиванием
примеров-родителей и получения примеров-потоков по российскому национальному стандарту [2]. В
режиме обучения нейросетевого преобразователя биометрия-код пользователь должен предъявить 21
пример биометрического образа «Свой», из которых затем были извлечены 416 биометрических
параметров 1, 2.
Для
морфинг-размножения
примеров
разобьем
динамический
диапазон
первого
биометрического параметра – v
1
на 10 интервалов, исходя из усредненного 2-кратного попадания
контролируемых значений в каждый из интервалов. Пример одной из получившихся гистограмм
распределения биометрических данных приведен на рисунке 1.
Из данных рисунка 1 видно, что второй и третий интервалы гистограммы оказались пустыми
(не содержат отсчетов). Необходимо получить новый пример-потомок-22 для которого параметр - v
1
попадет в центр пустующего интервала гистограммы. На рисунке 1 положение синтезированного
примера-потомока-22 отображено квадратом с темной заливкой.
201
Рисунок 1– Получение одного примера-потомка от наиболее
далеких примера-родителя-14 и примера-родителя-18 биометрического образа «Свой»
Российский национальный стандарт 2 рекомендует скрещивать наиболее разнесенные (не
похожие) данные. Для первого биометрического параметра наибольшее значение дает 18-пример,
наименьшее значение параметра v
1
дает пример -14. Легко можно вычислить расстояние между крайними
примерами (v
1,18
-v
1,14
), а так же расстояния между примером-потомком-22 и примерами-родителями. То
есть можно вычислить коэффициент похожести потомка-22 на первого и второго родителя:
18
,
1
14
,
1
22
,
1
18
,
1
1
2
18
,
1
14
,
1
22
,
1
14
,
1
1
v
v
v
v
)
1
(
,
v
v
v
v
(1)
Одним из требований к синтезируемым примерам-потомкам является то, что добавление новых
(синтетических) образов должно сохранять характерные для данных образа «Свой» корреляционные
связи 1 – 7. Этого удается добиться, если синтезировать все данные одного примера с расстояниями
пропорциональными расстояниям по первому параметру – v
1
. Это удается сделать, если образ
потомок всегда располагать между данными примеров-родителей на расстояниях пропорциональных
коэффициентам подобия (1). Пример работы алгоритма такого получения данных для второго
параметра – v
2
приведен на рисунке 2.
Рисунок 2 – Получение примера-потомка от примера-родителя-14 и примера-родителя-18 биометрического
образа «Свой» при наследовании расстояний до родителей от биометрического параметра v
1
202
Расстояние по i-му параметру – v
i
до образа потомка легко вычислимо. Если минимальным
оказывается значениеi-го параметров первого родителя, то для примера-потомка-22 следует задать
значение:
1
18
,
i
14
,
i
14
,
i
22
,
i
v
v
v
v
(2).
Если минимальным оказывается значение i-го параметров второго родителя, то для примера-
потомка-22 следует задать значение:
)
1
(
v
v
v
v
1
18
,
i
14
,
i
18
,
i
22
,
i
(3).
Очевидно, что подобные вычисления можно проделать для каждого из оставшихся 415
параметров примера-потомка-22. Затем мы можем повторить процедуру, синтезировав морфингом
23-тий пример-потомок. При этом нужно построить новые гистограммы для уже имеющихся 22
примеров и ориентироваться на заполнение пустот в любой из гистограмм, исключая первую
гистограмму. Каждый новый искусственный пример-потомок следует создавать, заполняя пробел в
одной из 416 гистограмм. Пользуясь этой тактикой, можно создать дополнительных 416 примеров-
потомков, каждый раз заполняя пробел в какой-то из гистограмм распределения 416-ти параметров.
Практика показала, что пробелы в практически гистограммах исчезают при 30-50 примерах образа
«Свой».
Описанную выше процедуру размножения биометрических данных следует рассматривать как
один из вариантов бутстрап предобработки [8] или многомерную морфинг интерполяцию. Именно
интерполяцию, так как новые данные всегда размещаются между данными примеров-родителей.
ЛИТЕРАТУРА
1. Волчихин В.И., Иванов А.И., Фунтиков В.А., Назаров И.Г., Язов Ю.К. Нейросетевая защита
персональных биометрических данных. // М.: Радиотехника, 2012., 157 с., ISBN 978-5-88070-044-8.
2. ГОСТ Р 52633.5-2011 «Защита информации. Техника защиты информации. Автоматическое обучение
нейросетевых преобразователей биометрия-код доступа».
3. ГОСТ Р 52633.2-2010 «Защита информации. Техника защиты информации. Требования к
формированию синтетических биометрических образов, предназначенных для тестирования средств
высоконадежной биометрической аутентификации»
4. B. Akhmetov, A. Ivanov, V. Funtikov, I. Urnev Evaluation of Multidimensional Entropy on Short Strings of
Biometric Codes with Dependent Bits. «Progress in Electromagnetics Research Symposium» PIERS Proceedings,
August 19-23, Moscow, RUSSIA 2012, p.66-69.
5. B. Akhmetov, A. Doszhanova, A. Ivanov, T. Kartbaev and A. Malygin “Biometric Technology in Securing
the Internet Using Large Neural Network Technology. World Academy of Science, Engineering and Technology. Issue
79, July, 2013, Singapore, p. 129-138, pISSN 2010-376X, eISSN 2010-3778, www.waset.org.
6. Ахметов Б.С., Надеев Д.Н., Урнев И.В. Сериков И.В. Аппроксимация биномиального зависимого
закона композициями нормального, равномерного, арксинусного распределения значений М.: Радиотехника,
«Нейрокомпьютеры: разработка, применение», №3, 2012. С. 17-20.
7. Ахметов Б.С., Иванов А.И., Урнев И.В., Сериков И.В., Газин А.И. Оценка значений числа степеней
свободы статистик описания выходного кода преобразователя биометрия-код при использовании
распределения
2
, Алматы: Изд-во КазНТУ имени К.И. Сатпаева, http://portal.kazntu.kz/files/publicate/2013-04-
05-elbib.pdf
8. Болл Р.М., КоннелДж.Х., Панканти Ш., Ратха Н.К., Сеньор Э.У. Руководство по биометрии. Москва:
Техносфера, 2007. -368 с., ISBN 978-594836-109-3
REFERENCES
1. Volchihin V.I., Ivanov A.I., Funtikov V.A., Nazarov I.G., Jazov Ju.K. Nejrosetevaja zashhita personal'nyh
biometricheskih dannyh. // M.: Radiotehnika, 2012., 157 s., ISBN 978-5-88070-044-8.
2. GOST R 52633.5-2011 «Zashhita informacii. Tehnika zashhity informacii. Avtomaticheskoe obuchenie
nejrosetevyh preobrazovatelej biometrija-kod dostupa»
3. GOST R 52633.2-2010 «Zashhita informacii. Tehnika zashhity informacii. Trebovanija k formirovaniju
sinteticheskih biometricheskih obrazov, prednaznachennyh dlja testirovanija sredstv vysokonadezhnoj biometricheskoj
autentifikacii»
4. B. Akhmetov, A. Ivanov, V. Funtikov, I. Urnev Evaluation of Multidimensional Entropy on Short Strings of
Biometric Codes with Dependent Bits. «Progress in Electromagnetics Research Symposium» PIERS Proceedings,
August 19-23, Moscow, RUSSIA 2012, p.66-69.
203
5. B. Akhmetov, A. Doszhanova, A. Ivanov, T. Kartbaev and A. Malygin “Biometric Technology in Securing
the Internet Using Large Neural Network Technology. World Academy of Science, Engineering and Technology. Issue
79, July, 2013, Singapore, p. 129-138, pISSN 2010-376X, eISSN 2010-3778, www.waset.org.
6. Ahmetov B.S., Nadeev D.N., Urnev I.V. Serikov I.V. Approksimacija binomial'nogo zavisimogo zakona
kompozicijami
normal'nogo,
ravnomernogo,
arksinusnogo
raspredelenija
znachenij.
M.:
Radiotehnika,
«Nejrokomp'jutery: razrabotka, primenenie», №3, 2012. S. 17-20.
7. Ahmetov B.S., Ivanov A.I., Urnev I.V., Serikov I.V., Gazin A.I. Ocenka znachenij chisla stepenej svobody
statistik opisanija vyhodnogo koda preobrazovatelja biometrija-kod pri ispol'zovanii raspredelenija
2
. Almaty: Izd-vo
KazNTU imeni K.I. Satpaeva, http://portal.kazntu.kz/files/publicate/2013-04-05-elbib.pdf
8. Boll R.M., Konnel Dzh.H., Pankanti Sh., Ratha N.K., Sen'or Je.U. Rukovodstvo po biometrii. Moskva:
Tehnosfera, 2007. -368 s., ISBN 978-594836-109-3
Б.С. Ахметов
1
, А.И. Иванов
2
, Малыгин А.Ю.
3
, С.В. Качалин
2
, Сейлова Н.А.
1
Бірнеше буын ұрпақтар мысалдарында әке-шешенің мысалдарын морфинг-көбейту
Түйіндеме. Жасанды нейрон желілерінің тәлім-тәрбиелері үшін пайдаланатын биометриялық
деректердің талдау көлемінің аумақтауының сұрақтары қарастырылған.
Негізгі сөздер: биометриалық деректердің таңдауы, жасанды нейронды желілер, генетикалық
алгоритмдер, морфинг-экстраполяция.
B.S.Akhmetov
1
, Ivanov A.I.
2
, Malygin A.Yu.
3
, S.B. Kachalin
2
, N.A. Seilova
1
Morph-populating the example of parents in several generations examples of descendants
Summary. The problem of increasing sample biometric data used for training artificial neural networks.
Key words: biometrics, artificial neural networks, genetic algorithms, morph-extrapolation
УДК 004
Ахметов Б.С.
1
, Ахметова С.Т.
1
, Иванов А.И.
2
, Картбаев Т.С.
1
, Малыгин А.Ю.
3
1
Казахский национальный технический университет имени К.И.Сатпаева,
Казахстан, г.Алматы
2
ОАО «Пензенский научно-исследовательский электротехнический институт»,
Россия, г. Пенза
3
Пензенский государственный университет,
Россия, г. Пенза
kartbaev_t@mail.ru
ОПИСАНИЕ НЕ ИТЕРАЦИОННОГО АЛГОРИТМА ОБУЧЕНИЯ
ИСКУССТВЕННОГО НЕЙРОНА
Аннотация. В статье рассматривается вопросы обучения сети искусственных нейронов. Приводится
описание не итерационного алгоритма обучения искусственного нейрона.
Ключевые слова: биометрия, искусственный нейрон, биометрические приложения, не итерационный
алгоритм, обучение нейрона
Проблема обучения сети искусственных нейронов в биометрических приложениях состоит в
том, что этот процесс должен быть полностью автоматическим, т.е. человек-оператор не должен
участвовать в нем. Поэтому необходимо иметь абсолютно устойчивый автомат обучения, который
гарантированно мог бы обучить нейрон. Российский национальный стандарт 1 рекомендует
использовать не итерационные алгоритмы обучения. В данных алгоритмах нет необходимости
вычислять частные производные и полностью размыкается петля обратной связи по ним. Этот тип
алгоритмов построен на «угадывании» ожидаемого решения через угадывание наиболее вероятных
знаков при весовых коэффициентах и предсказании значений весовых коэффициентов 2.
Естественно, что при этом происходит определенное снижение качества обучения (нет
оптимизации качества), однако возникает эффект высокой устойчивости вычислений. При этом
устойчивость вычислений будет тем выше, чем больше входов у обучаемого нейрона. В результате
вместо «проклятия» размерности появляется противоположный эффект «благодати» высоких и
сверхвысоких размерностей 2 – 6.
Автомат угадывания знака весовых коэффициентов нейрона может быть построен на гипотезе
вырождения сумматора до одного входа. Перед этим автомат обучения должен принять решение, в
204
какую сторону он будет выталкивать образ «Свой» (вправо – R или влево – L). Будем считать, что нас
интересует R-выталкивание образа «Свой» из множества образов «все Чужие». Данная ситуация
отображена на рисунке 1 стрелкой.
Рисунок 1 – Решение о R выталкивании образов «Свой» из центра множества
образов «все Чужие»
Из данных, приведенных на рисунке 1 видно, что заведомый отказ от решения многомерной
задачи (у сумматора нейрона имеется только один вход) делает задачу выбора знака весового
коэффициента одного входа тривиальной. Так, в верхней части рисунка знак весового коэффициента
должен быть положительным, потому что математическое ожидание – E(v
1
) положительно. В нижней
части рисунка отображена обратная ситуация, математическое ожидание – E(v
2
) отрицательно. Для
эффективного R-выталкивания образа «Свой» необходимо сменить знак весового коэффициента
второго входа сумматора. В итоге для R выталкивания получается некоторая процедура предсказания
знака весовых коэффициентов у обучаемого нейрона:
).
E(v
)
E(
if
-
);
E(v
)
E(
if
знака
го
-
i
ие
предсказан
R
i
i
i
i
i
i
(1)
Очевидно, что если задаться обратной задачей выталкивания образа «Свой» в левую сторону из
множества образов «все Чужие», то получится инверсия R правила (1):
).
E(v
)
E(
if
-
);
E(v
)
E(
if
знака
го
-
i
ие
предсказан
L
i
i
i
i
i
i
(2)
На самом деле сложно точно указать тот или иной знак весового коэффициента обучаемого
нейрона с множеством входов. Точно вычислить этот знак невозможно, и он в процессе
итерационного обучения может несколько раз измениться, однако, примерное предсказание знака
весового коэффициента нейрона через использование выражений (1) и (2) вполне возможно.
Очевидно, что чем выше будет вероятность верного предсказания знака весового коэффициента
нейрона, тем устойчивее будем обучение нейрона 3.
Оценку эффективности предсказания знака весового коэффициента можно осуществить,
сравнивая знаки весовых коэффициентов обученного нейрона и знаки, полученные в результате
вычислений по формулам (1) и (2). Численный эксперимент показывает, что вероятность ошибочного
прогноза знака составляет от 0.11 до 0.27. То есть процедуры прогноза знака весового коэффициента
205
дают верный результат минимум в 73% случаев, максимум в 89% случаев. Именно это
обстоятельство и является предпосылкой для создания быстрых неитерационных алгоритмов
обучения линейной части искусственных нейронов.
Если известно, что итерационные алгоритмы обучения нейрона неустойчивы и могут
приводить как к переобучению нейрона, так и к его недообучению, то необходимо научиться
предсказывать значения весовых коэффициентов нейрона, опираясь на статистики входных данных
«Свой» и «все Чужие» 2. Самым простым способом предсказания возможных значений весовых
коэффициентов является учет нестабильности (с.к.о.) данных образа «Свой». Идея формирования
такого прогноза состоит в ослаблении влияния нестабильных биометрических параметров через
коэффициенты их влияния:
)
v
(
1
i
i
(3)
При выборе коэффициентов по формуле (3) нестабильные коэффициенты с большим значение
б(v
i
) оказывают примерно в 2–3 раза меньшее влияние на результат по отношению к более
стабильным коэффициентам с меньшей дисперсией.
Еще более эффективного выталкивания образа «Свой» из образов «Все Чужие» удается
достичь, если усилить влияние биометрических параметров, обладающих высокой уникальностью.
То есть весовые коэффициенты должны вычисляться по формуле:
)
v
(
)
v
(
E
)
(
E
i
i
i
i
(4)
Практика показывает, что вычисление весовых коэффициентов по формуле (4) позволяет
достаточно быстро вытолкнуть образы «Свой» на периферию образов «все Чужие» 4, 6.
Теоретически за счет увеличения числа учитываемых биометрических параметров n можно
как угодно далеко вытолкнуть образ «Свой» на выходе обученного сумматора. Однако слишком
сильное выталкивание образа «Свой» за пределы образов «все Чужие» недопустимо из-за
возможности осуществления атаки «Поиска биометрических близнецов».
Достарыңызбен бөлісу: |