●
Технические науки
364
№1 2017 Вестник КазНИТУ
0,
0,
0,
,
,
,
1
( )
F
F
F
F
F
F
V
V
f V
V
f V
V
V
F t
,
(7)
где
,
- пороговые потенциалы возбуждения. Внешнее поле
( )
F t
примем в виде модуля-
ционно-периодического сигнала
))
sin(
1
(
)
(
t
B
A
t
F
,
(8)
где
,
, B
A
- амплитуда, коэффициент (глубизна), частота модуляции нейронных колебаний.
Для системы N нейронов эти уравнения могут быть использованы в итерационном виде
( )
( )
( )
( )
1
0
1
1
( )
k
N
k
k
k
k
i
i
k
V
V
F
t
V
,
(9)
( )
( )
( )
( )
1
0
1
1
( )
k
N
k
k
k
k
i
i
k
V
V
V
F
t
,
(10)
где k – порядковый номер нейрона,
i
V
– потенциал действия нейронов,
0
V
– их пороговые зна-
чения,
( )
F t
– модулированное значение стимула одного нейрона,
k
– разность фрактальной и топо-
логической размерностей множества значений
i
V
. Уравнение (9) учитывает возможность собствен-
ных подпороговых колебаний нейрона при
( )
0
F t
, а уравнение (10) – только наличие стимула
( )
0
F t
. Роль
( )
F t
могут играть потенциалы действия соседних нейронов.
Уравнения (9), (10) описывают экспериментально наблюдаемое разнообразие спайков, хаотич-
ных вибраций, фазовую синхронизацию после всплеска [16].
Информационно-энтропийные характеристики нейронных сигналов
Не смотря на широкое распространение термина «информации» существует множество интер-
претации данного понятия, используемые в разных науках (кибернетике, генетике, социологии). Ко-
личественно информацию равновероятных событий можно определить через вероятность
P x по-
явления величины
x
, описанная в знаменитой работе Клода Шеннона [20] формирующая основу со-
временных коммуникационных технологий.
( )
ln ( )
I x
P x
.
(11)
Где логарифмическая функция является наиболее естественным вариантом интерпретаций опи-
сания теорий информаций через вероятность событий. Формула (11) совместима со всеми определе-
ниями термина «информации» используемые в разных науках.
Информационная энтропия
( )
S x определяется как среднее значение информаций:
( )
( ) ( )
( ) ln
( )
i
i
i
i
i
i
S x
P x I x
P x
P x
.
(12)
где
i
– номер ячеек разбиения множества значений
x
.
Вероятности реализации информации
( )
P I
согласно формуле (11) записывается следующим
образом:
( )
I
P I
e
.
(13)
●
Техникалық ғылымдар
ҚазҰТЗУ хабаршысы №1 2017
365
Для плотности вероятности
( )
f I
имеем формулы
0
0
( )
1, 0
;
( )
1,
( )
( )
, ( )
( )
.
I
I
P I
I
f I dI
P I
f I dI f I
P I
e
(14)
Согласно формуле (14) видно, что функция вероятности реализации информации
( )
P I
совпа-
дает с функцией распределения плотности вероятности
( )
f I
.
Информационную энтропию распределения значений информации
( )
S I
запишем следующим
образом:
( )
( )
(1
)
I
I
S I
If I dI
I e
.
(15)
Так как
0
I
имеем
1
0
S
, т.е. энтропия нормирована на единицу. В отличие от фор-
мулы (12) в качестве меры мы приняли саму информацию и получили результат (15).
Определим неподвижные точки [21] для непрерывных функций
( )
f I и ( )
S I :
1
( )
,
,
0.567
I
f I
I e
I I
I
,
(16)
2
( )
, (1
)
,
0.806
I
S I
I
I e
I I
I
.
(17)
Предложенные неподвижные точки
( )
f I и ( )
S I : являются пределами бесконечных отображе-
ний, достигаемых при любых начальных значениях
0
I
(рисунок 1):
1
0
1
( ), lim exp( exp(... exp( )...))
i
i
i
I
f I
I
I
(18)
1
0
0
2
( ), lim exp( exp(...
exp(ln(
1)
)...))
i
i
i
I
S I
I
I
I
(19)
где число скобок равно
1
i
.
Физический смысл чисел
1
2
0.567,
0.806
I
I
, трактуется как критерий самоаффинности и
самоподобия динамической меры, более подробно описанной в работе [22].
Обобщенная метрическая характеристика нейронных сигналов
В пункте 3 мы ввели информационно - энтропийные характеристики фрактальных фракталь-
ных - неевклидовых сигналов. Рассмотрим обобщение метрической характеристики на фрактальные
(нейронные) сигналы. Обобщенная метрическая характеристика следует из известного интегрального
неравенства Гёлдера для любых функций
,
i
j
x t
x
t
записанного в виде [23, 24]
1
1
,
,
0
0
0
1
1
1
1
1
,
1
i
j
T
T
T
p
q
q
p
p q
i
j
x x
i
j
x t
dt
x
t
dt
K
x t x
t dt
T
T
T
p
q
,
(20)
где
,
,
i
j
p q
x x
K
- коэффициент, при постоянном значении которого выполняется равенство в (20),
( ),
( )
i
j
x t x t
– физические величины, зависящие от времени t.
T
– характерное время, достаточное для
●
Технические науки
366
№1 2017 Вестник КазНИТУ
установления статистических закономерностей, p,q - параметры. При p=q=2
2,2
,
i
j
x x
K
характеризует ев-
клидовую метрику множества значений функций
( ),
( )
i
j
x t x t
. Если
( )
1
j
x t
получим коэффициент
формы сигнала
( )
( )
i
x t
x t
1 2
2
( )
( )
( )
x t
x t
K
x t
,
(21)
где мы использовали, для общности, обозначения для усреднения по ансамблю. Выражение
( )
x t
K
используется в радиотехнике. Условие для параметров p,q дает возможность для использования
,
,
i
j
p q
x x
K
для описания фрактальных сигналов. Если
D
– фрактальная размерность кривой
( )
x t
, то мы
можем принять
,
(
1)
p
D q
D
D
. Принимая
( ),
i
j
x
x t x
t
имеем
1
1
,
,
,
(
1)
q
D
q
D
j
D q
x t
x
x
K
q
D D
x t
.
(22)
Значения
,
,
D q
x t
K
для сигналов с различными коэффициентами подобия
,
x t
и различают самоаф-
финные нейронные колебания.
Метрико-топологическая диаграмма нейронных сигналов
На рисунке 1 показана зависимость нормированной информационной энтропии
( )
S x
(формула
(12)) нейронных сигналов различного типа от соответствующих значений метрической характеристи-
ки
,
,
D q
x t
K
(формула (22)). Энтропия определена через вероятности попадания значений (потенциала
действия нейрона) в интервалы
1
,
1, 2, ...
i
i
x
x i
, число отсчетов
1, ... ,
j
N
3
10
N
;
4
2
10
10
.
Для импульсов различной формы энтропия равнобедренного треугольника
S
является максималь-
ной, т.к. в этом случае распределение
( )
i
j
x t
будет равномерной (линейной). Поэтому в качестве нор-
мы энтропии принято
S
. Значение
( )
S
возрастает с уменьшением
, однако отношения
( )
( )
S
S
в указанном интервале изменения
практически постоянное.
В определение
,
,
D q
x t
K
K
входит
D
- фрактальная размерность кривой
( )
x t
, которая была опре-
делена по формуле корреляционной размерности [17]
0
ln ( )
lim
ln 1
C
D
,
2
1
1
1
( )
lim
(
)
N
N
i
j
N
i
j
i
j
C
x
x
N
.
(23)
Для наглядности в каждой области диаграммы
( )
S K
представлены примеры нейронных сигна-
лов по соответствующим моделям (
– ФитцХью-Нагумо [13],
– Хиндмарш-Роуз [14],
– мо-
дель нейрона спайково-берствого поведения с использованием двухмерного отображения [15],
–
модель масштабно-инвариантных нейронных колебаний [16]).
●
Техникалық ғылымдар
ҚазҰТЗУ хабаршысы №1 2017
367
Рис. 1. Зависимость нормированной энтропии (
( )
( )
S
S
S
) от обобщенно – метрической характеристики
(
,
,
D q
x t
K
K
) для моделей нейронных сигналов (
– ФитцХью-Нагумо (1), при
1.5,
1,
12.5,
1 2
a
b
I
;
– Хиндмарш-Роуз (2), при
3,
1,
1,
5,
1.6,
0.005,
4,
1.3 3
R
a
b
c
d
x
r
s
I
;
– модель нейро-
на спайково-берствого поведения с использованием двухмерного отображения (3), при
0.001,
0.14,
4
6
;
– модель масштабно-инвариантных нейронных колебаний (9), при
0
0.8,
0.8,
0.433 1
0.1,
A
B
V
).
Из диаграммы
( )
S K
видно, что именно масштабно-инвариантные сигналы, описываемые фрак-
тальной моделью являются явно самоаффинными (большие значения K) и нормированная энтропия
принимает значения в интервале неподвижных точек
S
и
I
:
1
2
I
S
I
. При
1
2
K
колебания
близкие к стохастическим, их энтропия выше (
2
S
I
).
При выборе достаточного разрешения (
, N
) зависимость
( )
S K
может однозначно идентифи-
цировать нейронные сигналы, ее можно использовать в качестве критерия решения выходного слоя
нейронной сети.
Заключение
В работе показана возможность классификации нейронных сигналов согласно их нелинейным
(энтропийным и обобщенно-метрическим) характеристикам. Указаны устойчивые, неподвижные
точки нейронных сигналов, которые являются критериями самоаффинности и самоподобия. Теорети-
ческим анализом экспериментальных данных показано, что нейронные сигналы являются самоаф-
финными кривыми.
ЛИТЕРАТУРА
[1]
E. M. Izhikevich, Dynamical systems in neuroscience: the geometry of excitability and bursting // The
MIT Press, Cambridge, Massachusetts. – 2010.
[2]
A. Gupta, L. N. Long. Character recognition using spiking neural networks // IEEE International Joint
Conference on Neural Networks. – 2007. doi:
10.1109/IJCNN.2007.4370930
, ISSN: 1098-7576. – P. 53-58.
[3]
M. N. Shadlen, W. T. Newsome, The variable discharge of cortical neurons: implications for connec-
tivity, computation, and information coding // The Journal of Neuroscience. – 1998. – vol. 18(10), – P. 3870-3896.
[4]
T. M. Reese, A. Brzoska, D. T. Yott, D. J. Kelleher, Analyzing self-similar and fractal properties of
the C. elegans neural network // PLoS ONE. – 2012. – vol. 7(10), doi:10.1371.
[5]
S. Carrillo, J. Harkin, L. McDaid, S. Pande, S. Cawley, B. McGinley, F. Morgan, Advancing inter-
connect density for spiking neural network hardware implementations using traffic-aware adaptive network-on-
chip routers // Neural networks. – 2012. – vol. 33, – P. 42-57.
[6]
S. Pierre, H. Said, W. G. Probst. An artificial neural network approach for routing in distributed com-
puter networks // Engineering Applications of Artificial Intelligence, Vol. 14, No 1, pp. 51-60, 2001.
[7]
G. F. de Arruda, E. Cozzo, Y. Moreno On degree-degree correlations in multilayer networks // Physi-
ca D 323-324, pp. 5 – 11, 2016.
|