Алматы 2017 январь



Pdf көрінісі
бет59/92
Дата03.03.2017
өлшемі28,19 Mb.
#7549
1   ...   55   56   57   58   59   60   61   62   ...   92

 



 Технические науки 

 

364                                                                                            



№1 2017 Вестник КазНИТУ 

 



 

0,



0,

0,

,



,

,

1



( )

F

F

F

F

F

F

V

V

f V

V

f V

V

V

F t









 

 

 



     (7) 

 

где 



 - пороговые потенциалы возбуждения. Внешнее поле 

( )

F t

 примем в виде модуля-

ционно-периодического сигнала 

 

))



sin(

1

(



)

(

t



B

A

t

F



 



 

 

 



 

(8) 


 

где 


,

B



A

 - амплитуда, коэффициент (глубизна), частота модуляции нейронных колебаний. 

Для системы N нейронов эти уравнения могут быть использованы в итерационном виде    

 

( )



( )

( )


( )

1

0



1

1

( )



k

N

k

k

k

k

i

i

k

V

V

F

t

V









,   


 

  

     (9) 



 

( )


( )

( )


( )

1

0



1

1

( )



k

N

k

k

k

k

i

i

k

V

V

V

F

t









,   


 

 

   (10) 



 

где k – порядковый номер нейрона, 



i

V

 – потенциал действия нейронов, 

0

V

 – их пороговые зна-

чения, 

( )


F t

 – модулированное значение стимула одного нейрона, 



k

 – разность фрактальной и топо-

логической  размерностей  множества  значений 

i

V

.  Уравнение  (9)  учитывает  возможность  собствен-

ных  подпороговых  колебаний  нейрона  при 

( )


0

F t 

,  а  уравнение  (10)  –  только  наличие  стимула 

( )

0

F t 



. Роль 

( )


F t

 могут играть потенциалы действия соседних нейронов.  

Уравнения (9), (10) описывают экспериментально наблюдаемое разнообразие спайков, хаотич-

ных вибраций, фазовую синхронизацию после всплеска [16]. 

 

Информационно-энтропийные характеристики нейронных сигналов 

Не смотря на широкое распространение термина «информации» существует множество интер-

претации данного понятия, используемые в разных науках (кибернетике, генетике, социологии). Ко-

личественно  информацию  равновероятных  событий  можно  определить  через  вероятность 

 

P x   по-

явления величины 



x

, описанная в знаменитой работе Клода Шеннона [20] формирующая основу со-

временных коммуникационных технологий.     

 

( )



ln ( )

I x

P x

 


 

 



 

 

 



 

(11) 


 

Где логарифмическая функция является наиболее естественным вариантом интерпретаций опи-

сания теорий информаций через вероятность событий.  Формула (11) совместима со всеми определе-

ниями термина «информации» используемые в разных науках.     

Информационная энтропия 

( )


S x  определяется как среднее значение информаций:  

 

( )



( ) ( )

( ) ln


( )

i

i

i

i

i

i

S x

P x I x

P x

P x

 



.  



 

 

 



(12) 

 

где 



i

 – номер ячеек разбиения множества значений 



x

.  


Вероятности  реализации  информации 

( )


P I

  согласно  формуле  (11)  записывается  следующим 

образом:  

 

( )



I

P I

e



 

 



 

 

 



(13) 

 



 Техникалық ғылымдар 

 

ҚазҰТЗУ хабаршысы №1 2017                                          



365 

 

Для плотности вероятности 



( )

f I

 имеем формулы 

   

 

0



0

( )


1, 0

;

( )



1,

( )


( )

, ( )


( )

.

I



I

P I

I

f I dI

P I

f I dI f I

P I

e





 






 

 

 



 

(14) 


 

Согласно формуле  (14) видно, что функция вероятности реализации информации 

( )

P I

 совпа-


дает с функцией распределения плотности вероятности 

( )


f I

.   


Информационную  энтропию  распределения  значений информации 

( )


S I

  запишем  следующим 

образом: 

( )


( )

(1

)



I

I

S I

If I dI

I e





 



 

 

(15) 



 

Так как 


0

I

 



 имеем 

1

0



S



, т.е. энтропия нормирована на единицу. В отличие от фор-

мулы (12) в качестве меры мы приняли саму информацию и получили результат (15).   

Определим неподвижные точки [21] для непрерывных функций 

( )


f I  и  ( )

S I :  

 

1



( )

,

,



0.567

I

f I

I e

I I

I





,   

 

 



(16) 

 

2



( )

, (1


)

,

0.806



I

S I

I

I e

I I

I





 



 

     (17) 

 

Предложенные неподвижные точки 



( )

f I  и  ( )

S I : являются пределами бесконечных отображе-

ний, достигаемых при любых начальных значениях 

0

I

 (рисунок 1):     

 

1

0



1

( ), lim exp( exp(... exp( )...))



i

i

i

I

f I

I

I







 

 



 

 

(18) 



 

1

0



0

2

( ), lim exp( exp(...



exp(ln(

1)

)...))



i

i

i

I

S I

I

I

I

 







 

 

 



(19) 

 

где число скобок равно 



1

.   


Физический  смысл  чисел 

1

2



0.567,

0.806


I

I



,  трактуется  как  критерий  самоаффинности  и 

самоподобия динамической меры, более подробно описанной в работе [22].   



 

Обобщенная метрическая характеристика нейронных сигналов 

В  пункте  3  мы  ввели  информационно  -  энтропийные  характеристики  фрактальных  фракталь-

ных - неевклидовых сигналов. Рассмотрим обобщение метрической характеристики на фрактальные 

(нейронные) сигналы. Обобщенная метрическая характеристика следует из известного интегрального 

неравенства Гёлдера для любых функций 

 


 

,

i



j

x t

x

t

 записанного в виде [23, 24]   

 

 


 

   


1

1

,



,

0

0



0

1

1



1

1

1



,

1

i



j

T

T

T

p

q

q

p

p q

i

j

x x

i

j

x t

dt

x

t

dt

K

x t x

t dt

T

T

T

p

q















 



(20) 

 

где 



,

,

i



j

p q

x x

K

  -  коэффициент,  при  постоянном  значении  которого  выполняется  равенство  в  (20), 

( ),

( )


i

j

x t x t

 – физические величины, зависящие от времени t



T

 – характерное время, достаточное для 



 



 Технические науки 

 

366                                                                                            



№1 2017 Вестник КазНИТУ 

 

установления статистических закономерностей, p,q - параметры. При p=q=2 



2,2

,

i



j

x x

K

 характеризует  ев-

клидовую  метрику  множества  значений  функций 

( ),


( )

i

j

x t x t

.  Если 


( )

1

j



x t 

  получим  коэффициент 

формы сигнала 

( )


( )

i

x t

x t

 



 



1 2

2

( )



( )

( )


x t

x t

K

x t



 

 

 



 

(21) 


 

где  мы  использовали,  для  общности,  обозначения  для  усреднения  по  ансамблю.  Выражение 

( )

x t

K

 используется в радиотехнике. Условие для параметров p,q дает возможность для использования 

,

,

i



j

p q

x x

K

  для  описания  фрактальных  сигналов.  Если 



D

  –  фрактальная  размерность  кривой 

( )

x t

,  то  мы 

можем принять 

,

(



1)

p

D q

D

D



. Принимая 

( ),

i

j

x

x t x

t



 имеем 

 





1

1

,



,

,

(



1)

q

D

q

D

j

D q

x t

x

x

K

q

D D

x t





 

 

(22) 



 

Значения 

,

,

D q



x t

K

 для сигналов с различными коэффициентами подобия 

,

x t

 и различают самоаф-

финные нейронные колебания. 

 

Метрико-топологическая диаграмма нейронных сигналов  

На рисунке 1 показана зависимость нормированной информационной энтропии 

( )


S x

 (формула 

(12)) нейронных сигналов различного типа от соответствующих значений метрической характеристи-

ки 


,

,

D q



x t

K

  (формула  (22)).  Энтропия  определена  через  вероятности  попадания  значений    (потенциала 

действия нейрона) в интервалы 

1

,



1, 2, ...

i

i

x

x i



, число отсчетов 



1, ... ,

j

N

 



3

10

4

2



10

10





Для  импульсов  различной  формы  энтропия  равнобедренного  треугольника 



S

  является  максималь-



ной, т.к. в этом случае распределение 

( )


i

j

x t

 будет равномерной (линейной). Поэтому в качестве нор-

мы энтропии принято 

S

. Значение 



( )

S

 возрастает с уменьшением 



, однако отношения 

( )

( )


S

S



 



в указанном интервале изменения 

 практически постоянное.    

В определение 

,

,



D q

x t

K

K

 входит 



D

 - фрактальная размерность кривой 

( )

x t

, которая была опре-

делена по формуле корреляционной размерности [17]    

 

0



ln ( )

lim


ln 1

C

D







,   

 

2



1

1

1



( )

lim


(

)

N



N

i

j

N

i

j

i

j

C

x

x

N



 







 



.  

 

(23) 



 

Для наглядности в каждой области диаграммы 

( )

S K

 представлены примеры нейронных сигна-

лов по соответствующим моделям (

 – ФитцХью-Нагумо [13], 

 – Хиндмарш-Роуз  [14], 



 – мо-

дель  нейрона  спайково-берствого  поведения  с  использованием  двухмерного  отображения  [15], 

  – 


модель масштабно-инвариантных нейронных колебаний [16]). 

 


 



 Техникалық ғылымдар 

 

ҚазҰТЗУ хабаршысы №1 2017                                          



367 

 

 



Рис. 1. Зависимость нормированной энтропии (

( )


( )

S

S

S





) от обобщенно – метрической характеристики 

(

,



,

D q

x t

K

K

) для моделей нейронных сигналов (



 – ФитцХью-Нагумо (1), при 



1.5,

1,

12.5,



1 2

a

b

I





 – Хиндмарш-Роуз (2), при 



3,



1,

1,

5,



1.6,

0.005,


4,

1.3 3


R

a

b

c

d

x

r

s

I

 







 – модель нейро-



на спайково-берствого поведения с использованием двухмерного отображения (3), при 



0.001,

0.14,


4

6









 – модель масштабно-инвариантных нейронных колебаний (9), при 



0



0.8,

0.8,


0.433 1

0.1,


A

B

V





).   

 

Из диаграммы 



( )

S K

 видно, что именно масштабно-инвариантные сигналы, описываемые фрак-

тальной  моделью  являются  явно  самоаффинными (большие  значения  K)  и  нормированная  энтропия 

принимает  значения  в  интервале  неподвижных  точек 



S

  и 


I

1



2

I

S

I



.  При 

1

2



K



  колебания 

близкие к стохастическим, их энтропия выше (

2

S

I

). 



При  выборе  достаточного  разрешения  (

N



)  зависимость 

( )

S K

  может  однозначно  идентифи-

цировать  нейронные  сигналы,  ее  можно  использовать  в  качестве  критерия  решения  выходного  слоя 

нейронной сети. 

 

Заключение  

В работе показана возможность классификации нейронных сигналов согласно их нелинейным 

(энтропийным  и  обобщенно-метрическим)  характеристикам.  Указаны  устойчивые,  неподвижные 

точки нейронных сигналов, которые являются критериями самоаффинности и самоподобия. Теорети-

ческим  анализом  экспериментальных  данных  показано,  что  нейронные  сигналы  являются  самоаф-

финными кривыми. 

 

ЛИТЕРАТУРА 



[1] 

E. M. Izhikevich, Dynamical systems in neuroscience: the geometry of excitability and bursting // The 

MIT Press, Cambridge, Massachusetts. – 2010. 

[2] 


A. Gupta, L. N. Long. Character recognition using spiking neural networks // IEEE International Joint 

Conference on Neural Networks. – 2007. doi: 

10.1109/IJCNN.2007.4370930

, ISSN: 1098-7576. – P. 53-58. 

[3] 

M. N. Shadlen, W. T. Newsome, The variable discharge of cortical neurons: implications for connec-



tivity, computation, and information coding // The Journal of Neuroscience. – 1998. – vol. 18(10), – P. 3870-3896. 

[4] 


T. M. Reese, A. Brzoska, D. T. Yott, D. J. Kelleher, Analyzing self-similar and fractal properties of 

the C. elegans neural network // PLoS ONE. – 2012. – vol. 7(10), doi:10.1371.  

[5] 

S.  Carrillo,  J.  Harkin,  L.  McDaid,  S.  Pande,  S.  Cawley,  B.  McGinley,  F.  Morgan,  Advancing  inter-



connect  density  for  spiking  neural  network  hardware  implementations  using  traffic-aware  adaptive  network-on-

chip routers // Neural networks. – 2012. – vol. 33, – P. 42-57. 

[6] 

S. Pierre, H. Said, W. G. Probst. An artificial neural network approach for routing in distributed com-



puter networks // Engineering Applications of Artificial Intelligence, Vol. 14, No 1, pp. 51-60, 2001. 

[7] 


G. F. de Arruda, E. Cozzo, Y. Moreno On degree-degree correlations in multilayer networks // Physi-

ca D 323-324, pp. 5 – 11, 2016.   




Достарыңызбен бөлісу:
1   ...   55   56   57   58   59   60   61   62   ...   92




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет