Алматы 2015 Almaty


Қауіп-қатерді бақылайтын жүйелер



Pdf көрінісі
бет29/130
Дата12.03.2017
өлшемі19,96 Mb.
#9035
1   ...   25   26   27   28   29   30   31   32   ...   130

Қауіп-қатерді бақылайтын жүйелер 

Түйіндеме:  Мақалада  қауіп-қатерді  бақылау  жүйелерінің  негізгі  түрлері  қарастырылған  жəне 

компьютерлік  қылмыстардың  себептері  түсіндірілген. IDS жүйелері  желілік  адаптер  арқылы  қабылданатын 

үздіксіз ақпарат мониторингісін жүргізеді. Жоғары сапалы IDS корпоративттік жүйелері ішкі желідегі барлық 

трафиктерге  мониторинг  жүргізеді,  рұқсат  берілмеген  іс-əрекеттерді  байқайды  (мысалы,  портты  сканерлеу) 

жəне сигнатуралар (мысалы, кез-келген эксплойттарды қолдану).  

Түйін сөздер: брандмауэр, IDS жүйелері, SNORT жүйелері, Honeypots, қауіп-қатерді бақылайтын желілік жүйе. 


208 

Kazbayeva A. D., Amanzholova N. Y. 



Systems of detection of invasions 

Summary. This article is considered main types of systems of detection of invasions. IDS systems make 

continuous monitoring of information received at a network by means of: monitoring / the network adapter. More 

powerful corporate IDS systems can make monitoring, for example, all traffic in an internal network, finding the 

forbidden actions (for example, scanning of ports) and signatures (for example, application of any exploit). 



Key words: firewall, IDS systems, system SNORT, Honeypots, network system of detection of invasions.

 

 



 

УДК 004.042, 004.06 

 

Касымова Д.Т.



докторант, Утепбергенов И.Т.

2

, Ескендирова Д.М.

1

  

1

Казахский национальный технический университет имени К.Сатпаева, 



2

Алматинский университет энергетики и связи, Казахстан 

г. Алматы, Республика Казахстан 

 

СОВРЕМЕННЫЕ ПОДХОДЫ ОБРАБОТКИ БОЛЬШИХ ОБЪЕМОВ ДАННЫХ 

 

Аннотация.  Обоснованы и  рассматриваются основные определения систем обработки больших объемов 

данных, факты и история концепции «больших данных». По результатам проведенного анализа делается вывод 

о состоянии рынка систем бизнес-анализа и перспективах их адаптации и внедрения. 

Ключевые слова: большие данные, объём данных, базы данных. 

 

Из названия можно предположить, что термин `большие данные` относится просто к управлению 



и  анализу  больших  объемов  данных.  Согласно  отчету McKinseyInstitute «Большие  данные:  новый 

рубеж  для  инноваций,  конкуренции  и  производительности» (Bigdata: The next frontier for innovation, 

competition and productivity), термин «большие данные» относится к наборам данных, размер которых 

превосходит возможности типичных баз данных (БД) по занесению, хранению, управлению и анализу 

информации.  И  мировые  репозитарии  данных,  безусловно,  продолжают  расти.  В  представленном  в 

середине 2011 г.  отчете  аналитической  компании IDC «Исследование  цифровой  вселенной» (Digital 

Universe Study), подготовку  которого  спонсировала  компания EMC, предсказывалось,  что  общий 

мировой объем созданных и реплицированных данных в 2011-м может составить около 1,8 зеттабайта 

(1,8 трлн. гигабайт) — примерно в 9 раз больше того, что было создано в 2006-м [1]. 

Принято  считать,  что  современные  программные  инструменты  не  в  состоянии  оперировать 

такими объемами в рамках разумных временных промежутков. Очевидно, диапазон значений таких 

объемов  носит  весьма  условный  характер  и  имеет  тенденцию  к  увеличению  в  большую  сторону, 

поскольку вычислительная техника непрерывно совершенствуется и становится все более доступной. 

В  частности, Gartner рассматривает  «большие  данные»  сразу  в  трех  плоскостях – роста  объемов, 

роста скорости обмена данными и увеличения информационного разнообразия [1]. 

Основной особенностью используемых в рамках концепции больших данных подходов является 

возможность  обработки  информационного  массива  целиком  для  получения  более  достоверных 

результатов анализа. Прежде приходилось полагаться на так называемую репрезентативную выборку 

или подмножество информации. Закономерно погрешности при таком подходе были заметно выше. 

Кроме того, такой подход требовал затрат определенного количества ресурсов на подготовку данных 

для анализа и приведение их к требуемому формату. 

Тем  не  менее  «большие  данные»  предполагают  нечто  большее,  чем  просто  анализ  огромных 

объемов  информации.  Проблема  не  в  том,  что  организации  создают  огромные  объемы  данных,  а  в 

том,  что  большая  их  часть  представлена  в  формате,  плохо  соответствующем  традиционному 

структурированному  формату  баз  данных, — это  веб-журналы,  видеозаписи,  текстовые  документы, 

машинный  код  или,  например,  геопространственные  данные.  Всё  это  хранится  во  множестве 

разнообразных  хранилищ,  иногда  даже  за  пределами  организации.  В  результате  корпорации  могут 

иметь  доступ  к  огромному  объему  своих  данных  и  не  иметь  необходимых  инструментов,  чтобы 

установить взаимосвязи между этими данными и сделать на их основе значимые выводы. Добавьте 

сюда то обстоятельство, что данные сейчас обновляются все чаще и чаще, и вы получите ситуацию, в 

которой  традиционные  методы  анализа  информации  не  могут  угнаться  за  огромными  объемами 

постоянно обновляемых данных, что в итоге и открывает дорогу технологиям больших данных. 

В сущности понятие больших данных подразумевает работу с информацией огромного объема и 

разнообразного  состава,  весьма  часто  обновляемой  и  находящейся  в  разных  источниках  в  целях 



209 

увеличения эффективности работы, создания новых продуктов и повышения конкурентоспособности. 

Консалтинговая  компания Forrester дает  краткую  формулировку: «Большие  данные  объединяют 

техники  и  технологии,  которые  извлекают  смысл  из  данных  на  экстремальном  пределе 

практичности». 

Источников  больших  данных  в  современном  мире  великое  множество.  В  их  качестве  могут 

выступать  непрерывно  поступающие  данные  с  измерительных  устройств,  события  от 

радиочастотных  идентификаторов,  потоки  сообщений  из  социальных  сетей,  метеорологические 

данные, данные дистанционного зондирования земли, потоки данных о местонахождении абонентов 

сетей  сотовой  связи,  устройств  аудио-  и  видеорегистрации.  Собственно,  массовое  распространение 

перечисленных  выше  технологий  и  принципиально  новых  моделей  использования  различно  рода 

устройств  и  интернет-сервисов  послужило  отправной  точкой  для  проникновения  больших  данных 

едва  ли  не  во  все  сферы  деятельности  человека.  В  первую  очередь,  научно-исследовательскую 

деятельность, коммерческий сектор и государственное управление. 

На  рисунке 1 показан  рост  объемов  данных  (слева)  на  фоне  вытеснения  аналоговых  средств 

хранения  (справа).  Источник: Hilbert and López, `The world’s technological capacity to store, 



communicate, and compute information,`Science, 2011Global. 

 

 



 

Рисунок 1. Рост объемов данных 



 

Несколько занимательных и показательных фактов: 

 

В 2010 году  корпорации  мира  накопили 7 экзабайтов  данных,  на  наших  домашних  ПК  и 



ноутбуках хранится 6 экзабайтов информации. 

 

Всю музыку мира можно разместить на диске стоимостью 600 долл. 



 

В 2010 году в сетях операторов мобильной связи обслуживалось 5 млрд телефонов. 

 

Каждый месяц в сети Facebook выкладывается в открытый доступ 30 млрд новых источников 



информации. 

 

Ежегодно  объемы  хранимой  информации  вырастают  на 40%, в  то  время  как  глобальные 



затраты на ИТ растут всего на 5%. 

 

По  состоянию  на  апрель 2011 года  в  библиотеке  Конгресса  США  хранилось 235 терабайт 



данных. 

 

Американские  компании  в 15 из 17 отраслей  экономики  располагают  большими  объемами 



данных, чем библиотека Конгресса США. 

 

Мировой рынок решений для обработки больших данных (BigData) вырастет почти в 7 раз до 



20  млрд  евро  в 2016 году  по  сравнению  с 3 млрд  евро  в 2010 году,  к  таким  выводам  пришли 

аналитики PAC в 

исследовании, 

опубликованном 

в 

конце 


сентября 2012 года.  

Согласно  данным  агентства,  ежегодный  рост  рынка  составит  около 38% с 2010 года  по 2016 год. 

Популярность BigData объясняется  аналитиками  тем,  что  сегмент  позволяет  пользоваться 

расширенным  функционалом,  не  требуя  при этом  дополнительных  специализированных  навыков,  в 

то время, как подобный ему, сегмент системной интеграции (SI), уже требует иной уровень подхода к 

работе. 


210 

 

"Мы видим большой интерес к BigData со стороны многих компаний, работающих с большим 



объемом  неструктурированной  информации,  как  то,  журналы,  аналитические  компании", - говорит 

главный аналитик направления Software PAC Филипп Карнелли. "При этом есть несколько факторов, 

которые пока сдерживают рост рынка". 

 

По  мнению  аналитика, BigData может  существенно  облегчить  и  улучшить  работу 



потребительски-ориентированных  компаний  в  различных  областях:  телекоммуникации,  банки, 

розница.  Эти  компании  смогут  собирать  и  обрабатывать  данные  из  социальных  сетей  и  иных 

источников, связанных с их бизнесом. 

 

Филипп Карнелли отмечает, что вместе с ростом спроса на BigData, общие затраты компаний 



на развитие подобных проектов снижаются за счет того, что компетентных специалистов становится 

больше. "Существует  нечто  вроде  компромисса  между  дешевыми  инструментами,  требующими 

последующей  дорогой  отладки,  и  более  надежными  и  простыми  в  использовании  инструментами, 

которые стоят больше, но в целом, затраты на развертывание проектов снижаются", - сказал он. 

 

Ряд  компаний  практически  одновременно  объявили  о  скором  выходе  коробочного  варианта 



BigData  (Microsoft, IBM, Teradata, Oracle, SAP).  Такие  инструменты,  по  мнению PAC,  будут 

способствовать  развитию  рынка BigData.  "Их  деятельность  помогает  "одобрить"  проекты BigData 

даже для более консервативных или менее технически продвинутых компаний, предоставляя новые 

варианты", - продолжил  Карнелли. "Еще  более  важно,  что  появился  новый  класс  предложений - 

"данные-как-услуга",  от Google и  других.  Это  делает  выход  на  рынок BigData гораздо  более 

простым". 

Сама  по  себе  концепция  «больших  данных»  не  нова,  она  возникла  во  времена  мэйнфреймов  и 

связанных с ними научных компьютерных вычислений. Как известно, наукоемкие вычисления всегда 

отличались  сложностью  и  обычно  неразрывно  связаны  с  необходимостью  обработки  больших 

объемов информации. 

Вместе  с  тем,  непосредственно  термин  «большие  данные»  появился  в  употреблении 

относительно недавно. Он относится к числу немногих названий, имеющих вполне достоверную дату 

своего рождения — 3 сентября 2008 года, когда вышел специальный номер старейшего британского 

научного  журнала Nature, посвященный  поиску  ответа  на  вопрос  «Как  могут  повлиять  на  будущее 

науки  технологии,  открывающие  возможности  работы  с  большими  объемами  данных?». 

Специальный  номер  подытоживал  предшествующие  дискуссии  о  роли  данных  в  науке  вообще  и  в 

электронной науке (e-science) в частности [1]. 

Можно  выявить  несколько  причин,  вызвавших  новую  волну  интереса  к  большим  данным. 

Объемы  информации  растут  по  экспоненциальному  закону  и  ее  львиная  доля  относится  к 

неструктурированным  данным.  Другими  словами,  вопросы  корректной  интерпретации 

информационных потоков становятся все более актуальными и одновременно сложными. Реакция со 

стороны  ИТ-рынка  последовала  незамедлительно – крупные  игроки  приобрели  наиболее  успешные 

узкоспециализированные  компании  и  начали  развивать  инструменты  для  работы  с  большими 

данными, количество соответствующих стартапов и вовсе превосходит все мыслимые ожидания. 

Наряду  с  ростом  вычислительной  мощности  и  развитием  технологий  хранения  возможности 

анализа больших постепенно становятся доступными малому и среднему бизнесу и перестают быть 

исключительно  прерогативой  крупных  компаний  и  научно-исследовательских  центров.  В  немалой 

степени этому способствует развитие облачной модели вычислений. 

Впрочем, с дальнейшим проникновением ИТ в бизнес-среду и повседневную жизнь каждого из 

нас подлежащие обработке информационные потоки продолжают непрерывно расти. И если сегодня 

большие данные – это петабайты, завтра придется оперировать с экзабайтами и т.д. Очевидно, что в 

обозримой перспективе инструменты для работы с такими гигантскими массивами информации все 

еще будут оставаться чрезмерно сложными и дорогими. 

Согласно исследованию Accenture (осень 2014 года), 60% компаний уже успешно завершили как 

минимум  один  проект,  связанный  с  большими  данными.  Подавляющее  большинство (92%) 

представителей этих компаний оказалось довольно результатом, а 89% заявили, что большие данные 

стали  крайне  важной  частью  преобразования  их  бизнеса.  Среди  остальных  опрошенных 36% не 

задумывались о внедрении данной технологии, а 4% пока не закончили свои проекты. 

В  исследовании Accenture приняло  участие  более 1000 руководителей  компаний  из 19 стран 

мира.  В  основу  исследования PwC легли  данные  опроса Economist Intelligence Unit среди 1135 

респондентов по всему миру. 

Среди  главных  преимуществ  больших  данных  опрошенные  назвали  «поиск  новых  источников 

дохода» (56%), «улучшение  опыта  клиентов» (51%), «новые  продукты  и  услуги» (50%) и  «приток 


211 

новых клиентов и сохранение лояльности старых» (47%). При внедрении новых технологий многие 

компании столкнулись со схожими проблемами. Для 51% камнем преткновения стала безопасность, 

для 47% — бюджет,  для 41% — нехватка  необходимых  кадров,  а  для 35% — сложности  при 

интеграции  с  существующей  системой.  Практически  все  опрошенные  компании  (около 91%) 

планируют  в  скором  времени  решать  проблему  с  нехваткой  кадров  и  нанимать  специалистов  по 

большим данным. 

Компании  оптимистично  оценивают  будущее  технологий  больших  данных. 89% считают,  что 

они  изменят  бизнес  столь  же  сильно,  как  и  интернет. 79% респондентов  отметили,  что  компании, 

которые не занимаются большими данными, потеряют конкурентное преимущество. 

Впрочем,  опрошенные  разошлись  во  мнении  о  том,  что  именно  стоит  считать  большими 

данными. 65% респондентов  считают,  что  это  «большие  картотеки  данных», 60% уверены,  что  это 

«продвинутая аналитика и анализ», а 50% — что это «данные инструментов визуализации»[2]. 

Если  производительность  современных  вычислительных  систем  за  несколько  десятилетий 

выросла на многие порядки и не идет ни в какое сравнение с первыми персональными ПК образца 

начала 80-х  гг.  прошлого  столетия,  то  с системами  хранения  данных  дела  обстоят  гораздо  хуже. 

Безусловно,  доступные  объемы  многократно  увеличились  (впрочем,  они  по-прежнему  в  дефиците), 

резко  снизилась  стоимость  хранения  информации  в  пересчете  на  бит  (хотя  готовые  системы  по-

прежнему  слишком  дорогие),  однако  скорость  извлечения  и  поиска  нужной  информации  оставляет 

желать лучшего. 

Если не брать в рассмотрение пока еще слишком дорогие и не вполне надежные и долговечные 

флэш-накопители,  технологии  хранения  информации  не  очень  далеко  ушли  вперед.  По-прежнему 

приходится  иметь  дело  с  жесткими  дисками,  скорость  вращения  пластин  которых  даже  в  самых 

дорогих  моделях  ограничена  на  уровне 15 тыс.  об./мин.  Коль  скоро  речь  идет  о  больших  данных, 

очевидно, немалое их количество (если не подавляющее) размещается на накопителях со скоростью 

вращения шпинделя 7,2 тыс. об./мин.  

Обозначенная  проблема  лежит  на  поверхности  и  хорошо  знакома  ИТ-директорам  компаний. 

Впрочем, она далеко не единственная: 

 

 

 



Рисунок 2. Рост вычислительной мощности компьютерной техники 

 

На рисунке 2 показаны рост вычислительной мощности компьютерной техники (слева) на фоне 

трансформации  парадигмы  работы  с  данными  (справа).  Источник: Hilbert and López, `The world’s 

technological capacity to store, communicate, and compute information,`Science, 2011Global 

К  примеру,  датчики,  установленные  на  авиадвигателе,  генерируют  около 10 Тб  за  полчаса. 

Примерно  такие  же  потоки  характерны  для  буровых  установок  и  нефтеперерабатывающих 

комплексов.  Только  один  сервис  коротких  сообщений Twitter, несмотря  на  ограничение  длины 

сообщения в 140 символов, генерирует поток 8 Тб/сут. Если все подобные данные накапливать для 

дальнейшей  обработки,  то  их  суммарный  объем  будет  измеряться  десятками  и  сотнями  петабайт. 

Дополнительные  сложности  проистекают  из  вариативности  данных:  их  состав  и  структура 


212 

подвержены постоянным изменениям при запуске новых сервисов, установке усовершенствованных 

сенсоров или развертывании новых маркетинговых кампаний[3]. 

Выводы.  В  работе  были  рассмотрены  основные  определения  больших  данных  и  возникающие 

проблемы, которые поставили перед реляционными СУБД большие данные. Важно отметить, что с 

дальнейшим проникновением ИТ в бизнес-среду и повседневную жизнь каждого из нас, подлежащие 

обработке информационные потоки продолжают непрерывно расти. И если сегодня большие данные 

–  это  петабайты,  завтра  придется  оперировать  с  экзабайтами  и  т.д.  С  ростом  вычислительной 

мощности  и  развитием  технологий  хранения  возможности  анализа  больших  постепенно  становятся 

доступными  малому  и  среднему  бизнесу  и  перестают  быть  исключительно  прерогативой  крупных 

компаний  и  научно-исследовательских  центров.  В  немалой  степени  этому  способствует  развитие 

облачной модели вычислений. 

 

ЛИТЕРАТУРА 



1.  http://www.tadviser.ru/index.php/ Статья: Большие данные_(Big_Data) 

2.  Tom White. Hadoop: The Definitive Guide, 3rd Edition. O'ReillyMedia, 2012, 688 p. 

3.  Jeffrey Dean, Sanjay Ghemawat. MapReduce: simplified data processing on large clusters. Proceedings of the 

6th conference on Symposium on Opearting Systems Design & Implementation, vol. 6, p. 10-10, USENIX Association 

Berkeley, CA, USA, 2004.  

 

REFERENCES 



1.  http://www.tadviser.ru/index.php/ Статья: Большие данные_(Big_Data) 

2.  Tom White. Hadoop: The Definitive Guide, 3rd Edition. O'ReillyMedia, 2012, 688 p. 

3.  Jeffrey Dean, Sanjay Ghemawat. MapReduce: simplified data processing on large clusters. Proceedings of the 

6th conference on Symposium on Opearting Systems Design & Implementation, vol. 6, p. 10-10, USENIX Association 

Berkeley, CA, USA, 2004 

 

Касымова Д.Т., Утепбергенов И.Т., Ескендирова Д.М.  



Үлкен көлемді деректерді заманауи өңдеу əдістері 

Түйіндеме.  Бұл  мақалада  «үлкен  деректер»  туралы  түсініктер,  фактілі  көрсеткіштер  жəне  алатын  орны 

қарастырылады.  Сонымен  қатар    нарықтық  бизнес  сараптама  жүйелері  мен  олардың  бейімделу  жəне  жүзеге 

асыру перспективалары туралы мəселелер қарастырылады.   

Түйін сөздер: большие данные, объём данных, базы данных 

 

D.T. Kassymova, I.T. Utepbergenov, D.M. Eskendirova  



Modern approaches to handle large amounts of data 

Summary. In this paper we consider the interesting and significant fact and also the history of the concept of "big 

data." In conclusion, a conclusion about the market business intelligence systems and the prospects for their adaptation 

and implementation. 

Key words. big data, the amount of data the database 

 

 



УДК 681.7.068 

 

Кашаганова Г.Б. докторант, Омарова Г.А. 

Казахский национальный технический университет имени К.И.Сатпаева 

г.Алматы, Республика Казахстан, 

guljan_k70@mail.ru 

 

КОМПЕНСАТОРЫ  ДИСПЕРСИИ В ВОЛОКОННО-ОПТИЧЕСКИХ ЛИНИЯХ  СВЯЗИ 

 

Аннотация.  В  статье  рассматриваются  вопросы  дисперсии  в  волоконно-оптических  линиях  связи.  

Рассмотрены  два метода компенсации дисперсии: компенсация дисперсии на основе волоконных брэгговcких 

решеток  и с помощью волокон, компенсирующих дисперсию. 

Ключевые слова:  волоконный световод, волоконная брэгговская решётка, компенсатор дисперсии. 

 

Развитие  волоконно-оптической  технологии  стало  важной  составной  части  в  области 

телекоммуникаций.  В  основе  оптической  передачи  лежит  эффект  полного  внутреннего  отражения 

луча,  падающего  на  границу  двух  сред  с  различными  показателями  преломления.  Волоконный 

cветовод  представляет  собой  тонкий  двухслойный  стеклянный  стержень,  у  которого  показатель 

преломления  внутреннего  слоя  больше,  чем  наружного.  Волоконный  световод,  управляемый 



213 

источник  света  и  фотодетектор  образуют  канал  оптической  передачи  информации,  протяженность 

которого  может  достигать  десятков  километров.  Волоконный  световоды  пропускают  свет  с  длиной 

волны 0,4-3 мкм (400-3000 нм),  но  пока  практически  используется  только  диапазон 600-1600 нм 

(часть видимого спектра и инфракрасного диапазона) [1]. 

Оптическое  волокно  в  настоящее  время  считается  самой  совершенной  физической  средой  для 

передачи  информации,  а  также  самой  перспективной  средой  для  передачи  больших  потоков 

информации  на  значительные  расстояния.  Основания  так  считать  вытекают  из  ряда  особенностей, 

присущих оптическим волноводам:  

–  широкополосность  оптических  сигналов,  обусловленная  чрезвычайно  высокой  частотой 

несущей 

14

12



0

10

10





f

Гц.  Это  означает,  что  по  оптической  линии  связи  можно  передавать 

информацию со скоростью порядка 

12

10

бит/с (1Тбит/с). Говоря другими словами, по одному волокну 



можно  передать  одновременно 10 миллионов  телефонных  разговоров  и  миллион  видеосигналов. 

Скорость  передачи  данных  может  быть  увеличена  за  счет  передачи  информации  сразу  в  двух 

направлениях, так как световые волны могут распространяться в одном волокне независимо друг от 

друга.  Кроме  того,  в  оптическом  волокне  могут  распространяться  световые  сигналы  двух  разных 

поляризаций,  что  позволяет  удвоить  пропускную  способность  оптического  канала  связи.  На 

сегодняшний  день  предел  по  плотности  передаваемой  информации  по  оптическому  волокну  не 

достигнут;  

–  очень  малое  (по  сравнению  с  другими  средами)  затухание  светового  сигнала  в  оптическом 

волокне.  Лучшие  образцы  российского  волокна  имеют  затухание 0,22 дБ/км  на  длине  волны 1,55 

мкм, что позволяет строить линии связи длиной до 100 км без регенерации сигналов. Для сравнения, 

лучшее  волокно Sumitomo на  длине  волны 1,55 мкм  имеет  затухание 0,154 дБ/км.  В  оптических 

лабораториях  США  разрабатываются  еще  более  «прозрачные»,  так  называемые  фторцирконатные 

оптические  волокна  с  теоретическим  пределом  порядка 0,02 дБ/км  на  длине  волны 2,5 мкм. 

Лабораторные исследования показали, что на основе таких волокон могут быть созданы линии связи 

с регенерационными участками через 4600 км при скорости передачи порядка 1 Гбит/с;  

–  ОВ  изготовлено  из  кварца,  основу  которого  составляет  двуокись  кремния,  широко 

распространенного, а потому недорогого материала, в отличие от меди;  

–  оптические  волокна  имеют  диаметр  около 100 мкм,  то  есть  очень  компактны  и  легки,  что 

делает их перспективными для использования в авиации, приборостроении, в кабельной технике; 

– оптические волокна являются диэлектриками, следовательно, при строительстве систем связи 

автоматически  достигается  гальваническая  развязка  сегментов.  В  оптической  системе  они 

электрически полностью изолированы друг от друга, и многие проблемы, связанные с заземлением и 

снятием потенциалов, которые до сих пор возникали при соединении электрических кабелей, теряют 

свою  актуальность.  Применяя  особо  прочный  пластик,  на  кабельных  заводах  изготавливают 

самонесущие  подвесные  кабели,  не  содержащие  металла  и  тем  самым  безопасные  в  электрическом 

отношении. Такие кабели можно монтировать на мачтах существующих линий электропередач, как 

отдельно, так и встроенные в фазовый провод, экономя значительные средства на прокладку кабеля 

через реки и другие преграды; 

–  системы  связи  на  основе  оптических  волокон  устойчивы  к  электромагнитным  помехам,  а 

передаваемая  по  световодам  информация  защищена  от  несанкционированного  доступа.  Волоконно-

оптические  линии  связи  нельзя  подслушать  неразрушающим  способом.  Всякие  воздействия  на  ОВ 

могут быть зарегистрированы методом мониторинга (непрерывного контроля) целостности линии; 

–  важное  свойство  оптического  волокна - долговечность.  Время  жизни  волокна,  то  есть 

сохранение им своих свойств в определенных пределах, превышает 25 лет, что позволяет проложить 

волоконно-оптический  кабель  один  раз  и,  по  мере  необходимости,  наращивать  пропускную 

способность канала путем замены приемников и передатчиков на более быстродействующие. 

Но существуют также некоторые недостатки волоконно-оптических технологий:  

–  при  создании  линии  связи  требуются  высоконадежные  активные  элементы,  преобразующие 

электрические  сигналы  в  свет,  и  свет  в  электрические  сигналы.  Для  соединения  ОВ  с  приемо-

передающим оборудованием используются оптические коннекторы (соединители), которые должны 

обладать  малыми  оптическими  потерями  и  большим  ресурсом  на  подключение-отключение. 

Погрешности  при  изготовлении  таких  элементов  линии  связи  должны  быть  порядка  доли  микрона, 

т.е.  соответствовать  длине  волны  излучения.  Поэтому  производство  этих  компонентов  оптических 

линий связи очень дорогостоящее; 



214 

–  другой  недостаток  заключается  в  том,  что  для  монтажа  оптических  волокон  требуется 

прецизионное, а потому дорогое, технологическое оборудование[2].  

Еще один недостаток в оптическом волокне – это дисперсия. 

При  распространении  импульсов  света  по  волокну  наблюдается  их  расплывание,  или  явление 

дисперсии. Чем меньше значение дисперсии, тем больший поток информации можно передать по волокну. 

По  оптическому  волокну  передается  не  просто  световая  энергия,  но  также  полезный 

информационный сигнал. Импульсы света, последовательность которых определяет информационный 

поток,  в  процессе  распространения  расплываются.  При  достаточно  большом  уширении  импульсы 

начинают перекрываться, так что становится невозможным их выделение при приеме. 

Дисперсия - уширение импульсов - имеет размерность времени и определяется как квадратичная 

разность длительностей импульсов на выходе и входе кабеля длины L по формуле  

 

 

 



Обычно  дисперсия  нормируется  в  расчете  на  1км,  и  измеряется  в  пс/км.  Дисперсия  в  общем 

случае характеризуется тремя основными факторами, рассматриваемыми ниже: 

– различием скоростей распространения направляемых мод (межмодовой дисперсией t

mod


); 

– направляющими свойствами световодной структуры (волноводной дисперсией t

w

); 


– свойствами материала оптического волокна (материальной дисперсией t

mat


). 

Чем меньше значение дисперсии, тем больший поток информации можно передать по волокну. 

Результирующая дисперсия t определяется из формулы 

 

t



2

 = t


2

mod 


+ t

2

chr



 = t

2

mod 



+ (t

mat


 + t

w

)



2

 

 



Существует два метода компенсации дисперсии: компенсация дисперсии на основе Брэгговcких 

решеток (FBG) и  с  помощью  волокон,  компенсирующих  дисперсию (DCF). Более  современная 

технология на основе Брэгговских решеток является более дешевой в применении, вносит меньшие 

проходные потери, вносит меньшие задержки в сигнал чем традиционная технология DCF. Новейшее 

применение технологии (FBG) заключается в интеграции брэгговской решетки в оптический пачкорд. 

Данное  решение  избавляет  от  необходимости  применять  отдельное  устройство  для  компенсации 

дисперсии.  Модуль  с  функцией  компенсации  дисперсии (DCM-PC) сочетает  в  себе  функционал 

компенсатора дисперсии с помощью Брэгговской решетки (с равномерно изменяющимся периодом) и 

простоту  обыкновенного  оптического  пачкорда.  Быстрая,  экономичная  и  эффективный  метод 

компенсации  дисперсии  в  подобных  устройствах  облегчает  проектирование  сложных  систем, 

ускоряет  ввод  в  эксплуатацию  систем CDWM DWDM, позволяет  значительно  экономить  место  на 

узлах связи [3].  

Но FBG имеют и существенные недостатки: 

–  решетки  изготавливаются  фотоспособом  из  фоточувствительного  ОВ,  со  временем  под 

действием световых сигналов происходит нарушение решетки (размывание); 

–  у  большинства  компенсаторов  на  основе  волоконных  решеток  имеется  недостаток, 

заключающийся  в  том,  что  сигнал  с  компенсированной  дисперсией  отражается  в  обратном 

направлении, поэтому для отделения входа от выхода нужно использовать оптический циркулятор; 

–  для  нормального  функционирования  устройства  на  основе FBG необходима  стабилизация 

температурных условий, что увеличивает общую стоимость компенсатора. 

Волокно  с  компенсацией  дисперсии  является  основным  компонентом  при  статическом 

подавлении хроматической дисперсии. Его отрицательная хроматическая дисперсия в несколько раз 

превышает  положительную  хроматическую  дисперсию  одномодового  волокна.  Добавление  участка 

волокна с компенсацией дисперсии определенной длины компенсирует дисперсию линии передачи, 

обращая  ее  в  ноль.  Для  систем  передачи DWDM необходимо  также  компенсировать  и  различные 

наклоны дисперсионных характеристик для разных длин волн передачи. Так как наклоны в основном 

и  компенсирующем  волокне  не  совпадают  точно,  то  и  не  происходит  идеального  зануления 

дисперсии.  В  итоге,  накопленная  дисперсия  системы  передачи  изменяется  с  длиной  волны  как 

показано на рисунке 1. 

 


215 

 

 



Рисунок 1  -  Статическая компенсация хроматической дисперсии 

 

Она  оставляет  слабую  волновую  зависимость  полной  дисперсии  в  некотором  диапазоне  длин 



волн, поэтому с увеличением расстояния передачи разброс накопленной дисперсии увеличивается. 

Модуль  компенсации  дисперсии  предназначен  для  разработчиков xWDM систем  и  для 

операторов  связи,  которым  требуется  простой  и  экономичный  способ  компенсации  дисперсии

Применение  устройств DMC-PC возможно  в  различных  системах,  начиная  от  обычных TDM и 

DWDM  масштаба  города  или  междугородних  магистралях DWDM и  заканчивая  применением 

модулей  компенсации  дисперсии  на  терминалах  подводных  магистральных  линий DWDM. Кроме 

того, применение DMC-PC может значительно увеличить протяженность линии связи.  

Удобно компенсировать дисперсию на отдельных каналах DWDM с помощью пачкордов DMC-

PC. Для технологии SONET/SDH крайне важны низкие проходные потери, обеспечиваемые данным 

устройством.  Более  низкие  проходные  потери  снижают  расходы  на  усиление  сигналов  в  кольцах 

SONET/SDH и увеличивают дальность работы оптических трансиверов.  

Модули компенсации дисперсии DMC-PC можно использовать также для устранения различий в 

дисперсионных  характеристиках  оптических  трансиверов  на 10 Gbps и  на 40 Gbps при  работе  этих 

устройств в одной системе на разных DWDM каналах.  

Дисперсия  выступает  фактором  ограничения  скорости  передачи  оптических  импульсных 

сигналов в одномодовом стекловолокне. Особенно заметно это ограничение на скоростях 10 Гбит и 

выше. Например, при скорости 2,5 Гбит/с сигнал может быть передан на расстояние до 1000 км без 

видимых  искажений  на  длине  волны 1,3 мкм  в  стандартном  волокне G.652. Уже  при  скорости 10 

Гбит/с  дальность  передачи  не  превысит 60 км  в  этом  же  волокне,  а  при  скорости  в 20 Гбит/с  она 

будет только 15 км [4].  

Один  из  недостатков  использования  волокна DCF для  компенсации  дисперсии  заключается  в 

волновой  зависимости  хроматической  дисперсии D(

).  В  линейном  приближении  эту  зависимость 

описывает  параметр S - наклон  дисперсионной  кривой.  Компенсация  дисперсии,  например, 

статическим  методом  на  одной  длине  волны  приведет  к  неточной  компенсации  на  других  длинах 

волн в системах DWDM. 

Управление  дисперсией  является  важной  частью  проектирования  линейных  трактов.  При  этом 

необходимо уменьшить влияние как хроматической, так и поляризационной модовой дисперсии. При 

построении  компенсаторов  дисперсии  используются  методы  создания  волокон,  компенсирующих 

дисперсию,  и  дифракционные  решетки,  например,  интегральные  и  волоконные  решетки  Брэгга  с 

линейно  изменяющейся  постоянной  решетки.  Пример  использования  волоконной  решетки  Брэгга  в 

компенсаторе дисперсии приведен на рисунке 2.  

 

 

 



Рисунок 2 - Компенсатор дисперсии на основе волоконной брэгговской решетки 

216 

Кроме  волоконных  компенсаторов  дисперсии  в  составе  блоков  применяются  компенсаторы  на 

перестраиваемых  волноводных  решетках,  которые  отличаются  малыми  габаритами,  малыми 

потерями оптической мощности и большим диапазоном перестройки.  

 

ЛИТЕРАТУРА 



1. Листвин А.В., Листвин В.Н., Швырков Д.В. Оптические волокна для линий связи. – Вэлком, 2002 

2. Середа П.В. Прецизионное определение параметров волоконных брэгговских решеток //Диссертация на 

соискание ученой степени кандидата технических наук. Санкт-Петербург 2005. 

3.Убайдулаев Р.Р. Волоконно-оптические сети. – М.: Эко-Трендз. 1998.- 300 с. 

4 Иванов А.Б. Волоконная оптика: компоненты, системы передачи, измерения. – М.: Компания САЙРУС 

СИСТЕМС, 1999. 

 

REFERENCES 



1. Listvin A.V Listvin V.N, Shvyrkov D.V Optical fiber communication lines. - Welcome to my Blog, 2002 

2. Sereda PV Precise determination of the parameters of fiber Bragg gratings // Thesis for the degree of candidate 

of technical sciences. St. Petersburg 2005. 

3.Ubaydulaev R.R Fiber-optic network. - M .: Eco-Trendz. 1998.- 300 p. 

4 Ivanov A.B Fiber Optics: components of a transmission measurement. - M .: Company Cyrus SYSTEMS, 1999. 

 



Достарыңызбен бөлісу:
1   ...   25   26   27   28   29   30   31   32   ...   130




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет