Р. Г. Стронгина. Ниж- ний Новгород: Изд-во Нижегородского университета, 2002, 217 с


Вычислительные ресурсы Центра МГУ



Pdf көрінісі
бет6/151
Дата26.01.2022
өлшемі1,64 Mb.
#24342
түріСеминар
1   2   3   4   5   6   7   8   9   ...   151
Вычислительные ресурсы Центра МГУ 
В феврале 2000 года в НИВЦ МГУ был установлен первый вычис-
лительный  кластер,  оборудование  для  которого  было  закуплено  час-
тично  за  счет  ФЦП  «Интеграция»,  частично  за  счет  собственных 
средств  НИВЦ.  Этот  кластер  состоял  из 12 двухпроцессорных  ПК-



серверов российской сборки (компании «Инел»). Использование двух-
процессорных  узлов  считается  более  эффективным  по  технологиче-
ским  и  экономическим  соображениям  по  сравнению  с  одно-  и  четы-
рехпроцессорными  узлами.  При  проектировании  кластера  с  учетом 
технических  требований  и  имеющихся  средств  рассматривалось  не-
сколько  вариантов  построения  коммуникационной  сети,  в  том  числе 
Fast Ethernet, Gigabit Ethernet, Myrinet и SCI. В  результате  оценки 
имеющихся данных по цене, надежности программного обеспечения и 
производительности  этих  технологий,  была  выбрана  технология SCI 
(Scalable Coherent Interface), несмотря  на  то, что стоимость коммуни-
кационного  оборудования  в  расчете  на  один  узел (1700 долларов 
США)  превосходила  стоимость  самого  вычислительного  узла (1300 
долларов).  Для  построения  коммуникационной  сети  были  закуплены 
программно-аппаратные комплекты Wulfkit производства норвежских 
компаний Dolphin Interconnect Solutions (сетевые  адаптеры)  и Scali 
Computer (программное  обеспечение).  Технология SCI отличается  от 
других тем, что не использует специальных коммутаторов, а узлы кла-
стера  объединяются  в  топологию  «двухмерного  тора»,  состоящего  из 
однонаправленных  колец SCI. При  такой  организации  сети  каждый 
узел  имеет  по 2 входящих  и  выходящих  канала SCI с  очень  высокой 
скоростью передачи и присутствует одновременно в двух кольцах. Мы 
благодарим за помощь при установке и настройке программного обес-
печения  Московский  научно-исследовательский  центр  электронно-
вычислительной  техники  (НИЦЭВТ),  который  является  пионером  в 
использовании SCI-кластеров  в  России,  и  лично  сотрудников 
НИЦЭВТ К.А.Ларионова и Л.К.Эйсымонта. 
При дальнейшем расширении аппаратных ресурсов в начале 2001 
года мы сочли необходимым учесть потребности наших пользователей 
и  провели  среди  них  опрос – какие  компоненты  нужно  нарастить  в 
первую  очередь?  По  результатам  этого  опроса  был  увеличен  объем 
оперативной памяти на всех узлах до 1 Гбайта и увеличено количество 
узлов.  Таким  образом,  кластер SCI в  настоящее  время  включает 18 
двухпроцессорных узлов с процессорами Pentium III 500 МГц (и 550 на 
новых узлах) и на каждом узле установлено по 1 Гбайту оперативной 
памяти.  Узлы  объединены  в  сеть SCI с топологией двухмерного тора 
3x6,  а  управление  кластером  производится  с  отдельной  головной  ма-
шины по сети Fast Ethernet. Кроме того, установлен отдельный файл-


 

сервер с RAID-массивом, на котором хранятся домашние директории 
пользователей, доступные со всех машин по протоколу NFS. Времен-
ные  файлы  программы  пользователей  могут  создавать  на  локальных 
дисках каждого узла. Для поддержки непрерывной работы кластера на 
всех узлах установлены специальные платы watch-dog, разработанные 
в  ИПС  РАН  (г.  Переславль-Залесский),  позволяющие  автоматически 
перезагружать зависшие узлы. 
Весной 2001 года был установлен новый 40-процессорный кластер 
«SKY» с более мощными процессорами (Pentium III/850 МГц) на базе 
традиционной  сети Fast Ethernet. Преимущественно  этот  кластер  ис-
пользуется  как  «вычислительная  ферма»,  т.е.  для  запуска  большого 
числа однопроцессорных задач; однако на этой конфигурации успеш-
но работают и многие параллельные приложения, в частности, расчет 
больших  квантовохимических  систем  с  помощью PC-GAMESS. Для 
целей  поддержки  больших  квантовохимических  расчетов  на  каждом 
узле кластера установлено по 2 жестких диска, которыми независимо 
могут пользоваться два процесса параллельной задачи. 
Суммарная пиковая производительность ресурсов Центра на сего-
дняшний  день  составляет 52 Гфлопс,  суммарный  объем  оперативной 
памяти 38 Гбайт. 


Достарыңызбен бөлісу:
1   2   3   4   5   6   7   8   9   ...   151




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет