8
серверов российской сборки (компании «Инел»). Использование двух-
процессорных узлов считается более эффективным по технологиче-
ским и экономическим соображениям по сравнению с одно- и четы-
рехпроцессорными узлами. При проектировании кластера с учетом
технических требований и имеющихся средств рассматривалось не-
сколько вариантов построения коммуникационной сети, в том числе
Fast Ethernet,
Gigabit Ethernet, Myrinet и SCI. В результате оценки
имеющихся данных по цене, надежности программного обеспечения и
производительности этих технологий, была выбрана технология SCI
(Scalable Coherent Interface), несмотря на то, что стоимость коммуни-
кационного оборудования в
расчете на один узел (1700 долларов
США) превосходила стоимость самого вычислительного узла (1300
долларов). Для построения коммуникационной сети были закуплены
программно-аппаратные комплекты Wulfkit производства норвежских
компаний Dolphin Interconnect Solutions (сетевые адаптеры) и Scali
Computer (программное обеспечение). Технология SCI отличается от
других тем, что не использует специальных коммутаторов, а узлы кла-
стера объединяются в топологию «двухмерного тора», состоящего из
однонаправленных колец SCI. При такой
организации сети каждый
узел имеет по 2 входящих и выходящих канала SCI с очень высокой
скоростью передачи и присутствует одновременно в двух кольцах. Мы
благодарим за помощь при установке и настройке программного обес-
печения Московский научно-исследовательский центр электронно-
вычислительной техники (НИЦЭВТ), который является пионером в
использовании SCI-кластеров в России, и лично сотрудников
НИЦЭВТ К.А.Ларионова и Л.К.Эйсымонта.
При дальнейшем расширении аппаратных ресурсов в начале 2001
года мы сочли необходимым учесть потребности наших пользователей
и провели среди них опрос – какие компоненты нужно нарастить в
первую очередь? По результатам этого опроса был увеличен объем
оперативной памяти на всех узлах до 1 Гбайта и увеличено количество
узлов. Таким образом, кластер SCI в настоящее время включает 18
двухпроцессорных узлов с процессорами Pentium III 500 МГц (и 550 на
новых узлах) и на каждом узле установлено по 1 Гбайту оперативной
памяти. Узлы объединены в сеть SCI с топологией двухмерного тора
3x6, а управление кластером производится с отдельной головной ма-
шины по сети Fast Ethernet. Кроме того, установлен отдельный файл-
9
сервер с RAID-массивом, на котором хранятся домашние директории
пользователей, доступные со всех машин по протоколу NFS. Времен-
ные файлы программы пользователей могут создавать на локальных
дисках каждого узла. Для поддержки непрерывной работы кластера на
всех узлах установлены специальные платы watch-dog, разработанные
в ИПС РАН (г. Переславль-Залесский), позволяющие автоматически
перезагружать зависшие узлы.
Весной 2001 года был установлен новый 40-процессорный кластер
«SKY» с более мощными процессорами (Pentium III/850 МГц) на базе
традиционной сети Fast Ethernet. Преимущественно этот кластер ис-
пользуется как «вычислительная ферма», т.е. для запуска большого
числа однопроцессорных задач; однако на этой конфигурации успеш-
но работают и многие параллельные приложения, в частности, расчет
больших квантовохимических систем с помощью PC-GAMESS. Для
целей поддержки больших квантовохимических
расчетов на каждом
узле кластера установлено по 2 жестких диска, которыми независимо
могут пользоваться два процесса параллельной задачи.
Суммарная пиковая производительность ресурсов Центра на сего-
дняшний день составляет 52 Гфлопс, суммарный объем оперативной
памяти 38 Гбайт.
Достарыңызбен бөлісу: