Оқулық Қазақстан Республикасы Білім және ғылым министрлігі бекіткен Алматы, 2011



Pdf көрінісі
бет53/121
Дата31.08.2022
өлшемі2,81 Mb.
#38343
түріОқулық
1   ...   49   50   51   52   53   54   55   56   ...   121
 
Кластерлік жҥйелер 
Алғашқы жобалардың бірі, параллель жүйелердің тұтас бір класына 
атау берген - Beowulf кластері болды. Ол NASA Goddard Space Flight Center 
(GSFC) орталығында дүниеге келді. Beowulf жобасы 1994 жылдың жазында 
басталып, кӛп ұзамай Intel 486DX4/100 МГц процессорларының базасында 
16-процессорлы кластер құрастырылды. Оның әрбір торабына (түйінде) 
кәдімгі Ethernet желісі үшін 16 Мбайт жедел жады және 3 желілік картадан 
орнатылған. Бұндай конфигурациялармен жұмыс істеу үшін қолжетімді 
желілік карталар арасында тарифтерді бӛлетін арнайы драйверлер 
құрастырылды.
Кейінірек GSFС орталығында theHIVE – Highly-parallel Integrated 
Virtual Environment кластері құрастырылды. Бұл кластер 332 процессорды 
және екі бӛлінген хост-компьютерді біріктірген тӛрт ішкі кластерлерден 
(подкластер) Е, В, G және DL тұрады, және кластердің барлық тораптары Red 
Hat Linux басқаруымен жұмыс істейді.
1998ж Лос-Аламос ұлттық зертханасында астрофизик М.Уорен және 
теориялық астрофизика бӛлімінің бір топ ғалымдары Alpha 21164A
процессорлары базасында тактілік жиілігі 533 МГц Avalon Linux-кластерін 
құрды. Алғашқыда Avalon 68 процессордан тұрды, одан кейін процессорлар 
Торап 
Торап 
Торап 
Есептеу торабы 
1-4 орталық процессор 
Жедел жады 
Желілік адаптер 
Қатты диск(міндетті емес) 
. . . 
Коммуникациялық орта 
Файл-сервер 
Хост-компьютер 
Интернет 
Пайдаланушы 
Пайдаланушы
. . . 


95 
саны 140 дейін кӛбейтілді. Әр түйінде 256 Мбайт жедел жады, 3 Гбайт қаты 
диск және Fast Ethernet желілік адаптер орнатылды. Avalon жобасының 
жалпы құны 313 мың долларды құрады. LINPACK тестінде кӛрсеткен 
ӛнімділігі – 47,7 Гфлопс, Тор500 тізімінің 12-ші редакциясында оған 114 
орынды иеленуге мүмкіндік берді. Осы, яғни 1998 жылы жоғары ӛнімді 
есептеулер облысы бойынша ӛткен Supercоmputing‘98 конференциясында 
Avalon-ды құрастырушылар «Avalon» деген тақырыпта доклад ұсынды және 
ол «ең үздік баға/ӛнімділік ара-қатынасы» номинациясы бойынша бірінші 
премияны иеленді.
2000 ж. Корнельский университетінде биомедициналық зерттеулер 
жүргізу үшін Velocity+ кластері орнатылды. Ол әрқайсысы тӛрт Intel Pentium 
III процессорынан тұратын 64 тораптан құралды. Тораптар Windows 2000 
операциялық жүйесі басқаруымен жұмыс істейді және cLAN желісімен 
біріктірілген.
Lots of Boxes on Shelfes жобасы АҚШ-ң ұлтық денсаулық 
институтында 1997 жылы іске асырылды. Онда коммуникациялық орта 
ретінде Gigabit Ethernet технологиясы қолданылады. Алғашында бұл кластер 
екі Pentium Pro/200 МГц процессорлы, 47 тораптан, 128 Мбайт жедел 
жадысынан және әр торапта 1,2 Гбайт дискіден тұрды. 1998 жылы жобаның 
келесі этапы – LoBoS2 іске асырылды. Онда тораптар кластерге біріктірілуі 
сақталған дәстүрлі столға қойылатын компьютерлерге ӛзгертілді. Қазір 
LoBoS2 әрбірі екі Pentium II/450 МГц процессордан, 256 Мбайт жедел және 9 
Гбайт дискілік жадыдан құралған 100 есептеу торабынан тұрады. Кластерге, 
жалпы кӛлемі 1,2 Тбайт RAID-массивімен 4 басқарушы компьютер қосымша 
қосылған.
2000 жылы құрастырылған KLAT2 (Kentucky Linux Athlon Testbed 2) 
кластері әрбірінде AMD Athlon/700 МГц процессоры, және 128 Мбайт жедел 
жадысы бар 64 дискісіз тораптардан тұрады. Бағдарламалық қамтама, 
компиляторлар және математикалық кітапханалары (SCALAPACK6 BLACS 
және ATLAS) AMD процессорларының 3D-Now! технологиясын тиімді 
пайдалану үшін түзетіліп істеп бітірілген. Бұл жұмыс жүйенің ӛнімділігін 
айтарлықтай арттыруға мұмкіндік берді. Әрбір торапта тӛрт желілік адаптер 
Fast Ethernet орнатылған, ал тораптар тоғыз 32-порттық коммутаторлар 
кӛмегімен жалғастырылған. Сонымен қатар, кезкелген екі торап үшін 
коммутаторлардың бірі арқылы әрқашанда тікелей жалғасу бар, бірақ мүнда 
барлық тораптарды бірыңғай (дара) коммутатор арқылы жалғастырудың 
қажеттілігі жоқ. AMD архитектурасына және FNN топологиясына 
бағдарламалық қамтаманы тиімділеу арқасында LINPACK тестінде 
баға/ӛнімділік қатынасының рекордты кӛрсеткішін алуға қол жеткізілді – 650 
доллар/1 гфлопс. 
Кластерді бӛлімдерге бӛлу идеясы Аргондық Ұлттық зертханада 
дайындалған Chiba City жобасында жүзеге асырылды. Мұнда басты бӛлім 
256 есептеу тораптарын қамтиды, олардың әрбірінде екі Pentium III/500 МГц 
процессор, 512 Мбайт жедел және кӛлемі 9 Гбайт жергілікті жады 


96 
орнатылған. Жүйеге есептеу бӛлімінен басқа: шолу бӛлімі (Мatrox Millenium 
G400 графикалық карталарымен 32 IBM Intellistation, 512 Мбайт жедел жады 
және 300 Гбайт диск), деректерді сақтау бӛлімі (Xeon/500 процесорларымен 
және 300 Гбайт дискімен 8 сервер IBM Netfinity 7000) және басқарушы бӛлім 
(12 компьютер IBM Netfinity 500). Олардың бәрі параллель қолданбаларға 
қолдау кӛрсету үшін пайдаланылатын Myrinet желісімен біріктірілген. 
Басқарушы және қызметтік мақсаттар үшін Gigabit Ethernet және Fast Ethernet 
желілері пайдаланылады. Барлық бӛлімдер 32 компьютерден тұратын 
«қалаларға» (towns) бӛлінеді. Олардың әрқайсысының ӛзінің «мэрі» бар, ол 
ӛзінің «қаласына» жергілікті қызмет атқарады және қызметтік желіге 
жүктемені азайтып, жергілікті ресурстарға жылдам қатынасты қамтамасыз 
етеді. 
Россияның бас қаласы Москваның мекемеаралық суперкомпьютерлік 
орталығында орнатылған МВС-1000М суперкомпьютерін де кластер 
қатарына жатқызуға болады. Компьютер әрқайсысы 64 екіпроцессорлық 
модульдерді қамтитын алты базалық блоктардан тұрады (33 сурет). Әрбір 
модульдің құрамына екі процессор Alpha 21264/667 МГц (екінші деңгейлі 
кэш-жады 4 Мбайт), модуль процессорларымен бӛлінген 2 Гбайт жедел 
жады, қатқыл диск кіреді. Жүйедегі процессорлардың жалпы саны – 768, ал 
МВС-1000М суперкомпьютерінің шектік ӛнімділігі 1 Тфлопс-тан асады. 
МВС-1000М суперкомпьютерінің барлық модульдері екі тәуелсіз 
желілермен байланысқан. Пайдаланушылар бағдарламаларында Myrinet 2000 
желісі есептеу барысында деректермен алмасу үшін пайдаланылады. MPI 
пайдаланғанда желі каналдарының ӛткізу қабілеті 110-170 Мбайт/сек 
мәндеріне жетеді. Операциялық жүйе сервистік функцияларды орындау үшін 
Fast Ethernet желісін пайдаланады. 
33 сурет. МВС-1000М суперкомпьютерінің құрылымы 


Достарыңызбен бөлісу:
1   ...   49   50   51   52   53   54   55   56   ...   121




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет