Az első szuperszámítógép ma már egy kártyán is elférne
A szuperkomputerek a tudomány élvonalában szolgálták és szolgálják az emberiséget ma is – csak a kapacitásuk nőtt meg, nem is kicsit. Elmerültünk a szupergépek történelmében.
Megmosolyogtató belegondolni, hogy amikor ma reggelente bepakoljuk a laptopunkat a táskánkba, és becsúsztatjuk az okostelefonunkat a kabátzsebbe, két szuperszámítógépet viszünk magunkkal, a buszon ez utóbbi szuperkomputeren olvassuk a híreket vagy épp játsszunk az Angry Birds-zel, hogy aztán az irodába érve a másik szuperszámítógépen táblázatokat nyitogassunk és dokumentumokat írjunk.
Persze csak a XX. század közepéről nézve, az akkori szuperkomputerek ugyanis ma már legfeljebb nehezéknek jók. Lássuk, mivel kezdődött, minden, illetve mit is nevezünk szuperszámítógépnek.
„Egy szuperszámítógép fő ismérve nem a mérete meg a szupersége, hanem a rajta futatott feladat” – magyarázta Kubányi Péter, a Lenovo szakértője. „Ilyenek lehetnek például matematikai, grafikai, genetikai, orvostudományi, meteorológiai, de akár közgazdaságtani modellezési számítások is. Helyesen ezt nem is szuperszámítógépnek hanem HPC-nek, High-Performance Computingnak hívják.”
Az efféle gépeket tehát olyan számítási igények hívták életre, amelyekkel az adott kor eszközei képtelenek lettek volna megbirkózni. A hatvanas években az USA védelmi minisztériuma a hidegháború nyomása alatt az atomfegyvereket akarta továbbfejleszteni, ehhez pedig szükségük volt egy olyan számítógépre, amellyel a nukleáris robbanások hatásait lehetett szimulálni. Mivel a kor gépei erre nem voltak alkalmasak, meg kellett alkotniuk egy kellően erős szerkezetet.
Az első szuperszámítógépek
Itt jön be a képbe Seymour Cray, aki a második világháborúban rádiósként dolgozott, majd az Egyesült Államokba visszatérve villamosmérnöki és alkalmazott matematikusi diplomát szerzett. Cray tervezte meg a világ első, sikeres, tudományos célokra használható számítógépét, az ERA 1103-ast és ez a munkája volt az ugródeszka a következő lépcsőfok meghódításához.
Bár az IBM már 1961-ben bemutatta a Stretch – egészen pontosan IBM 7030 Stretch – nevű, tranzisztoros szuperszámítógépet, ez csupán három évig birtokolhatta a világ leggyorsabb komputere címét. Cray ugyanis a Control Data Corporation (CDC) munkatársaként megtervezte a CDC 6600 kódjelű gépet, amely háromszor erősebbnek és gyorsabbnak bizonyult a Stretch-nél. Nem véletlen, hogy az első CDC-ket Los Alamosba, illetve a kaliforniai Livermore-ba szállították, ahol az amerikai kormányzat tart fenn kutatólaborokat.
A CDC 6600 a maga korában valóságos technológiai remekműnek számított: 400 000 tranzisztor került bele, több mint 160 kilométernyi kábelezés, illetve freon-hűtés volt szükséges az ideális működés fenntartásához. Csúcssebessége 40 MHz volt, másodpercenként pedig hárommillió úgynevezett lebegőpontos művelet elvégzésére volt szükség. Vagyis, szuperszámítógépes mércével 3 megaFLOP volt a sebessége). Összehasonlítva ezt az első, 2012-ben megjelent Raspberry Pi-jal, azt látjuk, hogy mai szemmel nézve ez a sebesség bizony már nevetségesnek számít: a hitelkártya méretű Raspberry Pi ugyanis már nyolc évvel ezelőtt is 700 MHz-es processzorával 42 megaFLOP-ra volt képes.
Ne szaladjunk azonban ennyire előre, Cray fejlesztése ugyanis annyira modernnek számított, hogy a többi számítógépgyártó csak a fejét kapkodta a meglepetéstől. A CDC nem is ült a babérjain, mindössze 5 év alatt kifejlesztették a szuperkomputer következő változatát, a CDC 7600-ast. A cég vezetése és a szakember azonban nem jöttek ki túl jól egymással, amikor pedig a vállalat a Star-100 kódjelű gép fejlesztése mellett tette le a garast, Seymour Cray-nek elege lett és felmondott.
Ezután saját céget hoztott létre Cray Research néven, amelybe óriási összegeket fektettek a Wall Street befektetői. A Cray-1 jelű szuperszámítógép 1976-ban jelent meg, akkor elképesztőnek számító, 80 MHz-es sebességgel és 136 megaFLOP-os kapacitással. Különlegessége a jellegzetes C-alakú ház volt, amelyre azért volt szükség, mert a legmegbízhatóbbnak talált áramköri lapokat így lehetett a leghatékonyabban elrendezni. Ez egyébként Cray maximalizmusát tükrözte, ő ugyanis minden apró alkatrészt úgy terveztett meg, hogy az a lehető legnagyobb sebességet tegye lehetővé. További újítás volt, az úgynevezett vector processing módszer alkalmazása, amely akár 90 százalékkal is tudta növelni a gép megbízhatóságát. Nem véletlen, hogy a Cray-1 lett a 70-es és 80-as évek szuperszámítógépeinek szimbóluma.
Seymour Cray sem lazsált, folyamatosan tervezgetett és fejlesztett, hogy 1982-ben piacra dobhassa a Cray X-MP-t, amelybe már a nagy elődhöz képest néggyel több processzor került, ami 105 MHz-re, illetve 800 megaFLOP-ra tornázta fel a teljesítményt. Három évvel később pedig már meg is érkezett a Cray-2, a világ első folyadékhűtéses szuperszámítógépe. Ebbe már nyolc processzor is került, köztük egy „előtéri”, illetve hét háttérben dolgozó CPU képében.
Az első korszak vége: merre tovább?
A nyolcvanas évek azonban egyben a szuperszámítógépek aranykorának végét is jelentették: a hidegháború a végéhez közeledett, az amerikai kormány pedig már korántsem költött annyira szívesen dollármilliókat a különleges, egyedi gépekre.
Az iparág azonban nem halt el teljesen, különösen, hogy elkezdtek megjelenni az elérhetőbb, gazdaságosabb szupergépek is: az úgynevezett masszív párhuzamos feldolgozásnak (MPP) köszönhetően ugyanis már nem feltétlenül volt szükség bikaerős gépekre, amikor több tízezer, egybites processzor, bár egyenként csak kevésre volt képes, ilyen mennyiségben már komoly kapacitást tettek ki.
Seymour Cray azonban erről nem volt meggyőzve, mivel ő a jóval nagyobb kapacitású, de emiatt lényegesen drágább vektoros processzorokra esküdött. Ahogy ezzel kapcsolatban mondta: „ha felszántanád a tarlót, mit használnál inkább? Két erős ökröt vagy 1024 tyúkot?”
Ennek ellenére a Cray Research 1995-re csődbe ment, a névadó azonban nem adta fel: új céget hozott létre, SRC Computers néven, a célja pedig az volt, hogy saját ötleteit és az MPP-gépek hatékonyságát ötvözze. A sors azonban közbeszólt, Seymour Cray ugyanis 1996-ban egy autóbalesetben még azelőtt meghalt, hogy az elméletét tesztelhette volna.
Ötletei azonban nem vesztek el, az olyan japán gyártók, mint a NEC, a Fujitsu vagy a Hitachi ugyanis vektor-alapú szuperszámítógépek fejlesztésébe kezdtek. A Fujitsu 1993 és 1996 között el is tudta hódítani a világ leggyorsabb szuperkomputerének járó címet a Numerical Wind Tunnel nevű géppel, amely már 600 gigaFLOPra volt képes.
A kilencvenes évek: a találékony NASA-mérnökök fejlesztései
Eközben az amerikai Intel sem pihent, dollármilliókat költöttek ugyanis az ASIC Red nevű szuperszámítógép kifejlesztésére. Az igazi meglepetés azonban nem tőlük, hanem a NASA Goddard Space Flight Center néhány alulfizetett munkatársától, Don Beckertől és Tom Sterlingtől érkezett, akik kereskedelmi forgalomban kapható alkatrészekből – egészen pontosan 16 darab 486DX processzor (emlékszünk még a kilencenves évek csúcsát jelentő „négynyolcvanhatos” gépekre?) és egy másodpercenként 10 megabit sebességű hálózati kábel felhasználásával megépítették az első olyan szuperszámítógépet, amely már szinte a hétköznapi emberek számára is elérhető lett volna – ez volt a Beowulf.
Bár Becker és Sterling akkor még nem tudta, a Beowulf működési modellje lett a mai szuperszámítógépek alapja. A találékony NASA-mérnökök ugyanis megmutatták, hogy nincs szükség bonyolult célhardverekre, amikor a számítástechnikai üzletekben is kapható alkatrészekből is építhető gigaFLOP-os sebességet elérő masina.
Egybillió művelet másodpercenként
Ezt a mintát követve jött létre 1997-ben az IBM és az Intel közös projektjeként az ASCI Red szuperszámítógép, amelyet az amerikai energiaügyi minisztérium Sandia kutatólaborjában használtak, egészen 2006-ig. Ez volt az első gép, amely áttörte a teraFLOP-os határt, vagyis másodpercenként egybillió (1 000 000 000 000) művelet elvégzésére volt képes. Ehhez hatezer darab, 200 MHz sebességű Pentium Pro processzort kötöttek össze, amivel az ASCI Red a világ leggyorsabb, egyben legmegbízhatóbb szuperszámítógépévé vált.
Napjaink szuperszámítógépei azonban még egy ilyen monstrumot is könnyedén lepipálnak, ehhez arra volt szükség, hogy a processzorgyártók elkezdjenek specializált áramköröket gyártani, amelyek segítségével a különféle részszámítások sebessége jelentősen felgyorsult. Érdekes módon a grafikai megjelenítésre használt processzorok (GPU-k) bizonyultak a legjobbnak erre a célra, így sok szuperszámítógépben olyan lapkákat használnak, amelyek az otthoni számítógépeinkben vagy videojáték-konzoljainkban a látványért felelősek.
A GPU-k előre törése
Ennek egyik első példája a kínai Tianhe-2 (Tejút-2) szuperszámítógép, amelybe 33 ezer darab került az Intel 2,2 GHz-es Xeon processzorából, de építettek bele 48 ezer darabot a Xeon Phi jelű lapkákból is. Ennek sebességét már petaFLOP-banmérik, egészen konkrétan 33,86 petaFLOP a névleges teljesítménye, igaz, ehhez 24 megawatt energiára is szükség van (ennyi árammal több ezer háztartást lehetne ellátni elektromossággal).
A technológia fejlődését remekül mutatja, hogy ez mindössze szűk hat éve volt, ehhez képest 2017-ben a világ leggyorsabb szuperszámítógépe, a szintén kínai TaihuLight már 93,01 petaFLOP-pal állt az élen, ennek azonban legfeljebb egy évig örülhettek a kínai mérnökök, az IBM Summit nevű gépe ugyanis 2018 novemberében lett a világ leggyorsabbja, elképesztő 200 petaFLOP-os sebességgel (azt már csak érdekességként tesszük mellé, hogy a Summit merevlemezei összesen 250 petabyte tárolását teszik lehetővé).
A jövő szuperszámítógépei
Jelenleg nagyjából itt tart a világ, bár már feszegetjük a következő nagy mérföldkövet, az exaFLOP (1000 petaFLOP) kapacitású szuperszámítógépek kifejlesztését. Bár ez még stablian nem lehetséges, a Summitnak ez már majdnem sikerült. Ha átlépjük ezt a határt, onnantól már nincs messze az emberi agy működését idegsejtről idegsejtre szimuláló gép létrehozása sem.
Az ezt követő ugrást a már zettaFLOP-ban mérhető gépek jelentik majd, ezek kifejlesztéséhez azonban már egészen új megközelítésre lesz szükség, a jelenlegi eszközeinkkel ugyanis ezt a sebességet már nem tudjuk elérni. A szuperszámítógépek következő kategóriájában tehát már a kvantumkomputereknek is komoly szerep jut. Ez egyelőre azonban még annyira gyerekcipőben jár, hogy jelenleg még csak találgatni lehet, hogy melyik nagy cég – vagy esetleg egy csapat lelkes amatőr – teszi le az asztalra a kvantumszámítógépek első generációjának tervrajzait. Egy biztos, izgalmas évek következnek ezen a téren.
A mi tengerünk lenyomta Európát A Lenovo által a Barcelona Supercomputing Center számára szállított MareNostrum 4, a legnagyobb Intel-alapú szuperszámítógép a világ legszebb adatközpontjában üzemel. A Katalán Politechnikai Egyetemen, egy egykor kápolnaként használt épületben helyezték el a monumentális szervereket, melyek összesen 3400 következő generációs Lenovo szerverből álló csomópontot, skálázható Intel Xeon processzorokat, és összesen 60 kilométernyi magas sebességű kábelt tartalmaznak, melyek a csomópontokat kötik össze, összesen 390 terabyte központi memóriát biztosítva. |
Az oldalon elhelyezett tartalom a Lenovo megbízásából a HVG BrandLab közreműködésével jött létre. A tartalom előállításában a hvg.hu és a HVG hetilap szerkesztősége nem vett részt.
Szerver vagy felhő? – Nem könnyű kérdés, de segítünk!
A legtöbb vállalkozás számára szükségszerűen eljön a választás ideje: beruházzon egy irodai szerveres hálózatba, vagy rábízza adatait a rugalmasabb online felhőalapú megoldásokra? Megmutatjuk, mi alapján érdemes döntenie a cégének.