Menu
Jest wolny
rejestracja
Dom  /  Oprogramowanie układowe/ Procesory Gigaflops. Superkomputer z wydajnością petaflopów jest tuż za rogiem

Procesory Gigaflops. Superkomputer z wydajnością petaflopów jest tuż za rogiem

Badania pokazują, że moc obliczeniowa komputerów stacjonarnych jest o 13 lat niższa od wydajności superkomputera. Innymi słowy, dzisiejsze profesjonalne komputery PC są pod względem wydajności niemal tak wydajne, jak 13-letnie superkomputery. Dlatego badania rynku HPC są - dobry sposób ocenić kierunek rozwoju masowych komputerów przyszłości. Nie tak dawno temu superkomputery przekroczyły poprzeczkę wydajności jednego teraflopa (biliard operacji zmiennoprzecinkowych na sekundę) i nie są daleko od osiągnięcia poziomu wydajności petaflopów (kwadrylionów flopów lub 1015 operacji zmiennoprzecinkowych na sekundę). podczas gdy obliczenia tera pozostaną dla przeciętnego użytkownika komputera ...

Amerykański profesor i pisarz Steve Chen próbował sobie wyobrazić, jaki poziom wydajności będzie wystarczający do rozwiązywania różnych problemów w przyszłości. Jego zdaniem do aerodynamiki wystarczy kilka petaflopsów, do problemów z dynamiką molekularną 20 petaflopsów, do kosmologii obliczeniowej - fantastyczne wykonanie na poziomie 10 exaflops (jeden exaflop to kwintylion, czyli 1018 flopsów). ), a w przypadku problemów chemii obliczeniowej mocniejsze procesory. Steve Pavlovsky, starszy inżynier ds. badań w firmie Intel, dyrektor ds. technologii i dyrektor generalny ds. architektury i planowania w Digital Enterprise Group firmy Intel, uważa, że ​​komputery o wydajności sześćdziesięciu tysięcy, czyli 1021 operacji zmiennoprzecinkowych na sekundę, będą dostępne do 2029 r.

Steve Pavlovsky wierzy, że wyzwania i osiągnięcia dzisiejszych superkomputerów będą wyzwaniami i osiągnięciami komputerów stacjonarnych jutra. Rynek HPC rośnie – jego wielkość sięgnęła już 10 miliardów dolarów, a w niektórych sektorach roczny wzrost sprzedaży przekracza 30%; rośnie również liczba sprzedawanych na całym świecie profesjonalnych komputerów o wysokiej wydajności opartych na procesorach Intel.

Zaledwie 60 lat temu komputer lampowy ENIAC, uważany za szczyt technologiczny w dziedzinie obliczeń o wysokiej wydajności, miał zaledwie 20 ogniw. pamięć o dostępie swobodnym... W połowie lat 60. pojawił się superkomputer CDC 6600 o wydajności sięgającej 9 megaflopów. I dopiero w 1997 roku superkomputer ASCII Red, zawierający 9298 procesorów Intel Pentium Pro, osiągnął poziom wydajności równy teraflopom. Dziś system oparty na 464 czterordzeniowych procesorach Intel Xeon seria 5300, zajmująca znacznie mniejszą powierzchnię, ma sześciokrotnie wyższą wydajność.

Kiedy zostanie osiągnięta wydajność poziomu petaflopsów (tj. tysięcy teraflopów) lub, jak w przenośni ujmuje to Steve Pavlovsky, czy pokonana zostanie „bariera dźwiękowa” wydajności peta? A kiedy peta computing stanie się podstawą zwykłych systemów komputerowych?

Szacuje się, że pierwsze superkomputery peta pojawią się w latach 2008-2009 - aby określić ten harmonogram, wystarczy wziąć parametry wydajności najszybszych komputerów świata opublikowane na www.top500.org i dokonać ich ekstrapolacji zgodnie z obserwowanymi trendami wzrostowymi . Jednak w celu stworzenia peta-komputerów na rynek masowy należy rozwiązać wiele poważnych problemów. W tym celu Intel wraz z partnerami prowadzi badania w następujących obszarach:

  • wydajność;
  • wydajność pamięć;
  • interkonekty;
  • zarządzanie energią;
  • niezawodność.

Według Steve'a Pavlovskiego, aby osiągnąć poziom obliczeń dla zwierząt domowych za pomocą nowoczesne technologie zwiększenie wydajności mikroukładów półprzewodnikowych będzie wymagało stworzenia procesora ze 100 tysiącami rdzeni obliczeniowych. Do praktycznej realizacji takich układów konieczne będzie znaczne zwiększenie gęstości ułożenia jąder na krysztale. Obecnie toczy się zaciekła debata na temat architektury przyszłych komputerów – co jest lepsze: wiele małych rdzeni zoptymalizowanych pod kątem przyspieszenia obliczeń równoległych, czy kilka większych rdzeni zaprojektowanych w celu przyspieszenia obliczeń sekwencyjnych? Skłaniając się ku pierwszej ścieżce rozwoju, naukowcy rozumieją, że stawiają sobie żmudne zadanie przeniesienia branży oprogramowania na równoległe tory programowania…

Kolejnym obszarem badań Intela jest organizacja połączeń między rdzeniami obliczeniowymi. Połączenia autobusowe zajmują mniej miejsca, mają dużą przepustowość i dobrze się skalują, ale są nieefektywne energetycznie. Drugą opcją jest dzwonienie na rdzenie w celu sygnalizacji, czego wadą jest niski poziom skalowalności wraz ze wzrostem liczby rdzeni. Trzecią opcją jest architektura macierzowa, w której każdy rdzeń komunikuje się ze sobą poprzez łańcuch sąsiednich rdzeni.

Warto pamiętać, że na jesiennym forum Intel Developer Forum (IDF) w San Francisco zaprezentowano prototyp 80-rdzeniowego procesora, który może potencjalnie zapewnić wydajność w zakresie teraflopów dla komputery osobiste... Według dyrektora ds. technologii w Intelu, Justina Rattnera, szacowana data premiery takiego procesora na rynku to rok 2010 lub nawet wcześniej. Prototyp procesora oparty jest na architekturze x86 i opracowaniach Intela, takich jak wysokowydajne obliczenia na chipie (HPC-on-chip), nowa struktura połączeń elementów pamięci, nowe technologie energooszczędne itp.

W 2006 roku ogłosił Intel Corporation globalny program badań pod nazwą Tera-Scale Computing i skupia ponad 80 różnych projektów badawczych na całym świecie, rozproszonych w trzech głównych obszarach: ulepszanie technologii projektowania i produkcji kryształów krzemu, optymalizacja platform i nowe podejścia do programowania. W swoim przemówieniu w IDF Justin Rattner zauważył, że niezbędne kroki w kierunku ery tera zostaną podjęte w ciągu następnej dekady. Na przykład nowoczesne badania mają na celu optymalizację działania pamięci podręcznej, jej konfigurowalność w zależności od rozwiązywanych zadań oraz rozwijanie równoległości w dostępie do wielu rdzeni do pamięci współdzielonej. Intel planuje również zintegrować szerokopasmowy cyfrowy samodostrajający się bezprzewodowy transceiver ze swoimi matrycami, a aplikacje oparte na zintegrowanej fotonice krzemowej są tuż za rogiem.

„Wysokie szybkości przesyłania danych między rdzeniami obliczeniowymi a pamięcią to ważna kwestia”, podkreśla Pavlovsky. - Pamięć musi mieć bardzo dużą przepustowość. Jednocześnie, jeśli zwiększymy częstotliwość taktowania kanału pamięci, wkrótce staniemy przed fizycznymi ograniczeniami, jakie nakładają miedziane przewodniki.” Jednym z możliwych sposobów przezwyciężenia tych ograniczeń jest zwiększenie liczby kanałów pamięci, ale to zwiększa rozmiar procesora i jego koszt. „Będziemy musieli szukać bardziej egzotycznych technologii transmisji danych”, mówi Pavlovsky. „Szacujemy, że procesory peta będą wymagały około 500 GB/s pamięci do działania”.

Kolejnym najważniejszym aspektem działania domowych komputerów jest szybkość systemu I/O. Naukowcy firmy Intel pracują obecnie nad zapewnieniem szybkości przesyłania danych sięgających setek gigabajtów na sekundę (GB/s).

Jednak największymi wyzwaniami w urządzeniach peta są zasilanie i niezawodność. Zużycie energii przez nowoczesne duże centrum przetwarzania danych (DPC) wynosi średnio 9-10 MW. Moc pobierana przez komputer ze 100 tysiącami rdzeni może wynosić około 20 MW. Do tego należy dodać moc potrzebną do chłodzenia domowych komputerów. Przy obecnym koszcie prądu, sam koszt zasilania systemu peta przekroczyłby 14,6 miliona dolarów rocznie. Dlatego pytanie efektywne wykorzystanie energia elektryczna jest niezwykle ważna, co dyktuje stosowanie energooszczędnych technologii na wszystkich poziomach – od tranzystorów po centra danych:

  • na poziomie tranzystorów - napięte technologie krzemowe, technologie zmniejszania prądów upływowych itp .;
  • na poziomie procesora - równoważenie obciążenia w oparciu o wielowątkowość;
  • na poziomie systemu - bardzo precyzyjna kontrola zużycia energii w zależności od obciążenia systemu;
  • na poziomie centrum danych – zastosowanie zaawansowanych systemów chłodzenia cieczą i powietrzem, a także pionowa integracja rozwiązań rozpraszania ciepła.

Ponadto naukowcy przewidują pojawienie się zupełnie nieoczekiwanych problemów związanych z... promieniami kosmicznymi. W końcu procesory peta z wysoce zintegrowanymi elementami obliczeniowymi będą wykorzystywać tranzystory tak małe, że będą pod wpływem cząstek energetycznych, które tworzą promienie kosmiczne i mogą powodować przypadkowe awarie danych po wejściu do tranzystora. Wraz ze wzrostem gęstości tranzystorów na chipie liczba takich przypadkowych awarii będzie gwałtownie rosła. „Jeśli liczba rdzeni w chipie osiągnie 100 000, takie awarie staną się niemożliwe do opanowania” – mówi Pavlovsky. - Będą mieć coraz większy wpływ na działanie systemu i trzeba będzie z nimi walczyć. Rozpoczęliśmy już badania w tym kierunku.” Zaawansowane technologie Gwarancje niezawodności obejmują użycie kodów parzystości i korekcji błędów oraz użycie nadmiarowych rdzeni do walidacji wyników obliczeń głównych rdzeni systemu.

Technologia komputerowa rozwija się skokowo. Dlatego jest prawdopodobne, że w momencie publikacji tego artykułu światło ujrzało światło nowego „potwora informatyki”. Chcielibyśmy przedstawić Państwu pierwszą dziesiątkę liderów na listopad 2012.

1.Titan (USA) - 17,59 petaflops

Pierwsze miejsce zajął amerykański superkomputer Titan, stworzony przy udziale Craya i Nvidii. Znajduje się w Oak Ridge National Laboratory w Tennessee, które jest własnością Departamentu Energii Stanów Zjednoczonych. Titan może wykonać 17,59 biliarda operacji zmiennoprzecinkowych na sekundę, co odpowiada 17,59 petaflopom.

Tytan składa się z 18688 węzłów. Jest zbudowany na architekturze hybrydowej: każdy węzeł superkomputera zawiera 16-rdzeniowy procesor AMD Opteron i akcelerator graficzny Nvidia Tesla K20X. Korzystanie z procesorów graficznych może zmniejszyć zużycie energii przez system.

Titan jest wykorzystywany do projektowania energooszczędnych silników do pojazdów, symulowania skutków zmian klimatycznych i badania biopaliw. Oak Ridge dzierżawi superkomputer innym organizacjom badawczym.

2. Sekwoja (USA) – 16,32 petaflops

Superkomputer Sequoia, również należący do Departamentu Energii Stanów Zjednoczonych, działa na 1 572 864 rdzeniach. Sequoia jest opracowywana przez IBM dla Narodowej Administracji Bezpieczeństwa Jądrowego w ramach zaawansowanego programu obliczeniowego i symulacyjnego.

Sequoia będzie używana głównie do symulacji wybuchów jądrowych, zastępując superkomputery ASC Purple i Blue Gene/L w Livermore National Laboratory. Sequoia będzie również w stanie rozwiązywać problemy na potrzeby astronomii, energetyki, badania ludzkiego genomu i zmian klimatycznych.

Sequoia jest zbudowana na architekturze Blue Gene/Q, najnowszej generacji w linii architektur superkomputerowych Blue Gene. Superkomputer składa się z 98 304 węzłów obliczeniowych i dysponuje 1,6 PB pamięci w 96 rackach, rozmieszczonych na powierzchni 300 metrów kwadratowych. m. Zastosowano 16 lub 8-rdzeniowe jednostki centralne Power Architecture, wyprodukowane w technologii procesowej 45 nm.

IBM stworzył komputer, który może rozwiązać 20 biliardów różnych operacji matematycznych w ciągu jednej sekundy. Oznacza to, że gdyby 7 miliardów ludzi wzięło kalkulatory i zaczęło jednocześnie bez przerwy wykonywać obliczenia matematyczne, wszystkie 24 godziny na dobę, wszystkie 365 dni, to operacje te zajęłyby nie mniej niż 320 lat. Ale teraz nie musisz tego robić, ponieważ narodziła się Sequoia. Komputer wykona takie obliczenia w zaledwie godzinę.

Komputer 3.K (Japonia) - 10,51 petaflopów

Komputer K to japoński superkomputer wyprodukowany przez firmę Fujitsu, uruchomiony w 2011 roku w Instytucie Badań Fizyczno-Chemicznych RIKEN w Kobe. Nazwa pochodzi od japońskiego przedrostka „kei”, oznaczającego 10 biliardów i jednocześnie oznaczającego stolicę, czyli aluzję do „głównego komputera”

Według stanu na czerwiec 2011 r. system posiadał 68 544 8-rdzeniowych procesorów SPARC64 VIIIfx umieszczonych w 672 szafach obliczeniowych, reprezentujących 548 352 rdzeni obliczeniowych wyprodukowanych przez firmę Fujitsu w procesie technologicznym 45 nm. Superkomputer wykorzystuje chłodzenie wodne, aby zmniejszyć zużycie energii i zwiększyć gęstość upakowania.

4. Mira (USA) - 8,16 petaflopa

Za pomocą superkomputera IBM Blue Gene/Q (Mira) amerykańscy naukowcy spróbują zamodelować wszechświat. Naukowcy mają nadzieję uzyskać odpowiedzi na najciekawsze pytania dotyczące pochodzenia wszechświata. Komputer ma symulować i konsekwentnie obliczać 12 miliardów lat, które minęły od Wielkiego Wybuchu.

Superkomputer składa się z 50 tysięcy węzłów obliczeniowych, z których każdy zawiera 16 rdzeni. Komputer wykorzystuje ogromny 70 petabajtowy system przechowywania i chłodzenia cieczą. Mira jest w stanie wykonać 8 biliardów operacji na sekundę.

5. JuQueen (Niemcy) - 5,9 petaflopów

JuQueen, najpotężniejszy superkomputer w Europie, został oficjalnie uruchomiony w niemieckim mieście Julich (Nadrenia Północna-Westfalia). Jego wydajność wynosi 5,9 petaflopów lub 5,9 tys. bilionów operacji na sekundę.

Procesory JuQueen mają łącznie prawie 459 tysięcy rdzeni. Jednocześnie zostały opracowane przy użyciu energooszczędnych technologii. System będzie chłodzony za pomocą cyrkulujących strumieni wody o temperaturze 18 stopni. Eksperci zwracają uwagę, że ta maszyna jest około 100 tysięcy razy wydajniejsza od najnowocześniejszego komputera osobistego.

Komputer został opracowany przez korporację IBM. Projekt był finansowany ze środków największej organizacji naukowej Republiki Federalnej Niemiec - Centrum Helmholtza, budżetu federalnego, a także ze skarbu Nadrenii Północnej-Westfalii. Dokładna kwota nie została ujawniona.

6.SuperMUC (Niemcy) - 2,9 petaflopa

SuperMUC, drugi najpotężniejszy superkomputer w Europie, został uruchomiony pod koniec czerwca 2012 r. Superkomputer został stworzony do rozwiązywania złożonych problemów naukowych z zakresu fizyki i dynamiki płynów. Maszyna działa na platformie SUSE Linux Enterprise Server. SuperMUC w System X iDataPlex firmy IBM jest wyposażony w ponad 155 000 rdzeni procesora, co zapewnia łączną maksymalną wydajność około 3 petaflopów.

Cechą szczególną SuperMUC jest opracowana przez IBM innowacyjna technologia chłodzenia systemu ciepłą wodą, która opiera się na układzie krążenia krwi w organizmie człowieka. Dzięki temu SuperMUC zużywa o 40% mniej energii na systemy chłodzenia niż „klasyczne” centra danych, a także pozwala gromadzić i wykorzystywać zaoszczędzoną energię do ogrzewania budynków Centrum Komputerowego Leibniz.

7. Stampede (USA) – 2,7 petaflopa

Texas Advanced Computing Center (TACC) na Uniwersytecie Teksańskim stworzył superkomputer zdolny do wykonywania 2,7 biliarda operacji zmiennoprzecinkowych na sekundę. TACC jest częścią projektu XSEDE (Science and Engineering Advanced Discovery Environment), którego celem jest zapewnienie naukowcom dostępu do zasobów superkomputerowych.

Sercem Stampede jest hiperskalarna architektura firmy Dell z ośmiordzeniowymi procesorami Intel Xeon E5-2680. Procesory Xeon zapewniają ponad 2 petaflopy wydajności. Prace nad projektem wciąż trwają, a w 2013 roku Stampede użyje także nowych koprocesorów Intel Xeon Phi przeznaczonych do wykonywania obliczeń równoległych, które będą odpowiadać za ponad 7 petaflopów wydajności systemu. Zwiększy to całkowitą wydajność systemu do 10 petaflopów.

Oprócz procesora Xeon Phi superkomputer będzie korzystał ze 128 procesorów graficznych nowej generacji firmy NVIDIA, aby zapewnić zdalną wirtualizację. Po zainstalowaniu procesorów wydajność systemu może wzrosnąć do 15 petaflopów Intel nowość pokolenia. Mellanox jest kolejnym dostawcą komponentów dla firmy Stampede, dostarczając sprzęt sieciowy Infiniband 56 Gb/s.

System chłodzenia superkomputera zbudowany jest na zasadzie izolowania gorących stref i polega na wykorzystaniu wbudowanych modułów chłodzących, co pozwala na umieszczenie sprzętu o dużej gęstości do 40 kW na szafę. System dystrybucji zasilania dostarcza 415V do szaf i 240V do serwerów. Zapotrzebowanie na moc systemów Stampede i Ranger jest dostarczane przez podstację energetyczną o mocy 10 MW.

8.Tianhe-1A (Chiny) - 2,57 petaflopa

Tianhe-1A to superkomputer zaprojektowany Uniwersytet Narodowy technologie obronne Chińskiej Republiki Ludowej. Szybkość obliczeniowa superkomputera wynosi 2,57 petaflopsa.

Tianhe-1A wykorzystuje 7168 procesorów graficznych Nvidia Tesla M2050 i 14336 procesorów serwerowych Intel Xeon. Według Nvidii superkomputer zużywa energię elektryczną trzy razy wydajniej niż inne komputery elektroniczne w swojej klasie. Superkomputer zbudowany wyłącznie w oparciu o jednostki centralne,(CPU), przy porównywalnej szybkości obliczeniowej, zużyłaby ponad 12 MW energii elektrycznej. Energia elektryczna zużywana przez Tianhe-1A to 4,04 MW. Bez GPU superkomputer o porównywalnej wydajności wymagałby zainstalowania ponad 50 000 procesorów.

Budowa superkomputera kosztowała 88 mln USD, a roczne koszty eksploatacji to ok. 20 mln USD.W utrzymaniu pracuje około 200 specjalistów. Głównym obszarem pracy są badania nad produkcją oleju i aerodynamiką. deklaruje „ otwarty dostęp»Do superkomputera, który teoretycznie pozwala na jego wykorzystanie przez inne kraje.

9. Fermi (Włochy) – 1,7 petaflopa

Fermi jest na dziewiątym miejscu. Systemwysłanyna serwerach non-profit konsorcjum Cineca, które obejmuje 54 włoskie uniwersytety i organizacje badawcze.Fermi składa się z 10 240 procesorów PowerA2 1,6 GHz, każdy z 16 rdzeniami. W sumie komputer ma 163 840 rdzeni obliczeniowych.Każdy procesor jest wyposażony w 16 GB pamięci RAM (1 GB na rdzeń).Fermi jest używany przez włoskie i europejskie zespoły badawcze do wykonywania obliczeń potrzebnych w projektach badawczych na dużą skalę w celu rozwiązania podstawowych problemów w nauce i technologii.System nosi imię Enrico Fermi, włoskiego fizyka jądrowego.

10. Podzbiór próbny DARPA (USA) – 1,5 petaflopa

System ten to serwer IBM Power 775 z rdzeniami 63360, który osiąga wydajność 1,5 petaflopsa. Inne informacje na temat ten moment nie.

Podsumowując…

Rozwój rosyjski - superkomputer „Łomonosow”, należący do Moskiewskiego Uniwersytetu Państwowego im. M.V. Łomonosow, na tej liście (na koniec 2012 r.) zajmuje dwudzieste drugie miejsce. Jego wydajność wyniosła 0,9 petaflopa. Głównym powodem, dla którego samochody krajowe nie zajmują czołowych pozycji w rankingach międzynarodowych, rosyjscy producenci jednogłośnie podają brak odpowiedniego finansowania.

Głównym typem węzłów zapewniających ponad 90% wydajności superkomputera jest T-Blade2. Ta platforma superkomputerowa została stworzona przez inżynierów T-Platforms od podstaw - wszystkie jej płyty i elementy mechaniczne są opatentowanymi rozwiązaniami firmy. Pod względem gęstości obliczeniowej na metr kwadratowy powierzchni T-Blade2 nie ma na świecie odpowiednika. Tak więc rosyjscy producenci, mimo wszystko, mogą być dumni, że stworzyli najbardziej „kompaktowy” superkomputer na świecie!

Flops to jednostka, która reprezentuje wydajność superkomputera. Jeden petaflops (1 Pflops) oznacza, że ​​maszyna może wykonać 1 biliard (1000 bilionów) operacji na sekundę. Teraz tylko dwie maszyny mają pojemność powyżej 1 Pflops - Jaguar, montowany przez Cray i Roadrunner, produkowany przez IBM. Oba superkomputery znajdują się w Stanach Zjednoczonych. Ogólnie z pierwszej dziesiątki tylko dwa superkomputery znajdują się poza Stanami Zjednoczonymi: w Niemczech i Chinach.

04.08.2009 12:20

Dziś przemysł komputerowy znajduje się w czołówce nauki i technologii. Do rozwiązywania złożonych problemów z zakresu fizyki, astronomii, biologii, medycyny potrzebne są duże moce obliczeniowe. To superkomputery mogą w tym pomóc, bo są do tego stworzone.

Ostatnio dość często pojawiały się informacje, że gdzieś powstał kolejny superkomputer. Ale czym jest ten cud techniki? W nowoczesnym sensie superkomputer to potężna elektroniczna maszyna obliczeniowa o wydajności ponad biliona operacji zmiennoprzecinkowych na sekundę, czyli teraflopów. Flops (z angielskiego. Floating point Operations Per Second) to wartość służąca do mierzenia wydajności komputerów, pokazująca, ile operacji zmiennoprzecinkowych na sekundę wykonuje dany system obliczeniowy. Z reguły nowoczesny superkomputer to wieloprocesorowy lub wielokomputerowy kompleks (a w niektórych przypadkach wersja kombinowana) działający na wspólnej pamięci i wspólnym polu urządzeń zewnętrznych.

Tradycyjnie głównym obszarem zastosowania superkomputerów są badania naukowe. Fizyka plazmy i mechanika statystyczna, fizyka materii skondensowanej, fizyka molekularna i atomowa, teoria cząstek elementarnych, dynamika gazów i teoria turbulencji, astrofizyka to tylko niektóre z dziedzin, w których w grę wchodzi olbrzymia moc obliczeniowa.

Dziś do rozwiązywania problemów technicznych wykorzystuje się również super wydajne systemy komputerowe. Są to przede wszystkim zadania przemysłu lotniczego i motoryzacyjnego, energetyki jądrowej, przewidywania i zagospodarowania złóż kopalin, przemysłu naftowego i gazowniczego, a także bezpośrednio budowa superkomputera.

Superkomputery są również tradycyjnie wykorzystywane do celów wojskowych. Oprócz opracowywania różnorodnych broni, symulują ich użycie. Na przykład w Stanach Zjednoczonych moc obliczeniowa superkomputera Departamentu Energii będzie potrzebna do symulacji użycia broni jądrowej, co pozwoli w przyszłości całkowicie zrezygnować z prawdziwych prób jądrowych.

Obecnie większość superkomputerów TOP-500 zajmuje się badaniami naukowymi. W tym obszarze zaangażowane są 72 najpotężniejsze maszyny informacyjne i obliczeniowe. Branża finansowa obsługiwana jest przez 46 superkomputerów, 43 maszyny służące do geofizyki, 33 pracujące w usługach informacyjnych, 31 zarządzające logistyką, 29 rozwijające półprzewodniki, 20 produkujące oprogramowanie, 18 wykorzystywane w usługach informacyjnych oraz 12 systemów obsługujących Internet.

Praca z ogromnymi tablicami obliczeniowymi odróżnia superkomputery od serwerów i mainframe'ów - systemów komputerowych o wysokiej wydajności ogólnej, przeznaczonych do rozwiązywania typowych zadań, na przykład utrzymywania dużych baz danych lub pracy z wieloma użytkownikami w tym samym czasie.

Wzrost wydajności systemów obliczeniowych następuje przede wszystkim ze względu na wzrost szybkości bazy fizycznej i technologicznej ( części elektroniczne urządzeń pamięci, środków komunikacji, wejścia-wyjścia i wyświetlania informacji) oraz rozwój paralelizmu w procesie przetwarzania informacji na wszystkich poziomach systemowo-strukturalnych, co wiąże się ze wzrostem liczby zaangażowanych komponentów (elementów przetwarzających, wielkości pamięci, urządzenia zewnętrzne).

Najpopularniejszą architekturą superkomputerową (72% na liście TOP-500) są dziś tzw. klastry. Do budowy architektury klastrowej superkomputera wykorzystuje się węzły obliczeniowe, które czasami są najzwyklejszymi komputerami. W takim węźle jest zwykle kilka procesorów - od 2 do 8. Do tego wykorzystywane są dość zwyczajne komponenty szeroko dostępne na rynku - płyty główne (SMP-multiprocesor), procesory Intel, AMD czy IBM, a także zwykłe Moduły RAM i dyski twarde.
W swojej stosunkowo krótkiej historii superkomputery ewoluowały od systemów o niskim poborze mocy według nowoczesnych standardów do maszyn o fantastycznej wydajności.

Pierwsza wzmianka o superkomputerze pochodzi z końca lat 20. ubiegłego wieku, kiedy termin ten pojawił się na łamach gazety New York World w postaci wyrażenia „super computing” (przetłumaczone z angielskiego - supercomputing) . Ta koncepcja o których mowa w tabulatorach - komputerach elektromechanicznych produkowanych przez IBM na potrzeby i na potrzeby Uniwersytetu Columbia i wykonujących najbardziej złożone obliczenia jak na tamte czasy. Oczywiście wtedy po prostu nie było superkomputerów we współczesnym znaczeniu, ten odległy przodek współczesnych komputerów był raczej rodzajem kalkulatora.

Odniesienie do terminu „superkomputer” w odniesieniu do potężnego elektronicznego systemu obliczeniowego przypisuje się George'owi A. Michaelowi i Sidneyowi Fernbachowi, pracownikom Livermore National Laboratory (USA, Kalifornia) i Control Data Corporation. Pod koniec lat 60. zajmowali się tworzeniem potężnych komputerów na potrzeby Departamentu Obrony USA i przemysłu energetycznego. To właśnie w Livermore Laboratory opracowano większość superkomputerów, w tym najszybszy superkomputer na świecie w latach 2004-2008, Blue Gene/L.

Jednak termin „superkomputer” znalazł szerokie zastosowanie dzięki amerykańskiemu programiście komputerowemu Seymourowi Crayowi, który w 1957 roku stworzył Control Data Corporation, zajmującą się projektowaniem i budową elektronicznych systemów obliczeniowych, które stały się przodkami nowoczesnych superkomputerów. W 1958 roku pod jego kierownictwem powstał pierwszy na świecie potężny komputer oparty na tranzystorach CDC 1604. Warto dodać, że firma Seymour Kray jako pierwsza zaczęła masowo produkować superkomputery – w 1965 roku maszyna CDC-6600 o pojemności 3 na rynek wchodziło milion operacji na sekundę. Ten komputer stał się podstawą całego kierunku, który Cray założył w 1972 roku i nazwał Cray Research. Firma ta zajmowała się wyłącznie rozwojem i produkcją superkomputerów. W 1976 roku firma Cray Research wypuściła system obliczeniowy CRAY-1 o prędkości około 100 megaflopów. A dziewięć lat później, w 1985 roku, superkomputer CRAY-2 pokonuje prędkość obliczeniową 2 gigaflopsów.

W 1989 roku Seymour Cray otwiera Cray Computer Corporation, skupiając się wyraźnie na perspektywach rynku superkomputerów. Tutaj tworzy superkomputer CRAY-3, którego prędkość osiągnęła już pięć gigaflopsów. Powiązany z tym komputerem interesujący fakt... Faktem jest, że po pojawieniu się CRAY-3 wyrażenie „Cray time” weszło do języka angielskiego, co oznaczało koszt godziny pracy superkomputera (wówczas 1 tysiąc dolarów za godzinę). W kręgach informatyków krążyło jeszcze jedno wyrażenie – „Superkomputer to każdy komputer, który stworzył Seymour Cray”.

Warto zauważyć, że w latach 80. XX wieku pojawiło się wiele małych konkurencyjnych firm, które stworzyły komputery o wysokiej wydajności. Jednak w połowie lat 90., nie mogąc wytrzymać konkurencji z dużymi korporacjami, większość małych i średnich firm opuściła ten obszar działalności.

Dziś superkomputery są unikalne systemy stworzony przez „tradycyjnych” graczy komputerowych, takich jak IBM, Hewlett-Packard, Intel, NEC i innych. Dokładnie te komputerowi giganci dyktują teraz zasady gry w wysokowydajnych systemach obliczeniowych.

W 1997 roku Amerykanin Intel wypuścił superkomputer ASCI Red, który stał się pierwszym na świecie systemem o szybkości ponad jednego biliona operacji na sekundę – 1,334 teraflopów. Superkomputery Intela utrzymywały prowadzenie przez kolejne dwa lata, ale w 2000 roku pierwszym był komputer IBM ASCI White zainstalowany w Lawrence Livermore National Laboratory, który co sekundę przynosił 4 biliony dolarów. 938 miliardów obliczeń (4,938 teraflopów). Ten superkomputer utrzymywał pozycję lidera przez kolejny rok, uzyskując po modernizacji prędkość równą 7,226 teraflopów. Ale już w kwietniu 2002 roku japońska firma NEC ogłosiła uruchomienie superkomputera Earth Simulator, który był w stanie osiągnąć maksymalną prędkość 35,86 teraflopów.

Świat superkomputerów przeszedł kolejną zmianę liderów jesienią 2004 roku - 29 września superkomputer firmy IBM Blue Gene/L zajął pierwsze miejsce na świecie. Ten potężny system obliczeniowy osiągnął prędkość 36,01 teraflopów. Jednak rekord ten nie trwał długo – już 26 października amerykańska Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) ogłosiła, że ​​jej nowy superkomputer Columbia, zbudowany przez Silicon Graphics i nazwany na cześć zmarłego w lutym 2003 r. wahadłowca, wykonał serię obliczenia przy prędkości 42,7 teraflopów. Kilka dni później ten sam komputer był w stanie zwiększyć prędkość do 51,87 teraflopów.
Na początku listopada 2004 roku tytuł absolutnego rekordzisty ponownie zdobył Blue Gene/L, którego kolejna próbka została wydana przez IBM dla Departamentu Obrony USA. Obecnie maksymalna prędkość jego pracy przekracza 70,72 teraflopów. Ten komputer był liderem do czerwca 2008 r., kiedy to IBM dla laboratorium nuklearnego w Los Alamos (USA, Nowy Meksyk) zbudował kolejne arcydzieło superkomputera - najpotężniejszy elektroniczny system obliczeniowy roadrunnera, jaki kiedykolwiek stworzono.

Specjalnie do rozliczania superkomputerów powołany został projekt TOP-500, którego głównym zadaniem jest opracowanie rankingu i opisów najpotężniejszych komputerów na świecie. Projekt ten został otwarty w 1993 roku i publikuje zaktualizowaną listę superkomputerów dwa razy w roku (w czerwcu i listopadzie).

Tak więc, jak już wspomniano, najpotężniejszym obecnie superkomputerem, zgodnie z najnowszą edycją rankingu TOP-500, jest system obliczeniowy IBM Roadrunner. Ten komputer jest zbudowany na hybrydowym schemacie 6500 dwurdzeniowych Procesory AMD Opteron i prawie 13 000 procesorów IBM Cell 8i umieszczonych w dedykowanych stojakach TriBlades połączonych za pomocą Infiniband — szybkie połączenie telefoniczne magistrala szeregowa... Jego maksymalna wydajność to 1,105 petaflopsa.

Roadrunner działa na Linuksie. Superkomputer IBM zajmuje około 1100 metrów kwadratowych powierzchni i waży 226 ton, a jego pobór mocy wynosi 3,9 megawata. Koszt IBM Roadrunner wyniósł 133 miliony dolarów.

Departament Energii USA użyje RoadRunner do obliczenia starzenia się materiałów jądrowych oraz analizy bezpieczeństwa i niezawodności arsenału jądrowego. Ponadto ten superkomputer będzie wykorzystywany do obliczeń naukowych, finansowych, transportowych i kosmicznych.
Drugie miejsce w rankingu zajmuje superkomputer Cray XT5 Jaguar, który jest zainstalowany w laboratorium Departamentu Energii USA w Oak Ridge w stanie Tennessee. Jego wydajność to 1,059 petaflopów.

Jaguar ustanowił nowy rekord wydajności po dodaniu dwustu Cray XT5 do 84 Cray XT4. Te ostatnie bazują na czterordzeniowych procesorach AMD Opteron. Każdy blok Cray XT5 zawiera do 192 procesorów. Łączna liczba procesorów Jaguara to 45 tys.

Spośród innych charakterystyka techniczna superkomputera znana jest ilość jego pamięci RAM i pojemność dysków, wynoszą one odpowiednio 362 terabajty i 10 petabajtów.

W przeciwieństwie do IBM Roadrunner superkomputer Jaguara musi stawić czoła pokojowym zadaniom. Na przykład zostanie wykorzystany do symulacji zmian klimatycznych w obszarach takich jak energia odnawialna i materiałoznawstwo. Ponadto Departament Energii USA twierdzi, że Jaguar umożliwi badania procesów, o których wcześniej nie było mowy. Jakie te procesy niestety nie są zgłaszane.

Trzecim najpotężniejszym superkomputerem na świecie, a zarazem najszybszym w Europie, jest model linii superkomputerów IBM Blue Gene/P, który jest zainstalowany w centrum badawczym miasta Julich w Niemczech. Uruchomiony latem tego roku kompleks komputerowy JUGENE ma 72 szafy rack, w których mieści się 294 912 procesorów PowerPC 450 rdzeni 850 MHz, a jego moc wynosi 825,5 teraflopów. Pojemność pamięci niemieckiego superkomputera wynosi 144 TB. Dodatkowo superkomputer ten jest jednym z najbardziej ekonomicznych urządzeń wśród podobnych rozwiązań – jego pobór mocy to około 2,2 MW.

Zasoby obliczeniowe tego superkomputera wykorzystywane są m.in. w obliczeniach projektów związanych z badaniami termojądrowymi, opracowywaniem nowych materiałów, poszukiwaniem leków nowej generacji, a także w modelowaniu zmian klimatycznych, zachowania cząstek elementarnych , złożone reakcje chemiczne itp. projektami zajmuje się grupa niezależnych ekspertów.

Nawiasem mówiąc, według stanu na listopad 2008 r. Rosja zajmuje 11-14 miejsce pod względem liczby zainstalowanych systemów, wraz z Austrią, Nową Zelandią i Hiszpanią. Liderem tego wskaźnika są Stany Zjednoczone, gdzie z rankingu jest około 300 superkomputerów. Jednak pod względem mocy najwydajniejszy rosyjski superkomputer MVS-100K, który realizuje zadania w Międzywydziałowym Centrum Superkomputerowym Akademii Nauk Federacji Rosyjskiej, jest dopiero na 54. miejscu. Mimo to MVS-100K o szczytowej wydajności 95,04 teraflopów na obecnie to najpotężniejszy superkomputer zainstalowany w krajach WNP. Składa się z 990 modułów obliczeniowych, z których każdy wyposażony jest w dwa czterordzeniowe procesory Intel Xeon o taktowaniu 3 GHz. W najbliższej przyszłości planowane jest zwiększenie wydajności MVS-100K do 150 TFlops. Ten superkomputer jest przeznaczony do rozwiązywania wielu złożonych problemów naukowych i technicznych.

Jakie są perspektywy dla superkomputerów w przyszłości? Według ekspertów najbardziej różowe. Ale już widać, że ich wydajność będzie rosła dość szybko ze względu na wzrost liczby rdzeni procesorów i średniej częstotliwości procesorów. Ponadto do rozwiązywania problemów stosowanych w superkomputerach wykorzystywane będą nie tylko procesory ogólnego przeznaczenia, ale także specjalizowane (np. procesory graficzne opracowane przez Nvidię i ATI) przeznaczone do specyficzne zadania... Również producenci superkomputerów będą szukać nowych unikalnych rozwiązań architektonicznych, które nie tylko podniosą moc komputerów, ale także dadzą przewagę w konkurencji na rynku komercyjnym. Dodatkowo w przyszłości superkomputery będą zauważalnie zwiększać wydajność dzięki rozwojowi narzędzi programowych. Wzrosną też zdolności intelektualne superkomputerów, a wraz z nimi umiejętności zawodowe programistów i innych informatyków.

Warto również zauważyć, że w przyszłości systemy obliczeniowe o dużej mocy będą stopniowo zwiększać swoją obecność na światowym rynku komputerowym. Według IDC światowy rynek superkomputerów rośnie w tempie 9,2% rocznie. Przychody producentów superkomputerów w drugim kwartale 2008 roku wyniosły 2,5 miliarda dolarów, czyli o 4% więcej niż w analogicznym okresie ubiegłego roku io 10% więcej niż w pierwszym kwartale 2008 roku.

Według analityków IDC, HP zajął pierwsze miejsce pod względem przychodów z udziałem w rynku na poziomie 37%, a następnie IBM (27%) i zamyka „trzech” liderów Dell (16%). Według prognoz analityków IDC, rynek superkomputerów do 2012 roku osiągnie 15,6 mld dolarów.

Spośród systemów zaprezentowanych w TOP-500, 209 (41,8%) zostało wyprodukowanych przez specjalistów HP. Na drugim miejscu jest IBM z 186 komputerami, a na trzecim Cray z 22 superkomputerami.

Jeśli chodzi o Rosję, według Michaiła Kozhevnikova, dyrektora handlowego firmy T-Platforms, roczny wzrost rynku superkomputerów wynosi około 40%. Tak więc, według T-Platforms, wielkość rynku superkomputerów w Rosji w 2007 roku wyniosła około 60 milionów dolarów, aw 2008 roku rynek urósł do około 80 milionów dolarów. Według Michaiła Kozhevnikova nawet w czasie kryzysu oczekuje się, że w 2009 roku rynek wzrośnie o około 60%, aw sprzyjających warunkach nawet do 100%.

Jak widać, superkomputery nabierają tylko „komercyjnego” rozpędu. Trudno sobie to wyobrazić, ale rzeczywiście, nieporęczne komputery są sprzedawane na rynku komputerowym jak „ciepłe bułeczki”. Czy powinniśmy spodziewać się mniejszej wersji superkomputera o takiej samej wydajności, jaką mają obecnie duże systemy obliczeniowe? Chyba tylko same superkomputery mogą odpowiedzieć na to trudne pytanie, bo to jest ich praca.

Koniec pracy -

Ten temat należy do sekcji:

Nowa lista najpotężniejszych superkomputerów nazwanych

Stworzenie super-mocnych komputerów zostało nazwane jednym z priorytetów technologicznych autorów.. Pavel Lebedev tworzenie super-mocnych komputerów zostało nazwane jednym z priorytetów..

Jeśli potrzebujesz dodatkowych materiałów na ten temat lub nie znalazłeś tego, czego szukałeś, polecamy skorzystanie z wyszukiwania w naszej bazie prac:

Co zrobimy z otrzymanym materiałem:

Jeśli ten materiał okazał się dla Ciebie przydatny, możesz zapisać go na swojej stronie w sieciach społecznościowych:

− 10 21 yottaflops − 10 24 kseraflopy − 10 27

FLOPY(lub klapy lub flop / s) (akronim z języka angielskiego. Fl punkt wodny O operacje P er S ekund , wymawiane jak klapy) to wartość używana do mierzenia wydajności komputerów, pokazująca, ile operacji zmiennoprzecinkowych na sekundę wykonuje dany system obliczeniowy.

O ile nowoczesne komputery mają wysoki poziom wydajności, pochodne FLOPS są bardziej powszechne, tworzone przy użyciu standardowych przedrostków SI.

Flopy jako miara wydajności

Podobnie jak większość innych wskaźników wydajności, ta wartość jest określana przez uruchomienie programu testowego na komputerze testowym, który rozwiązuje problem przy znanej liczbie operacji i oblicza czas jego rozwiązania. Najpopularniejszym obecnie testem wydajności jest program LINPACK, który służy między innymi do zestawienia rankingu superkomputera TOP500.

Jedną z najważniejszych zalet wskaźnika flopów jest to, że w pewnym stopniu można go interpretować jako wartość bezwzględną i obliczać teoretycznie, podczas gdy większość innych popularnych miar ma charakter względny i pozwala ocenić testowany system tylko w porównaniu z wielu innych. Ta funkcja umożliwia wykorzystanie wyników różnych algorytmów do oceny, a także do oceny wydajności systemów obliczeniowych, które jeszcze nie istnieją lub są w fazie rozwoju.

Ograniczenia stosowania

Pomimo pozornej jednoznaczności, w rzeczywistości flopy są raczej kiepskim miernikiem wydajności, ponieważ sama ich definicja jest niejednoznaczna. Pod „operacją zmiennoprzecinkową” może kryć się wiele różnych pojęć, nie mówiąc już o tym, że znaczącą rolę w tych obliczeniach odgrywa szerokość operandów, która również nie jest nigdzie podana. Dodatkowo na ilość flopów wpływa wiele czynników niezwiązanych bezpośrednio z wydajnością modułu obliczeniowego, takich jak: przepustowość kanałów komunikacyjnych ze środowiskiem procesora, wydajność pamięci głównej oraz synchronizacja pamięci podręcznej pamięć na różnych poziomach.

Wszystko to ostatecznie prowadzi do tego, że wyniki uzyskiwane na tym samym komputerze przy użyciu różnych programów mogą się znacznie różnić, co więcej, przy każdym nowym teście można uzyskać inne wyniki przy użyciu tego samego algorytmu. Problem ten częściowo rozwiązuje umowa na stosowanie monotonnych programów testowych (ten sam LINPACK) z uśrednianiem wyników, jednak z czasem możliwości komputerów „przerastają” zakres przyjętego testu i zaczynają dawać sztucznie zaniżone wyniki, ponieważ nie wykorzystuje najnowszych możliwości urządzeń komputerowych. A w przypadku niektórych systemów ogólnie przyjętych testów nie można w ogóle zastosować, w wyniku czego kwestia ich wydajności pozostaje otwarta.

Powody powszechnego stosowania

Pomimo dużej liczby istotnych niedociągnięć, wskaźnik flopów nadal jest z powodzeniem wykorzystywany do oceny wydajności na podstawie wyników testu LINPACK. Przyczyny tej popularności wynikają po pierwsze z faktu, że flop, jak wspomniano powyżej, jest wartością bezwzględną. Po drugie, wiele problemów praktyki inżynierskiej i naukowej ostatecznie sprowadza się do rozwiązywania układów liniowych równań algebraicznych, a test LINPACK opiera się właśnie na pomiarze szybkości rozwiązywania takich układów. Ponadto zdecydowana większość komputerów (w tym superkomputery) zbudowana jest zgodnie z klasyczną architekturą z wykorzystaniem standardowych procesorów, co pozwala na stosowanie ogólnie przyjętych testów o wysokiej niezawodności. Jak pokazano na procesorach Intel Core 2 Quad Q9450 2,66 GHz @ 3,5 GHz i Intel Core 2 Duo E8400 3000 MHz (2008) LINPACK nie używa rozwiązań ekspresji algebraicznej, ponieważ żadna operacja nie może przebiegać szybciej niż 1 zegar procesora. Tak więc w przypadku procesorów Intel Core 2 Quad jeden zegar wymaga jednego lub dwóch herców. Ponieważ do zadań zmiennoprzecinkowych: dzielenia/mnożenia, dodawania/odejmowania - wymagany jest znacznie więcej niż jeden cykl zegara, można zauważyć, że procesory te nie były w stanie wyprodukować odpowiednio 48 gigaflopsów i 18,5 gigaflopsów. Często zamiast operacji dzielenia zmiennoprzecinkowego stosuje się ładowanie danych w trybie DMA z pamięci RAM do stosu procesora. Tak właśnie działa LINPACK w niektórych testach, ale mówiąc ściślej, wynik nie jest wartością flopów.

Notatka: uwaga o niemożności wykonania więcej niż jednej operacji w cyklu jest absolutnie błędna, ponieważ wszystkie współczesne procesory w każdym z ich rdzeni zawierają po kilka jednostek wykonawczych każdego typu (w tym dla operacji zmiennoprzecinkowych) pracujących równolegle i mogą wykonywać więcej niż jedną instrukcja na cykl. Ta cecha architektura nazywa się superskalarna i po raz pierwszy pojawiła się w pierwszym procesorze

Prawdziwy przegląd wydajności systemu

Ze względu na duży rozrzut wyników testów LINPACK podane są wartości orientacyjne, uzyskane poprzez uśrednienie wskaźników na podstawie informacji z różnych źródeł. Osiągi konsol do gier i systemów rozproszonych (o wąskiej specjalizacji i nieobsługujących testu LINPACK) podano w celach informacyjnych zgodnie z liczbami podanymi przez ich twórców. Dokładniejsze wyniki wskazujące parametry poszczególnych systemów można uzyskać np. na stronie internetowej.

Superkomputery

Komputery osobiste

Procesory

  • Intel Core 2 Duo E8400 3,0 GHz () — 18,6 Gflops przy użyciu standardowej wersji LINPACK 10
  • Intel Core 2 Duo E8400 3,0 GHz @ 4,0 GHz () — 25 Gflops (LINPACK Benchmark 10,0 64-bitowy) w Windows Vista x64 Ostateczny SP1
  • Intel Core 2 Quad Q9450 2,66 GHz @ 3,5 GHz — 48 GFlops (LINPACK Benchmark 10.0 64-bitowy) w systemie Windows 2003sp2 x64

Komputery kieszonkowe

Systemy rozproszone

Konsole do gier

Człowiek i kalkulator

Notatki (edytuj)

Zobacz też

Spinki do mankietów

  • TOP500 Ocena superkomputera TOP500 (ang.)
  • Wydajna baza danych serwera baz danych o dużej wydajności obliczeniowej
  • Kolekcja testów PC Benchmark Roya Longbottoma Wybór testów porównawczych komputerów PC (w tym LINPACK) i wyników testów (ang.)
  • Linpack CPU Benchmark dla Pocket PC Wersja LINPACK dla Pocket PC

Fundacja Wikimedia. 2010.

Zobacz, co „Petaflops” znajduje się w innych słownikach:

    Zrzut ekranu klienta [e-mail chroniony] dla PlayStation 3, przedstawiający model 3D symulowanego białka Type Distributed Computing ... Wikipedia

Sony Computer Entertainment Inc. z dumą ogłosił, że udział systemu rozrywki PLAYSTATION 3 umożliwił projekt [e-mail chroniony] Stanford University, aby osiągnąć łączną moc przekraczającą 1 petaflops.

Petaflops to zdolność komputera lub sieci do wykonywania 1 biliarda (jedno z 24 zerami) obliczeń zmiennoprzecinkowych na sekundę (FLOPS). Innymi słowy, gdyby każda osoba na Ziemi wykonała proste obliczenia matematyczne (na przykład obliczenie procentu określonej kwoty), to każdy Ziemianin musiałby wykonać 75 000 prostych obliczeń matematycznych na sekundę, aby całkowita moc obliczeniowa ludzkości osiągnąć petaflopy.

Podobny wzrost mocy obliczeniowej projektu [e-mail chroniony] znacznie przyspieszy badania, które wcześniej trwały dziesięciolecia. Wszystko to jest możliwe dzięki silnikowi Cell Broadband Engine (Cell / B.E.) PLAYSTATION 3, który ma moc przetwarzania ponad 180 GFLOPS (miliardów operacji zmiennoprzecinkowych na sekundę). Komórka / B.E. około 10 razy szybszy niż konwencjonalny procesor PC, więc PLAYSTATION 3 można dosłownie nazwać domowym superkomputerem. Udział PLAYSTATION 3 w projekcie pomaga naukowcom zidentyfikować przyczyny chorób, takich jak choroba Parkinsona, choroba Alzheimera i nowotwory.

Według adiunkta i kierownika projektu na Uniwersytecie Stanforda [e-mail chroniony] Vijay Pande, dodaje PLAYSTATION 3 do projektu [e-mail chroniony] oddać do dyspozycji naukowców taką moc, o jakiej nie mogli nawet marzyć.

Z kolei prezes i dyrektor generalny amerykańskiego oddziału SCEI Jack Tretton powiedział, że już na etapie rozwoju inżynierowie firmy wiedzieli, że moc PLAYSTATION 3 będzie wykorzystywana nie tylko do rozrywki, ale także dla dobra całej ludzkości. Dla całego zespołu SCEI wykorzystanie jej pomysłu w projektach takich jak [e-mail chroniony], - to powód do dumy.

Badania białek to niezwykle złożony proces. Posiadać zwykły komputer rozwiązanie najprostsze zadanie może potrwać do 30 lat. [e-mail chroniony] rozdziela obliczenia na tysiące komputerów połączonych w jedną sieć. Do niedawna w [e-mail chroniony] używany tylko komputery osobiste... Projekt objął około 200 tysięcy komputerów PC, których łączna pojemność wynosiła około jednej czwartej petaflopsa. Dzięki aktualizacji oprogramowania wbudowanego w dniu 15 marca 2007, PLAYSTATION 3 "nauczył się" pracy z tym projektem. Po tym w [e-mail chroniony] Zarejestrowało się ponad 600 tysięcy użytkowników PLAYSTATION 3, co pozwoliło im przekroczyć moc 1 petaflopsa.

Wziąć udział w [e-mail chroniony], wystarczy podłączyć PLAYSTATION 3 do Internetu, pobrać nową wersję wewnętrznego oprogramowanie Oprogramowanie systemowe i kliknij ikonę [e-mail chroniony] Aby uzyskać więcej informacji, zobacz sekcję Sieć w menu głównym XMB (XrossMediaBar). W ustawieniach możesz ustawić opcję automatyczny start aneksy [e-mail chroniony] gdy PLAYSTATION 3 jest w trybie czuwania. Aby aplikacja uruchomiła się automatycznie, PLAYSTATION 3 musi być włączony i podłączony do Internetu.

Należy zauważyć że [e-mail chroniony] To dopiero początek. SCEI planuje dodać do PLAYSTATION 3 wsparcie dla wielu innych projektów przetwarzania rozproszonego w różnych dziedzinach nauki, od medycyny po badania społeczne i środowiskowe. Jednocześnie właściciele PLAYSTATION 3 będą mogli sami zdecydować, gdzie wykorzystać moc swojego systemu rozrywki.