Logowanie

Ukryj panel

Strona główna
MRT Net
Reklama
Logowanie
Nick :
Hasło :
 Zapisz
Rejestracja
Zgubiłeś hasło ?

Kamerki internetowe.

Panel sterowania
MRT Net
Aktualności
Artykuły
Archiwum
Czas na narty !
Czas na rower !
Zwiedzaj Kraków
Plikownia
Linki
Kalendarz
Galeria
Radio Online
Gry Online
Twój YouTube!
Ankiety
Newsletter
RSS
Księga gości
Wyszukiwarka
Kontakt

Reklama
MRT Net

40% zniżki karnet w PKL.

Partnerzy

Wyszukiwarka
Zaawansowane szukanie

Chmura Tag'ów
Microsoft Programy Samsung Wave Android Bada Aktualności Linki Nowości Informacje Fotografia T-Mobile Technologie Adobe Specyfikacje Galaxy Premiera Zapowiedzi Intel Nvidia Kraków Architektura Biotechnologia Chip System Nawigacja Galileo Gps Windows Linux Galeria Software Hardware Top 500 Superkomputery Serwer Wirtualizacja Flash Pamięci Internet Plikownia YouTube Gry Radio Amd Panasonic Nokia Nikon Sony OS Cloud Computing Red Hat Enterprise Toshiba LTE 4G Lockheed Martin Motorola IBM Internet Explorer 11 Grafen Wirtualna Mapa Krakowa Lamusownia Kraków DVB-T2 TeamViewer 13.0 Fifa 2018 Trasy rowerowe Pro Evolution Soccer 2018 Mozilla Firefox Pity 2017 Rakiety NSM Windows 8 Sony Xperia Tablet S LEXNET Samsung Galaxy S9 Dworzec Główny Kraków PKP Windows Phone Windows 10 Microsoft Lumia 950



  Przyszłość superkomputerów.
Artykul
Kategoria : Nowe technologie
Dodany : 15.11.2010 12:18
Komentarze : 0



Na odbywającej się od dzisiaj konferencji poświęconej problematyce superkomputerów prof. Stephen Jarvis przedstawi matematyczne analizy dwóch konkurencyjnych podejść do tworzenia superkomputerów.


fot. Nvidia

Podejście amerykańskie polega na wykorzystaniu dość prostych rdzeni obliczeniowych (CPU, czyli tradycyjnych procesorów), które są bardzo wydajnie i skalowalnie połączone ze sobą, przykładem są architektury IBM Blue Gene, natomiast podejście stosowane przez Chińczyków, m.in. w nowym Numero Uno świata superkomputerów, Tianhe 1A czy w poprzednim nr 2, Nebulae wykorzystuje dużą liczbę GPGPU, uniwersalnych jednostek GPU (koprocesorów graficznych). Cytując prof. Jarvisa:



Dyskusja "Czy kupić GPGPU czy BlueGene" to idealny przykład interesującej walki. Nikt nie jest pewien, który z projektów pozwoli nam dość do obliczeń eksaskalowych, następnego kamienia milowego w obliczeniach komputerowych 21 wieku, jednego kwintyliona operacji zmiennoprzecinkowych na sekundę (10^18). I to nie jest tylko decyzja dotycząca architektury - moc wymagana do zasilenia jednego z tych superkomputerów mogłaby zasilić małe miasteczko, a nawet gdyby wydać pieniądze i zbudować taki a następnie zasilić go, to i tak zaprogramowanie go jest niemożliwe.

Badania przeprowadzone przez prof. Jarvisa stosują modelowanie matematyczne do określenia, jakie problemy dotykające współczesnych superkomputerów są naistotniejsze. Pierwszym z nich jest fakt, że programiści mają problemy z wykorzystaniem nawet części mocy zapewnianej w teorii przez współczesne superkomputery. Problem ten jest dużo bardziej zauważalny przy komputerach opartych o procesory graficzne, takich jak chiński Tianhe-1A. Ma on teoretyczną wydajność szczytową 4,7 petaflopsów (biliardów operacji zmiennoprzecinkowych na sekundę - FLoating-point Operations Per Second), ale najlepsze programy na niego mogą wyciągnąć najwyżej 2,5 petaflopsów. Jak widać, duża część chińskiej superkomputerowej pary idzie w gwizdek. Dla porównania, amerykański BlueGene/P w Lawrence Livermore National Laboratory to niewielkie urządzenie mające maksymalną wydajność sprzętową 0,5 petaflopsa, ale programy mogą wykorzystać z tego 0,415 petaflopsa. Wynika to w dużej mierze z tego, że współczesne paradygmaty tworzenia programów oparte są cały czas o tradycję wykorzystywania procesorów, a nie kart graficznych.



Inny kluczowy problem to fakt, że twórcy nowych superkomputerów dążący do wykorzystania potężnych nowych GPU nie poświęcili wystarczających wysiłków do stworzenia technologii pozwalających na równoległe łączenie ich w naprawdę dużej skali. Modelowanie wykazało, że małe systemy oparte o GPU rozwiązują problemy od 3 do 7 razy szybciej niż tradycyjne systemy oparte o CPU, jednak kiedy zwiększa się liczbę połączonych ze sobą systemów przetwarzania, wydajność systemów opartych o GPU, jak chińskie Tianhe, rośnie dużo wolniej niż w urządzeniach opartych o masywnie połączone ze sobą CPU, takich jak BlueGene.

Cała praca ma zostać przedstawiona w dniu dzisiejszym na warsztatach PMBS 10 (Performance Modeling, Benchmarking and Simulation of High Performance Computing), poświęconych modelowaniu, testowaniu wzorcowemu i symulowaniu superkomputerów.

źródło: science daily
  



^ Wróć do góry ^
Powered by MRT Net 2004-2025.