reklama
reklama
reklama
reklama
reklama
reklama
reklama
© Pixabay
Analizy |

Coraz więcej danych – potrzebne eksaskalowe komputery

High Performance Computing, czyli zdolność systemów IT do wykonywania obliczeń o ogromnej wydajności, kojarzona z tzw. superkomputerami, zaczyna przenikać do biznesowego mainstreamu.

Według wyliczeń ResearchAndMarkets globalny rynek HPC do 2025 roku ma sięgnąć niemal 50 mld USD. Ale to tylko jedno z doniesień zwiastujących coraz powszechniejszą adaptację HPC również w branżach, które dotąd nie sięgały po te rozwiązania. Już do końca tego roku ma zostać opracowany pierwszy na świecie eksaskalowy superkomputer – Aurora. Miliard miliardów w sekundę – Takiego tempa i zakresu obliczeń jak dotąd nie udało się jeszcze nigdy osiągnąć. Wiele wskazuje, że mamy przed sobą wejście w kolejną erę computingu. To naturalne następstwo tak znacznego przyrostu danych, które przedsiębiorstwa i instytucje gromadzą i coraz częściej „wyławiają” z nich to co istotne, strukturyzując i doceniając swoje cyfrowe biblioteki. Oczywiście, dzisiaj wybrane branże realnie potrzebują aż takiej mocy obliczeniowej, jednak sytuacja będzie się zmieniać bardzo dynamicznie – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud. Już dziś, zgodnie z informacjami firmy badawczej IDC, ilość generowanych danych przyrasta 33 razy szybciej niż zdolność i gotowość firm do ich przetworzenia i analizy. [i]– Myślę, że za wzrostem zapotrzebowania na bardzo wysoką wydajność computingu podążą także usługi chmurowe, zdolne do jej dostarczania drogą sieciową, gdyż nikt w dobie dzisiejszych czasów nie będzie już raczej myślał o tworzeniu własnej, zwłaszcza tak kosztowej i tak wydajnej, infrastruktury – dodaje Marcin Zmaczyński. Do czego zdolny jest exascale computing? Obecnie najmocniejsze superkomputery są w stanie wykonywać ponad 1015 (milion miliardów) operacji na sekundę. Oznacza to zatem wydajność w petaskali. Kilka najbardziej wydajnych systemów jest dzisiaj w stanie przekroczyć 1017 (minimum sto milionów miliardów) operacji w ciągu sekundy. Początek nowej dekady będzie jednak przełomowy pod kątem przekroczenia nieosiągalnej dotąd wydajności – mianowicie eksaskali. Ta generacja superkomputerów będzie w stanie wykonywać 1018 (miliard miliardów) operacji na sekundę. W pewnym przybliżeniu, jest to moc obliczeniowa odpowiadająca wszystkim smartfonom używanym przez całą populację krajów członkowskich Unii Europejskiej. Potrzeba matką wynalazków Potrzebę sięgania po znaczenie wydajniejsze narzędzia analizy i operowania na danych stymuluje przede wszystkim ich galopujący przyrost i dynamicznie rozrastające się ekosystemy informatyczne – w tym internetu rzeczy - w firmach, administracji publicznej, zakładach produkcyjnych czy placówkach medycznych. Tylko w 2020 roku liczba globalnie wygenerowanych danych sięgnęła, zgodnie z analizą IDC, 64,2 ZB (zettabajta). – W 2024 roku wartość ta ma być już niemal trzykrotnie większa. Coraz bardziej rozbudowane systemy czujników i sensorów w produkcji, rozrastające się firmowe bazy danych od działów R&D po marketing, potrzeba szybszego opracowywania aplikacji przez stale powiększające się grono software house’ów – to tylko wybrane czynniki napędzające popyt na ogromną moc obliczeniową. Rynek musi więc na niego odpowiadać, co wyrażać się będzie także w przyroście zdolności do dostarczania computingu o wysokiej wydajności przez centra danych – uzupełnia Marcin Zmaczyński. Działania w zakresie podnoszenia mocy obliczeniowej na nowy poziom są także jednym z kluczowych założeń Europejskiego Programu Cyfrowego (Digital Europe Programme). Ogólna wartość lokowanego w nim finansowania, gdzie obszarem supercomputingu wyróżnić możemy także sztuczną inteligencję czy cyberbezpieczeństwo, wynosi 7,6 mld EUR.

reklama
reklama
Załaduj więcej newsów
April 25 2024 14:09 V22.4.31-1
reklama
reklama