reklama
reklama
reklama
reklama
reklama
reklama
reklama
reklama
© grzegorz kula dreamstime.com Technologie | 27 listopada 2018

Nowa era dla AI, Cloud Computing i HPC, dzięki nowym GPU od AMD

Nowe GPU od AMD wzbogacono o specjalne dedykowane akceleratory, które wspomogą aplikacje datacenter, HPC, chmurowe oraz AI. Szczególnie w tym ostatnim się dobrze odnajdą dzięki wsparciu ROCm (DLOPS).

GPU, czyli jednostki graficzne, kojarzą się najczęściej z grami. Jednak za sprawą swojej architektury i potężnym możliwościom obliczeniowym, zwłaszcza w sferze przetwarzania równoległego, świetnie odnajdują się w aplikacjach, które z grami nie mają zbyt wiele wspólnego. Przykładem mogą być ‘datacenters’. To właśnie dla nich, firma AMD przygotowała nowe specjalne GPU, wykonane w technologii 7 nm, wyposażone w akceleratory Radeon Instinct MI60 oraz MI50. Zostały zaprojektowane z myślą o aplikacjach nastawionych na wysoce wydajne obliczenia (HPC), AI („deep learning”), przetwarzanie chmurowe, itp. Z jednostek tych mogą skorzystać nie tylko inżynierowie ‘datacenter’, ale także naukowcy. Procesory te świetnie odnajdą się w rozwiązywaniu trudnych problemów, w tym symulacji zmian klimatów, analizowaniu próbek biologicznych, chorób i innych wieloskalowych symulacjach. Nowe jednostki GPU oferują o wiele więcej, niż ich odpowiedniki ze starszych generacji, jak podają twórcy. Dają większe możliwości, pozwalając efektywnie dostosowywać się do ewoluujących wymagań w sferze przetwarzania danych w ‘datacenters’, takich jak systemy operujące na chmurze. AMD Radeon Instinct ma z powodzeniem rozwiązywać obecne, jak i przyszłe problemy w takich aplikacjach jak te w/w. Jest to związane z udanym połączeniem architektury o najwyższej elastyczności i wydajności, z mocną platformą software’ową oraz ekosystemem ROCm. Akceleratory oferują spore możliwości w zakresie mieszanej precyzji, wspieranej przez bardzo mocne jednostki obliczeniowe, które rozszerzają typy obciążeń, z jakimi poradzą sobie te akceleratory, wliczając w to, jak podaje producent, ‘deep learning’ oraz HPC. Dzięki temu dobrze radzą sobie z takimi zadaniami jak obsługa sieci neuronowych podczas treningów, zapewniając wyższy poziom wydajności zmiennoprzecinkowej i nie tylko. Udaje się to osiągnąć też dzięki ultra-szybkim pamięciom HBM2 (druga generacja „high bandwidth memory”), które zapewniać mają przepustowość na poziomie nawet 1 TB/s. Mają to być też pierwsze GPU, które wspierają interfejs PCIe 4.0 (nadchodzącej generacji). Interfejs ten ma być 2-krotnie szybszy niż inne, dotychczasowe technologie komunikacyjne na linii CPU (x86) a GPU. Co więcej, układy wyposażono też w nowoczesną technologię łączeniową AMD Infinity Fabric Link, która zapewnia, że komunikacja GPU-GPU ma być 6-krotnie szybsza niż to, co oferuje PCIe w trzeciej (obecnej) generacji. Do kluczowych cech nowych układów GPU można więc zaliczyć:
  • optymalizacja dla operacji nauczania (‘deep learning’) – wsparcie dla możliwości operowania na zmiennej (mieszanej) precyzji: FP16, FP32 i INT4/INT8, by spełnić wymagania dla dynamicznych i zmiennych obciążeń.
  • najszybsze akceleratory podwójnej precyzji (PCIe) – MI60 to najszybsze akcelerator podwójnej precyzji PCIe 4.0, oferując wydajność 7.4 TFLOPS w szczycie w przetwarzaniu FP64. Pozwala to na dużo efektywniejszą pracę w zastosowaniach HPC, w przemyśle, nauce, finansach, lotnictwie, motoryzacji, militariach, itp. MI50 osiąga również świetne wyniki, choć tylko nieco słabsze niż jego brat, bo 6.7 TFLOPS w operacjach FP64. Ma się odnaleźć w takich zastosowaniach jak: VDI, DaaS, itp.
  • 6-krotnie lepszy transfer danych – mowa tu rzecz jasna o wspomnianej technologi AMD Infinity Fabric Links, która pozwala połączyć ze sobą 4 jednostki w konfiguracji roju, zapewniając przepustowość rzędu 200 GB/s.
  • ultra-szybkie pamięci HBM2 – akceleratory mogą efektywnie współpracować z wydajnymi pamięciami HBM2 z funkcjami ECC: w przypadku MI60 do 32 GB, a w przypadku MI50 do 16 GB. Znajdziemy tu pełne wsparcie zarówno dla ECC, jak i RAS. Zapewni to dokładność i niezawodność.
  • wsparcie dla zabezpieczonych obciążeń zwirtualizowanych („Secure Virtualized Workload Support”) – jest to zasługa wsparcia technologii AMD MxGPU. To wydajne rozwiązanie wirtualizacji sprzętowej, bazującej na technologii SR-IOV. Utrudniać ma to znacząco ataki hakerskie na poziomie sprzętowym. To z kolei wpływać ma mocno na poprawę bezpieczeństwa.
Warto też dopowiedzieć o wspomnianej wyżej platformie Open Software ROCm. AMD zaprezentowało jej najnowszą wersję, która stworzona została tak, by ułatwić pracę projektantom i przyśpieszyć procesy deweloperskie przy tworzeniu wysoce wydajnych (obliczeniowo i energetycznie) systemów heterogenicznych. Wersja 2.0 ma nie tylko wspierać AMD Radeon Instinct, ale też posiadać aktualizowane biblioteki wspierające DLOPS (operacje ‘deep learning’) i 64-bitowe systemu z rodziny Linux. Zoptymalizowano też istniejące komponenty oraz wzbogacono wsparcie dla frameworków AI, takich jak: TensorFlow 1.11, PyTorch (Caffe2), itp. MI60 ma być dostępne jeszcze w tym roku (2018), pod jego koniec, zaś MI50 pojawi się na początku przyszłego (Q1 2019). Platforma ROCm w wersji 2.0 ma być dostępna, podobnie jak MI60, do końca obecnego roku.
reklama
reklama
Załaduj więcej newsów
November 12 2019 07:31 V14.7.10-2