reklama
reklama
reklama
reklama
reklama
reklama
© grzegorz kula dreamstime.com Technologie | 27 listopada 2018

Nowa era dla AI, Cloud Computing i HPC, dzi臋ki nowym GPU od AMD

Nowe GPU od AMD wzbogacono o specjalne dedykowane akceleratory, kt贸re wspomog膮 aplikacje datacenter, HPC, chmurowe oraz AI. Szczeg贸lnie w tym ostatnim si臋 dobrze odnajd膮 dzi臋ki wsparciu ROCm (DLOPS).
GPU, czyli jednostki graficzne, kojarz膮 si臋 najcz臋艣ciej z grami. Jednak za spraw膮 swojej architektury i pot臋偶nym mo偶liwo艣ciom obliczeniowym, zw艂aszcza w sferze przetwarzania r贸wnoleg艂ego, 艣wietnie odnajduj膮 si臋 w aplikacjach, kt贸re z grami nie maj膮 zbyt wiele wsp贸lnego.

Przyk艂adem mog膮 by膰 鈥榙atacenters鈥. To w艂a艣nie dla nich, firma AMD przygotowa艂a nowe specjalne GPU, wykonane w technologii 7 nm, wyposa偶one w akceleratory Radeon Instinct MI60 oraz MI50. Zosta艂y zaprojektowane z my艣l膮 o aplikacjach nastawionych na wysoce wydajne obliczenia (HPC), AI (鈥瀌eep learning”), przetwarzanie chmurowe, itp.

Z jednostek tych mog膮 skorzysta膰 nie tylko in偶ynierowie 鈥榙atacenter鈥, ale tak偶e naukowcy. Procesory te 艣wietnie odnajd膮 si臋 w rozwi膮zywaniu trudnych problem贸w, w tym symulacji zmian klimat贸w, analizowaniu pr贸bek biologicznych, chor贸b i innych wieloskalowych symulacjach.

Nowe jednostki GPU oferuj膮 o wiele wi臋cej, ni偶 ich odpowiedniki ze starszych generacji, jak podaj膮 tw贸rcy. Daj膮 wi臋ksze mo偶liwo艣ci, pozwalaj膮c efektywnie dostosowywa膰 si臋 do ewoluuj膮cych wymaga艅 w sferze przetwarzania danych w 鈥榙atacenters鈥, takich jak systemy operuj膮ce na chmurze.

AMD Radeon Instinct ma z powodzeniem rozwi膮zywa膰 obecne, jak i przysz艂e problemy w takich aplikacjach jak te w/w. Jest to zwi膮zane z udanym po艂膮czeniem architektury o najwy偶szej elastyczno艣ci i wydajno艣ci, z mocn膮 platform膮 software鈥檕w膮 oraz ekosystemem ROCm.

Akceleratory oferuj膮 spore mo偶liwo艣ci w zakresie mieszanej precyzji, wspieranej przez bardzo mocne jednostki obliczeniowe, kt贸re rozszerzaj膮 typy obci膮偶e艅, z jakimi poradz膮 sobie te akceleratory, wliczaj膮c w to, jak podaje producent, 鈥榙eep learning鈥 oraz HPC. Dzi臋ki temu dobrze radz膮 sobie z takimi zadaniami jak obs艂uga sieci neuronowych podczas trening贸w, zapewniaj膮c wy偶szy poziom wydajno艣ci zmiennoprzecinkowej i nie tylko.

Udaje si臋 to osi膮gn膮膰 te偶 dzi臋ki ultra-szybkim pami臋ciom HBM2 (druga generacja 鈥瀐igh bandwidth memory”), kt贸re zapewnia膰 maj膮 przepustowo艣膰 na poziomie nawet 1 TB/s. Maj膮 to by膰 te偶 pierwsze GPU, kt贸re wspieraj膮 interfejs PCIe 4.0 (nadchodz膮cej generacji). Interfejs ten ma by膰 2-krotnie szybszy ni偶 inne, dotychczasowe technologie komunikacyjne na linii CPU (x86) a GPU. Co wi臋cej, uk艂ady wyposa偶ono te偶 w nowoczesn膮 technologi臋 艂膮czeniow膮 AMD Infinity Fabric Link, kt贸ra zapewnia, 偶e komunikacja GPU-GPU ma by膰 6-krotnie szybsza ni偶 to, co oferuje PCIe w trzeciej (obecnej) generacji.

Do kluczowych cech nowych uk艂ad贸w GPU mo偶na wi臋c zaliczy膰:
  • optymalizacja dla operacji nauczania (鈥榙eep learning鈥) 鈥 wsparcie dla mo偶liwo艣ci operowania na zmiennej (mieszanej) precyzji: FP16, FP32 i INT4/INT8, by spe艂ni膰 wymagania dla dynamicznych i zmiennych obci膮偶e艅.
  • najszybsze akceleratory podw贸jnej precyzji (PCIe) 鈥 MI60 to najszybsze akcelerator podw贸jnej precyzji PCIe 4.0, oferuj膮c wydajno艣膰 7.4 TFLOPS w szczycie w przetwarzaniu FP64. Pozwala to na du偶o efektywniejsz膮 prac臋 w zastosowaniach HPC, w przemy艣le, nauce, finansach, lotnictwie, motoryzacji, militariach, itp. MI50 osi膮ga r贸wnie偶 艣wietne wyniki, cho膰 tylko nieco s艂absze ni偶 jego brat, bo 6.7 TFLOPS w operacjach FP64. Ma si臋 odnale藕膰 w takich zastosowaniach jak: VDI, DaaS, itp.
  • 6-krotnie lepszy transfer danych 鈥 mowa tu rzecz jasna o wspomnianej technologi AMD Infinity Fabric Links, kt贸ra pozwala po艂膮czy膰 ze sob膮 4 jednostki w konfiguracji roju, zapewniaj膮c przepustowo艣膰 rz臋du 200 GB/s.
  • ultra-szybkie pami臋ci HBM2 鈥 akceleratory mog膮 efektywnie wsp贸艂pracowa膰 z wydajnymi pami臋ciami HBM2 z funkcjami ECC: w przypadku MI60 do 32 GB, a w przypadku MI50 do 16 GB. Znajdziemy tu pe艂ne wsparcie zar贸wno dla ECC, jak i RAS. Zapewni to dok艂adno艣膰 i niezawodno艣膰.
  • wsparcie dla zabezpieczonych obci膮偶e艅 zwirtualizowanych (鈥濻ecure Virtualized Workload Support”) 鈥 jest to zas艂uga wsparcia technologii AMD MxGPU. To wydajne rozwi膮zanie wirtualizacji sprz臋towej, bazuj膮cej na technologii SR-IOV. Utrudnia膰 ma to znacz膮co ataki hakerskie na poziomie sprz臋towym. To z kolei wp艂ywa膰 ma mocno na popraw臋 bezpiecze艅stwa.


Warto te偶 dopowiedzie膰 o wspomnianej wy偶ej platformie Open Software ROCm. AMD zaprezentowa艂o jej najnowsz膮 wersj臋, kt贸ra stworzona zosta艂a tak, by u艂atwi膰 prac臋 projektantom i przy艣pieszy膰 procesy deweloperskie przy tworzeniu wysoce wydajnych (obliczeniowo i energetycznie) system贸w heterogenicznych.

Wersja 2.0 ma nie tylko wspiera膰 AMD Radeon Instinct, ale te偶 posiada膰 aktualizowane biblioteki wspieraj膮ce DLOPS (operacje 鈥榙eep learning鈥) i 64-bitowe systemu z rodziny Linux. Zoptymalizowano te偶 istniej膮ce komponenty oraz wzbogacono wsparcie dla framework贸w AI, takich jak: TensorFlow 1.11, PyTorch (Caffe2), itp.

MI60 ma by膰 dost臋pne jeszcze w tym roku (2018), pod jego koniec, za艣 MI50 pojawi si臋 na pocz膮tku przysz艂ego (Q1 2019). Platforma ROCm w wersji 2.0 ma by膰 dost臋pna, podobnie jak MI60, do ko艅ca obecnego roku.
reklama
reklama
Za艂aduj wi臋cej news贸w
January 17 2019 14:20 V11.11.0-2