
AMD prezentuje otwartą wizję ekosystemu AI
12 czerwca 2025 roku firma AMD przedstawiła podczas wydarzenia Advancing AI 2025 swoją nową strategię rozwoju zintegrowanego, otwartego ekosystemu sztucznej inteligencji. Zaprezentowano zarówno nowe produkty sprzętowe, jak i rozwiązania programowe oraz systemowe, których celem jest zapewnienie elastycznej i wydajnej infrastruktury AI dla partnerów przemysłowych oraz społeczności open source.
Podstawowym elementem ogłoszenia były nowe akceleratory graficzne AMD Instinct MI350. Seria obejmuje modele MI350X i MI355X, które według danych firmy zapewniają czterokrotnie wyższą wydajność obliczeniową w porównaniu z poprzednią generacją oraz 35-krotny wzrost wydajności w zadaniach inferencji. MI355X ma także oferować nawet 40% więcej tokenów na dolara w porównaniu do konkurencyjnych rozwiązań.
Nowe akceleratory są już wdrażane w chmurze Oracle Cloud Infrastructure i mają być szeroko dostępne w drugiej połowie 2025 roku. AMD deklaruje, że systemy bazujące na tych układach spełniły jej pięcioletni cel poprawy efektywności energetycznej w zadaniach treningu AI – osiągnięto 38-krotny wzrost względem punktu odniesienia.
Firma przedstawiła też zapowiedź kolejnej generacji infrastruktury AI o nazwie „Helios”, która będzie oparta na przyszłych akceleratorach Instinct MI400, procesorach EPYC „Venice” z architekturą Zen 6 oraz kartach sieciowych AMD Pensando „Vulcano”. Nowa platforma ma zapewniać do 10 razy lepszą wydajność w zadaniach inferencyjnych z użyciem modeli typu Mixture of Experts.
„AMD napędza innowacje w dziedzinie sztucznej inteligencji w niespotykanym dotąd tempie, czego dowodem jest wprowadzenie na rynek akceleratorów AMD Instinct MI350, postępy w pracach nad rozwiązaniami AMD „Helios” nowej generacji w skali rack oraz rosnąca popularność naszego otwartego stosu oprogramowania ROCm. Wkraczamy w kolejną fazę rozwoju sztucznej inteligencji, napędzaną otwartymi standardami, wspólnymi innowacjami i rosnącą pozycją AMD w szerokim ekosystemie partnerów sprzętowych i programowych, którzy współpracują nad określeniem przyszłości sztucznej inteligencji” - powiedziała dr Lisa Su, prezes i dyrektor generalny AMD.
Podczas wydarzenia AMD poinformowało, że siedmiu z dziesięciu największych twórców modeli AI korzysta już z akceleratorów Instinct. Współpracę z firmą potwierdziły między innymi:
- Meta – wykorzystuje MI300X do inferencji modeli Llama 3 i 4; planuje wdrożenia z MI350 i MI400.
- OpenAI – prowadzi wdrożenia MI300X w ramach Azure; pracuje z AMD nad integracją przyszłych generacji sprzętu.
- Microsoft – używa MI300X do obsługi modeli własnych i open source w chmurze Azure.
- Oracle – ogłosiło budowę klastrów AI złożonych z ponad 131 tys. akceleratorów MI355X.
- HUMAIN – nawiązał strategiczne partnerstwo z AMD w celu budowy otwartej i skalowalnej infrastruktury AI.
- Cohere – wdrożył swoje modele Command na MI300X dla zapewnienia prywatności i wydajności.
- Red Hat – integruje akceleratory AMD z platformą OpenShift AI.
- Astera Labs i Marvell – współpracują z AMD w ramach konsorcjum UALink nad rozwojem otwartego standardu komunikacji w infrastrukturze AI.