
SK hynix: w tym roku zainwestujemy 1 mld USD w HBM
Koreańska firma SK hynix podejmie duże inwestycje w rozwój technologii pamięci o wysokiej przepustowości (high-bandwidth memory, HBM), ze względu na zaostrzenie konkurencji w obszarze układów GPU AI nowej generacji.
W wywiadzie dla Bloomberga, dr Lee Kang-Wook - kierujący rozwojem pakowania w SK hynix – powiedział, że firma zainwestuje ponad 1 mld USD w 2024 roku, aby ulepszyć ostatnie etapy produkcji chipów.
HBM ma kluczowe znaczenie dla rozwoju procesorów graficznych AI. Technologia high-bandwidth memory układa chipy jeden na drugim, łącząc je za pomocą zaworów TSV, by zapewnić szybkie i energooszczędne przetwarzanie danych, wymagane przez aplikacje AI.
Lee powiedział, że 50 lat branży półprzewodników "dotyczyło front-endu", czyli projektowania i produkcji samych chipów. "Ale następne 50 lat będzie dotyczyło back-endu (czyli pakowania)".
SK hynix przeżywa rozkwit, głównie dzięki ogromnemu zapotrzebowaniu na aplikacje AI. Wiodąca na rynku Nvidia, zajmująca się projektowaniem chipów AI wykorzystuje obecnie produkty SK hynix: moduły pamięci HBM3 i HBM3E w procesorach graficznych AI, w tym w Hopper H100, w nadchodzącym Hopper H200 i Blackwell B100. Nowy produkt AMD: Instinct MI300X AI GPU również zawiera HBM3.
SK hynix przyznało niedawno, że tegoroczne dostawy HDM są już wyprzedane. Firma odnotowała zysk operacyjny w wysokości 346 mld wonów (259 mln USD) w 4. kwartale 2023 r., po czterech kwartałach straty.