reklama
reklama
reklama
reklama
reklama
reklama
© kornwa dreamstime.com Technologie | 04 czerwca 2018

Superwydajne pamięci HBM2 firmy Samsung – drzwi do sztucznej inteligencji i uczenia maszynowego

Wprowadzona kilka miesięcy temu przez firmę Samsung Electronics innowacyjna technologia HBM drugiej generacji dla pamięci, okazała się najlepszym rozwiązaniem do obsługi najbardziej wymagających aplikacji.
Projektujesz elektronikę? Zarezerwuj 4 października 2018 roku na największą w Polsce konferencję dedykowaną projektantom, Evertiq Expo Kraków 2018. Przeszło 60 producentów i dystrybutorów komponentów do Twojej dyspozycji, ciekawe wykłady i świetna, twórcza atmosfera. Jesteś zaproszony, wstęp wolny: kliknij po szczegóły.

© Evertiq

Dzisiejszy świat wkraczając w erę sztucznej inteligencji i uczenia maszynowego, potrzebuje szybkiego przetwarzania ogromnych ilości danych. Testowane obecnie autonomiczne samochody muszą w czasie rzeczywistym analizować nadchodzące dane o trasie, przeszkodach i warunkach ruchu, aby w razie nagłego zdarzenia móc bezpiecznie zareagować. Podobnie, systemy rozpoznawania twarzy, przetwarzania mowy i inne pojawiające się aplikacje sztucznej inteligencji, coraz częściej wymagają potężnych serwerów i centrów danych do przetwarzania przechowywanych i przychodzących danych z niesamowitą prędkością, niezależnie od tego, czy są one odpowiedzialne za zapewnienie bezpieczeństwa na lotniskach, czy po prostu mają sprostać rosnącemu apetytowi konsumentów na produkty internetowe. Wprowadzona kilka miesięcy temu przez firmę Samsung Electronics innowacyjna technologia HBM drugiej generacji dla pamięci, okazała się najlepszym rozwiązaniem do obsługi najbardziej wymagających aplikacji.

HBM to szybka pamięć typu SiP (System-In-Package), która wykorzystuje stosy pionowo połączonych chipów DRAM i szeroki 1024-bitowy interfejs. W ten sposób znacznie zwiększono pojemność i poprawiono przepustowość danych, w porównaniu do układów opartych o połączenia drutowe (wire bonding). Niezależna organizacja standaryzacyjna JEDEC (Joint Electron Device Engineering Council), przyjęła pierwotny standard pamięci HBM w roku 2013, a w styczniu 2016 roku zatwierdziła wersję drugiej generacji HBM2 jako standard branżowy.


Rysunek 1. Struktura pamięci HBM

HBM2 to moduły pamięci zawierające do ośmiu pionowo ułożonych 8-gigabitowych (Gb) rdzeni DRAM połączonych wewnętrznie przez aż 40.000 przelotek typu TSV (Through-Silicon-Via). Szeroki interfejs danych zapewnia niespotykaną przepustowość pamięci, przy czym każdy stos DRAM może przesyłać do 256 gigabajtów (GB) danych na sekundę. Kompaktowa i energooszczędna architektura zajmuje również znacznie mniej miejsca na płytce, niż tradycyjne moduły pamięci, dzięki czemu jest atrakcyjna dla projektów, którzy posiadają ograniczaną przestrzeń projektową.


Rysunek 2. Porównanie budowy pamięci typu HBM i HBM2

Wysokowydajne systemy obliczeniowe, które są zawsze „spragnione” dużej ilości danych, były jednymi z pierwszych wymagających przyspieszenia obliczeniowego. Nvidia szybko wybrała HBM2 w swoich akceleratorach Tesla P100 do zasilania centrów danych wymagających superładowania, AMD zdecydowało się użyć HBM2 w swoich akceleratorach a Radeon Instinct w centrach danych, jak również w wysokiej klasie kartach graficznych. W końcu również firma Intel, w listopadzie zeszłego roku, zapowiedziała wprowadzenie kolejnego rozwiązania opartego na pamięci HBM. Szybko, bo już w kwietniu tego roku Intel spełnił swoją obietnicę i zastosował tę technologię, wykorzystując HBM2 do wprowadzenia wydajnych, energooszczędnych rozwiązań graficznych dla komputerów przenośnych. Nowy chipset Intela pozwoli w większym stopniu na stworzenie cieńszych i lżejszych laptopów. Technologia HBM2 znajduje również zastosowanie w aplikacjach sieciowych. Na przykład firmy Rambus i Northwest Logic połączyły siły, aby wprowadzić kompatybilny z HBM2 kontroler pamięci i warstwy fizycznej (PHY) do stosowania w wysokowydajnych układach sieciowych. Innowacyjną technologię wykorzystują również inne firmy, takie jak: Mobiveil, eSilicon, Open-Silicon oraz Wave Computing, opracowujące produkty łączące pamięć HBM2 i różne rozwiązania sieciowe.

Wprowadzenie nowej i innowacyjnej technologii pamięci HBM, zazwyczaj wymaga całego ekosystemu partnerów, z których każdy ma ważną rolę do odegrania. Takie podejście, oparte na współpracy może przyspieszyć rozwój produktu, umożliwiając wielu firmom wnoszenie specjalistycznej wiedzy w kilku różnych obszarach. Partnerzy pomagają również w ustanowieniu cennych relacji z dostawcami i klientami, co w przyszłości może ułatwić ustanowienie efektywnego łańcucha dostaw dla użytkowników końcowych, rozważających wprowadzenie nowej technologii do swoich produktów.

Obecni partnerzy firmy Samsung w ekosystemie HBM2 i ich główne obszary specjalizacji:
• Broadcom: opracowywanie HBM2 ASIC i szybkich interfejsów typu IP
• eSilicon: FinFET ASIC, HBM2 Physical Layer (PHY) IP, 2.5D interposer design & differentiating IP
• Northwest Logic: HBM2 Controller IP
• Rambus: HBM2 Physical Layer (PHY) IP
• Synopsys: HBM2 PHY IP, Controller IP and Verification IP (VIP) dla systemu
• Cadence Design: VIP dla kontrolera systemu
• Grupa ASE: montaż i test półprzewodników (OSAT)

Dzisiaj, firma Samsung jest wiodącym światowym dostawcą HBM, który wspiera potencjalne rynki i cały czas angażuje się w rozwój mapy drogowej tej technologii. Poza rozwiązaniem HBM2, firma aktywnie analizuje i kieruje rozwojem standardu HBM trzeciej generacji, nad którym obecnie pracuje JEDEC. Nowy standard HBM3 powinien zawierać więcej pamięci na rdzeniu, więcej rdzeni na stosie i dwa razy większą przepustowość, niż maksymalna przepustowość HBM2.

© Samsung

Komentarze

Zauważ proszę, że komentarze krytyczne są jak najbardziej pożądane, zachęcamy do ich zamieszczania i dalszej dyskusji. Jednak komentarze obraźliwe, rasistowskie czy homofobiczne nie są przez nas akceptowane. Tego typu komentarze będą przez nas usuwane.
Załaduj więcej newsów
October 15 2018 11:45 V11.5.4-1