reklama
reklama
reklama
reklama
reklama
reklama
reklama
reklama
reklama
© ingrid prats dreamstime.com Technologie | 06 września 2017

Rdzenie Folkor od Qualcomm, stworzone z myślą o chmurze

Informacje prosto z konferencji HotChips - nowe rdzenie Qualcomm mają stanowić ważny krok w rozwoju sprzętowym dla systemów usług chmurowych.
Jeśli nie przespałeś ostatnich kilku miesięcy czy lat, zapewne wiesz jak wielką popularność ostatnim czasie na zyskały rozwiązania oparte na chmurze. Coraz więcej rozwiązań przenosi się na tę formę przetwarzania danych.

Trend ten jest szczególnie widoczny w przypadku rozwiązań mobilnych. Mimo rosnącej mocy obliczeniowej platform mobilnych, nadal sporo zadań przerzuca się na urządzenia zewnętrzne, np. duże centra danych, świadczące odpowiednie usługi. Dzieje się tak ze względu na rosnące zapotrzebowanie na informację, ich rosnącą lawinowo ilość i poziom skomplikowania zadań, z którymi platformy mobilne nie radziłyby sobie wystarczająco szybko. Coraz częściej też użytkownicy korzystają z kilku takich aplikacji jednocześnie, które odświeżają dane w tle.

Wzrost użycia zasobów na urządzeniach mobilnych, w połączeniu z rozwojem usług obliczeniowych nie związanych z ruchem mobilnym, wymusił zmiany w modelu użytkowania serwerów. To, co do niedawna było przetwarzane na prywatnych serwerach firm, coraz częściej przerzucane na publiczny model przetwarzania w chmurze.

W ostatnim czasie można takich przejść zauważyć coraz więcej. Jak szacuje IDC Cloud Server Forecast, do 2020 roku nawet 50% serwisów sieciowych będzie opartych na modelu chmury.

Chmura jednak nie bierze się znikąd. Mówiąc prosto, jest to sieć serwerów, która pracuje wspólnie, by jak najwydajniej realizować zadania. Procesory zasilające takie serwery muszą zostać odpowiednio zoptymalizowane, by spełnić wymagania skalowalnej wydajności, przy wykonywaniu różnych zadań, o unikalnej charakterystyce oprogramowania chmurowego oraz usług, jakie takie systemy mają świadczyć.

Qualcomm pragnie wspomóc tworzenie nowoczesnych, wysoce wydajnych rozwiązań związanych z przetwarzaniem w modelu chmury. Celem firmy (a właściwie działu Qualcomm Datacenter Technology, powstałego przed 5 laty) jest dostarczanie odpowiednio przystosowanych rozwiązań, w których uzyskamy dobrą wydajność w przypadku wielordzeniowych obciążeń, związanych z przetwarzaniem w chmurze.

Usługi chmurowe muszą bardzo dobrze radzić sobie w środowisku silnie obciążonym, w którym zadania chce wykonywać wielu użytkowników jednocześnie. Zadaniem platform sprzętowych jest z kolei to, aby całość została wykonana jak najwydajniej, maksymalizując łączną moc obliczeniową systemu, przy jednoczesnym maksymalnym obniżaniu kosztów operacyjnych (które w sporej części kształtowane są przez zasilanie i chłodzenie części sprzętowej systemu).

Podczas konferencji „Hot Chips Conference” pokazano Qualcomm Falkor CPU. Są to specjalnie zaprojektowane rdzenie CPU, mające stanowić serce nowoczesnych układów SoC tego producenta: Qualcomm Centriq 2400 SoC – pierwszych serwerowych procesorów wykonanych w technologii 10 nm. Na rynek trafić mają jeszcze w tym roku.

Nowoczesny projekt rdzeni
Falkor to rdzenie, które zostały zaprojektowane całkowicie od nowa, specjalnie z myślą o serwerach chmurowych, pracujących w nowoczesnych centrach danych. Oparte zostały na 64-bitowej mikro-architekturze i mają być w pełni kompatybilne z ARMv8.

Zespół pracujący nad tymi rdzeniami ma już spore doświadczenie w tworzeniu wydajnych rdzeni ARM typu CPU, na platformy mobilne. Można więc spodziewać się, że również i tu, ważną rolę przyłożono także do wydajności energetycznej. Doświadczenie projektantów ma się przełożyć na świetne parametry rdzeni Falkor.

Skalowalność
Rdzenie Falkor mogą zostać sparowane w układzie duplex, dzieląc pamięć cache L2 i magistralę QSB. Takie modularne podejście zapewniać ma dobrą skalowalność oraz wydajność, w bardziej rozbudowanych układach, jak np. wspomniany, wysoce skalowalny układ SoC Centriq 2400.

Projekt pod wydajność, optymalizacja pod energię
Jak wspomnieliśmy powyżej, rdzenie Falkor zostały zaprojektowane z myślą o tym, by osiągać najwyższą wydajność w zadaniach, do których został stworzony. W tym celu zastosowano tutaj specjalne, nowoczesne mechanizmy heterogenicznego przetwarzania potokowego. Potok ten z kolei został tak zaprojektowany, by maksymalnie zoptymalizować zużycie energii przez układ.

Projekt ten zakłada zmienność długości strumienia, by łatwiej dostosować się do tego, co aktualnie jest przetwarzane. Pozwala to zmaksymalizować przepustowość, a także zmniejszyć czas bezczynności układu, co owocuje większą wydajnością na wielu płaszczyznach. Do innych istotnych elementów tej nowoczesnej mikro-architektury zaliczyć można algorytmy przewidujące rozgałęzienia, a także hierarchiczne dzielenie pamięci cache.

Wydajność przy intensywnym obciążeniu pamięci
Znaleźć tu można też innowacyjny system dzielenia instrukcji w cache, L0-I i L1-I. Odpowiednie zarządzanie nimi sprawia, że generowane są bardzo małe opóźnienia przy wykonywaniu nawet większych, bardziej złożonych instrukcji. Znajdziemy tu też dodatkowo 32 kB pamięci L1-D, wspieranej przez wyrafinowany, wielopoziomowy silnik pobierania wstępnego, który dynamicznie adaptuje się do systemu i jego stanu oraz obciążenia.

Funkcje dla centrów danych
Znajdziemy tu także bogaty zestaw funkcji, wymaganych przy środowisku usług chmurowych, dla dużych obciążeń z wieloma użytkownikami (najemcami). Jest tu min. wsparcie TrustZone oraz ARM Execution Levels (EL0-EL3), dla zapewnienia bezpieczeństwa wykonywania zadań. Wsparcie dla rozszerzeń instrukcji ARMv8 pozwoli na sprawne wykonywanie transformacji kryptograficznych i operacji hash’owania, koniecznych przy efektywnej obsłudze bezpiecznych protokołów sieciowych, takich jak https. Falkor wspiera też mechanizmy RAS.

A więc...
48 rdzeni Falkor, połączonych razem i zintegrowanych w układ SoC ma stanowić bardzo udane połączenie, pozwalające na zwiększenie efektywności systemu i redukcję kosztów. Nowoczesne rozwiązania mają też pozwolić na uniknięcie niekorzystnych sytuacji, czyli przeciążenia pamięci, efektów NUMA itp.

Nowoczesne kontrolery pamięciowe zapewniać mają nie tylko świetną efektywność, niskie opóźnienia i dużą przepustowość, ale wspierać mają także innowacyjne technologie dzielenia pamięcią, takie jak QoS L3, czy też efektywnie zarządzać przepustowością pamięci poprzez przezroczystą kompresję.

© Qualcomm

Komentarze

Zauważ proszę, że komentarze krytyczne są jak najbardziej pożądane, zachęcamy do ich zamieszczania i dalszej dyskusji. Jednak komentarze obraźliwe, rasistowskie czy homofobiczne nie są przez nas akceptowane. Tego typu komentarze będą przez nas usuwane.
reklama
reklama
Załaduj więcej newsów
September 15 2017 09:25 V8.7.1-2