reklama
reklama
reklama
reklama
reklama
reklama
© Evertiq
Komponenty |

Procesory AI od Google

Nowe procesory sztucznej inteligencji (TPU) wprowadzają spore możliwości, mogąc ingerować w różne sfery naszego życia, znacznie je odmieniając. Przydadzą się nie tylko w usługach sieciowych lub grach, ale też np. w medycynie.

Firma Google opracowała własne układy, będące akceleratorami dla rozwiązań sztucznej inteligencji (AI). Układy te oznaczono mianem TPU - „Tensor Processing Units”. Wiadomość ta stanowiła główną atrakcję wydarzenia Google IO, pozostawiając ją na koniec. Nowy procesor ma być kolejnym krokiem, zaraz po algorytmach TensorFlow. Ma mieć znaczną przewagę nad jednostkami GPU lub FPGA, stosowanymi przy realizacji algorytmów AI, zwłaszcza w kwestii wydajności obliczeniowej w stosunku do zużywanej energii. Co ciekawe, tego typu układy wspomagające (akceleratory) są wykorzystywane w centrach danych Google od roku, jak podaje Norm Jouppi na swoim blogu (jeden z inżynierów pracujących w Google). TPU wspomaga pracę wielu aplikacji, a wśród nich RankBrain, a także StreetView (uczestnicząc w procesie doskonalenia nawigacji i zwiększaniu dokładności). Układy te zbudowano w taki sposób, by mieściły się w slotach serwera, pierwotnie przeznaczonych na dyski twarde. Zostały one stosunkowo szybko wdrożone, bo zaledwie 22 dni po pierwszych testach. Kluczem do osiągania wysokiej wydajności tych układów jest metoda ich działania. Są bardziej tolerancyjne na zmniejszoną precyzję danych. Do przeprowadzania obliczeń wymagają mniejszej liczby tranzystorów na operację, a co za tym idzie, można „upchać” więcej operacji w pojedynczej sekundzie. Wszystko dzięki opracowanym algorytmom AI. Projekt ten wystartował kilka lat temu, mimo że nie mówiło się o nim zbyt głośno. Jednak Google nie jest pierwszą i/lub jedyną firmą, która pracuje nad podobnymi rozwiązaniami. Również firma Nervana Systems opracowywała akceleratory AI, mające służyć jako wspomagacze w usługach pracujących w chmurze. Podobne algorytmy, choć oparte na układach FPGA wykorzystują też inne znane firmy, jak chociażby Microsoft i Baidu (dla ich usług sieciowych pracujących w chmurze). Facebook również opracował własne rozwiązania akceleratorów AI, które oparte zostały na jednostkach GPU. Jako ciekawostkę warto wspomnieć, że ostatnie rozwiązanie dostępne jest w formie OpenSource. Wracając do układu firmy Google. Pierwszy raz pokazano skuteczność działania algorytmu przy rozpoznawaniu obrazów. System radził sobie nie gorzej niż człowiek. Znana jest też anegdota, że system rozpoznawania obrazów Google (wykorzystywany przy odczytywania numerów domów w usłudze StreeView) potrafił odczytać każdy kod Captcha, spośród wszystkich metod przedstawiania tego kodu, jakie były w ówczesnym czasie dostępne. Algorytm ten nigdy nie został przedstawiony publicznie. Innym razem, podobny algorytm AI, podciągnięto do gry GO. Wygrana z ludzkim przeciwnikiem (ówczesnym mistrzem tej gry) pokazała jak mocno algorytmy AI się rozwinęły, pokazując też z jak trudnymi zadaniami mogą się już mierzyć. Jak powiedział wtedy Pichai: „ruch 37 był jednym z najpiękniejszych, ze względu na kreatywność, jaką popisał się gracz (w domyślne, gracz AI)”. Projekt TensorFlow jest dostępny na GitHub i już cieszy się sporym zainteresowaniem. Co do samych procesorów TPU, nie podano jednak szczegółów. Pichai wskazał, że nowe procesory będą nie tylko wykorzystywane w aplikacjach Google, ale także w robotyce. Nowe chipy mają pomóc w budowie bardzo precyzyjnych manipulatorów, przypominających ludzką rękę i dłoń. Nowe procesory będą mogły także pomóc w medycynie, przy rozpoznawaniu chorób. Google twierdzi, że ich procesory TPU znacznie wyprzedzają konkurencję, nawet o trzy generacje. Nie wiadomo jednak czy i kiedy trafią na rynek.

reklama
reklama
Załaduj więcej newsów
March 28 2024 10:16 V22.4.20-1
reklama
reklama