reklama
reklama
reklama
reklama
reklama
reklama
reklama
reklama
© Pixabay Przemysł elektroniczny | 25 czerwca 2019

Cyberprzestępcy sięgają po sztuczną inteligencję do łamania zabezpieczeń

Dynamiczny rozwój rozwiązań z zakresu uczenia maszynowego oraz analizy big data doprowadził do wykształcenia się wysoce zaawansowanych algorytmów sztucznej inteligencji. Po tę technologię coraz częściej sięgają cyberprzestępcy, widząc w niej wartościowe narzędzie do łamania zabezpieczeń oraz wykradania danych.

Celem ataku mogą się stać nie tylko nasze komputery, zagrożone są wszystkie urządzenia podłączone do sieci i komunikujące się bezprzewodowo: sprzęt gospodarstwa domowego, gadżety do noszenia, a nawet inteligentne samochody.
Sztuczna inteligencja wciąż nie jest wykorzystywana przez cyberprzestępców na masową skalę, jednak już dziś pojawiają się pierwsze próby wykorzystania technologii SI w atakach hakerskich. Firma Darktrace zidentyfikowała złośliwe oprogramowanie, które jest w stanie imitować sposób wypowiadania się konkretnego człowieka, aby zwiększyć wiarygodność e-maili zachęcających do pobrania trojana. Wspomniany atak podzielony był na dwie fazy. W pierwszej cyberprzestępcy włamali się na stację roboczą firmy po tym, jak jeden z pracowników otworzył zainfekowanego e-maila. Następie bot wykorzystujący technologię sztucznej inteligencji przeskanował komputer ofiary, aby nauczyć się jej stylu wypowiedzi. W ten sposób przygotował się do rozesłania e-maili do kolejnych ofiar, które na pierwszy rzut oka wyglądały tak, jakby były napisane przez człowieka, a nie maszynę. – Cyberprzestępczość w obszarze sztucznej inteligencji dopiero raczkuje. Progres adopcji tej technologii będzie jednak bardzo szybki. Same zabezpieczenia używają sztucznej inteligencji, nauczania maszynowego, co się świetnie sprawdza w cyberbezpieczeństwie i przez to hakerzy mają utrudnione zadanie i muszą dużo manualnych, powtarzalnych czynności wykonać, aby złamać te zabezpieczenia. I oni też używają sztucznej inteligencji i innych rozwiązań tego typu – mówi agencji informacyjnej Newseria Innowacje Wojciech Maciejewski, dyrektor rozwoju firmy Grey Wizard. Coraz częściej zwraca się uwagę na zagrożenia związane z rozwojem sztucznej inteligencji. Komisja Europejska postanowiła wyjść naprzeciw potencjalnym zagrożeniom i rozpoczęła prace pilotażowe w zakresie etycznego rozwoju narzędzi wykorzystujących sztuczną inteligencję. Na jesieni ruszą prace nad stworzeniem sieci ośrodków innowacji cyfrowych, które pomogą badać potencjał i zagrożenia związane ze sztuczną inteligencją.
Według analityków z firmy Allied Market Research wartość globalnego rynku cyberbezpieczeństwa w 2017 roku wyniosła niemal 105 mld dol. Przewiduje się, że do 2025 roku wzrośnie ona do 259 mld dol. przy średniorocznym tempie wzrostu na poziomie 12 proc.
Jednym z najważniejszych celów ataków cyberprzestępców w najbliższych latach mogą być nie komputery, a urządzenia wchodzące w skład internetu rzeczy, które komunikują się ze sobą przy wykorzystaniu algorytmów sztucznej inteligencji. Według badań przeprowadzonych przez firmę analityczną Bain & Company w latach 2017–2021 średnioroczne tempo wzrostu branży IoT wyniesie aż 50 proc., a w 2021 roku ten segment gospodarki będzie warty aż 520 mld dol. Upowszechnienie się sieci 5G może przyspieszyć rozwój tej branży, a co za tym idzie – zachęcić cyberprzestępców do łamania zabezpieczeń IoT, aby przejąć kontrolę nad inteligentnymi asystentami i uzyskać dostęp do wszystkich urządzeń działających w danej odnodze internetu rzeczy. – Uruchomienie sieci 5G wpłynie na przepustowość i na to, że będzie więcej urządzeń typu IoT podłączonych do sieci. Jeżeli te wszystkie urządzenia będą zarażone przez hakerów, a tak się dzieje z reguły na świecie, tak samo jak komputery są zarażane, to skala ataków będzie coraz większa. Bo dzisiaj nie atakują już normalne komputery, żeby sparaliżować jakąś sieć, tylko atakują lodówki, kamery, mikrofalówki, wszystko, co jest podłączone do internetu i jest małym komputerem – wskazuje ekspert. Specjaliści ds. cyberbezpieczeństwa zwracają także uwagę na to, że na ataki ze strony hakerów nie są przygotowani producenci samochodów wykorzystujących systemy SI. Inżynierowie z Pen Test Partners odkryli w inteligentnych systemach alarmowych Pandora oraz Viper groźne luki bezpieczeństwa. Hakerzy mogliby je wykorzystać, aby przejąć zdalną kontrolę nad pojazdem sparowanym z aplikacją. – Autonomiczne samochody będą bezpieczniejsze niż te kierowane przez ludzi. Tak jak powiedział Elon Musk, te samochody muszą być bezpieczniejsze, bo inaczej nie będą się sprzedawać. Obecnie w tych samochodach jest trochę za dużo zautomatyzowanych części. Ostatnio np. klamki nie otworzyły się podczas pożaru. Niestety, jest to proces prób i błędów, który musimy przejść – twierdzi Wojciech Maciejewski. Źródło: Newseria Innowacje
Załaduj więcej newsów
December 12 2019 10:59 V14.8.5-2