
Nowe prawo robotyki
Skuteczność Sztucznej Inteligencji i jej rosnące umiejętności imitowania ludzi mogą być źródłem nadużyć. Prof. dr hab. Dariusz Jemielniak z Akademii Leona Koźmińskiego, wiceprezes PAN, w rozmowie z PAP zauważył, że koniecznym może się okazać rozszerzenie 3 praw robotyki o kolejne, obligujące SI do identyfikowania się.
Isaac Asimov, amerykański pisarz i profesor biochemii, jeden z „Wielkiej Trójki” pisarzy fantastyki naukowej (obok Roberta A. Heinleina i Arthura C. Clarka), w opublikowanym w 1942 roku opowiadaniu “Zabawa w berka” zawarł trzy prawa, mające regulować kwestie interakcji między ludźmi a maszynami myślącymi:
- Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
- Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem.
- Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
W wydanych w 1985 roku “Robotach i imperium” Asimov dodał nadrzędne prawo zerowe: “Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości”. Sformułowane przez Asimova prawa robotyki weszły do kanonu fantastyki naukowej, a według prof. Jemielniaka nadszedł czas by wdrożyć je w rzeczywistości.
"Chyba właśnie nadchodzi ten moment. O ile kiedyś była to całkowita fikcja, o tyle teraz prawa robotyki zaczynają dotyczyć naszego codziennego życia. Może np. autonomiczny samochód nie będzie musiał decydować, czy przejechać zakonnicę, grupkę dzieci, czy dwóch wstawionych naukowców, ale może już być w sytuacji wymagającej decyzji, czy hamować i chronić kierowcę, czy gwałtownie skręcić, narażając go, ale np. chronić pieszych. Pierwsze prawo robotyki mówi, że robot ma nie krzywdzić ludzi" - w rozmowie z PAP powiedział wiceprezes PAN.
Prawa sformułowane przez Asimova dotyczyły fizycznych maszyn. Jednak, jak zauważył prof. Jemielniak, znacznie większym wyzwaniem naszych czasów są np. boty i szeroko stosowana SI.
“Stąd mój pomysł i postulat wprowadzenia IV prawa robotyki, podchwycony już przez ważne czasopismo branżowe 'IEEE Spectrum'. Prawo to nakazuje prostą rzecz – aby wszelkiego rodzaju sztuczna inteligencja ujawniała się, że nią jest, i nie udawała człowieka. Obecnie mamy już sytuację, w której często nie udaje się prosto dokonać rozróżnienia. Jeśli pozwolimy im na swobodne działanie bez identyfikowania się, będziemy mieli coraz większy problem” - argumentuje ekspert.
Jako przykład nadużycia dokonywanego przy pomocy Sztucznej Inteligencji profesor Jemielniak podaje, przechodzące swój renesans, niejednokrotnie nagłaśniane przez media oszustwo “na wnuczka”. Dzięki możliwościom SI taki sposób wyłudzania pieniędzy może zyskać na autentyczności - osoba naciągana może mieć wrażenie, że faktycznie rozmawia z potrzebującym członkiem rodziny, ponieważ model SI tak wiernie odtworzy twarz i głos bliskiej osoby.
Prof. Jemielniak zauważył, że argumentacja z kategorii “osoby chcące łamać prawo i tak nie zastosują się do przepisów” to błędny tok rozumowania.
"Podam taki przykład – to, że przestępcy drukują fałszywe pieniądze, nie oznacza, że zakaz takiego czynu, w tym posiadania odpowiednich do tego materiałów, jest bezwartościowy. Odpowiednie prawo podnosi próg ryzyka dla oszustów. Muszą kalkulować, czy im się taki czyn opłaci. Inny przykład – zakaz posiadania broni może nie sprawi, że całkowicie zniknęły napaści z jej użyciem, jednak zdarzają się dużo rzadziej. Nie tylko trudniej jest o samą broń, ale rosną też konsekwencje prawne dla tego, kto ją nawet nielegalnie posiada."
Rozbudowa praw robotyki Asimova jest konieczna, ponieważ, według eksperta, ich aktualny charakter nie jest wystarczający i nie obejmuje wszystkich możliwości nadużyć z wykorzystaniem SI.
"Zabronienie SI krzywdzenia ludzi nie jest wystarczające. Jeśli głębiej tę kwestię przeanalizujemy, okaże się, że ludzie często nie potrafią stwierdzić, czy kogoś będą czymś krzywdzić, czy też nie. Często mamy do czynienia np. z dezinformacją opartą na założeniu, że ktoś chce zrobić dobrą rzecz – choćby sprzedać odkurzacz, oparty na agentach SI system psychoterapii, albo usługi typu virtual girlfriend, które rzekomo zaspokoją czyjeś potrzeby emocjonalne. Łatwo zauważyć, że rozwój sztucznej inteligencji i jego faktyczne skutki to często dwie różne sprawy i nigdy nie wiemy do końca, czy coś doprowadzi do negatywnych konsekwencji. Nie zawsze wyrządzona szkoda musi mieć charakter fizyczny"
Profesor dopuszcza jednak okoliczności, w których SI mogłaby udawać człowieka, np. szukając przestępców internetowych. Hierarchia praw daje taką możliwość.
"Przez cały czas będzie zachowywana hierarchia praw. Drugie prawo podlega pierwszemu, trzecie - drugiemu. Proponowane prawo czwarte miałoby podlegać pierwszemu. Stałoby się de facto prawem drugim, drugie trzecim, a trzecie – czwartym"
Same prawa w proponowanej formie mogą nie wystarczyć. Ekspert nie wyklucza konieczności wprowadzenia dodatkowych regulacji.
„Prawa robotyki w ogóle są raczej pewnym kierunkiem myślenia, niż ścisłym, precyzyjnym nakazem. Łatwo znaleźć sytuacje, w których samo ich ogólne brzmienie nie wystarczy. Nakaz identyfikowania się SI w interakcjach z ludźmi jest prostym, operacyjnym rozwiązaniem problemu tego, żeby nie trzeba było zastanawiać się, jakie skutki dany kontakt przynosi i aby ciężar rozważań nie był po stronie tego, w czyim interesie będzie usilne udowadnianie, że przecież ten kontakt to tak naprawdę był dla dobra nagabywanego człowieka. Czwarte prawo robotyki całkiem dobrze radzi sobie samodzielnie - nie jest silnie związane z pozostałymi, choć oczywiście łatwo możemy wyobrazić sobie ich wzajemne powiązanie” - w rozmowie z PAP podsumowuje prof. Jemielniak.