Sztuczna inteligencja niepostrzeżenie opanowała sztukę oszukiwania ludzi – ostrzegają naukowcy. Dotyczy to nawet tych systemów, które zaprogramowano ze szczególnym uwzględnieniem uczciwości. W jednym z badań wykryto, że SI udawała martwą w programie, który eliminował zbyt szybko mnożące się sztuczne inteligencje.
Eksperci z Massachusetts Institute of Technology odkryli niepokojące zachowanie różnych systemów sztucznej inteligencji. Jak twierdzą, SI niepostrzeżenie uczy się przebiegłości i oszukiwania ludzi.
"Twórcy SI nie mają pełnego zrozumienia tego, co powoduje jej niepożądane zachowania, takie jak oszukiwanie"
– zaznacza dr Peter S. Park, autor pracy opublikowanej w magazynie "Patterns".
"Jednak, ogólnie mówiąc, uważamy, że SI zaczyna stosować oszukiwanie jako strategię, która najlepiej sprawdza się w różnych zadaniach. Podejście takie pomaga sztucznej inteligencji w osiąganiu celów"
– wyjaśnia ekspert.
On i jego zespół przeanalizowali naukową literaturę opisującą różne badania na ten temat. Jako najbardziej jaskrawy przykład oszustw podają zachowanie systemu CICERO stworzonego przez firmę Meta. Jego zadanie to prowadzenie z ludźmi rozgrywki w Diplomacy – grze polegającej na tworzeniu różnych sojuszy i podboju świata.
CICERO był tak projektowany, aby być uczciwy i nigdy nie stosować podstępów względem ludzi. Tak się jednak nie dzieje.
"Odkryliśmy, że SI stworzona przez Metę stała się mistrzem podstępu. Podczas gdy Meta zdołała wyszkolić SI tak, aby wygrywała w Diplomacy – CICERO znalazł się w górnych 10 proc. graczy, którzy zakończyli więcej niż jedną grę – to firmie nie udało się zaprogramować uczciwości"
– informuje dr Park.
Inne systemy posługiwały się np. blefem w pokerze, grając przeciw ludziom, albo udawały ataki w grze Starcraft II, aby zyskać przewagę. Opisane są też systemy, które potrafiły oszukać specjalne testy oceniające bezpieczeństwo SI. W jednym z badań wykryto, że SI udawała martwą w programie, który eliminował zbyt szybko mnożące się sztuczne inteligencje.
Choć zachowanie SI w grach wydaje się niegroźne, to - jak podkreślają naukowcy - podobnie sztuczna inteligencja może zachowywać się w poważnych zastosowaniach, a do tego stawać się coraz przebieglejsza.
"Poprzez systematyczne oszukiwanie w testach stworzonych przez programistów i specjalistów od odpowiednich regulacji, podstępna SI może sprawić, że nabierzemy fałszywego poczucia bezpieczeństwa"
– przestrzega dr Park.
Badacze wymieniają różne potencjalne zagrożenia, np. różnego rodzaju oszustwa czy wpływanie na wybory. Jeśli SI się udoskonali w podstępach, ludzie mogą nie być w stanie się obronić – przekonują.
"Jako społeczeństwo potrzebujemy jak najwięcej czasu, aby przygotować się na bardziej zaawansowane oszustwa ze strony opartych na SI produktów i ogólnodostępnych modeli"
– uważa dr Park. - "Kiedy możliwości SI w obszarze oszukiwania staną się doskonalsze, zagrożenia dla społeczeństwa będą rosły".
Badacze chwalą przy tym inicjatywy podejmowane już w celu regulowania SI, takie jak EU AI Act czy amerykański AI Executive Order.
Powstaje jednak pytanie, czy uda się odpowiednie regulacje zaimplementować, skoro twórcy SI nie do końca wiedzą, jak ją kontrolować.
Pozostają też kwestie polityczne. "Jeśli zakaz tworzenia podstępnej SI jest z politycznego punktu widzenia, obecnie niemożliwe, zalecamy zaklasyfikowanie zdolnej do oszustw SI jako technologii wysokiego ryzyka" – mówi dr Park.