GP: Za Trumpa Europa przestanie być niemiecka » CZYTAJ TERAZ »

Setki ekspertów ostrzegają: sztuczna inteligencja może zniszczyć ludzkość

Ryzyko, że sztuczna inteligencja (AI) doprowadzi do zniszczenia ludzkości, powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - podano w komunikacie cytowanym przez "USA Today". Eksperci apelują o zainicjowanie szerokiej debaty na temat rozwoju tej dziedziny technologii.

zdjęcie ilustracyjne
zdjęcie ilustracyjne
pixabay.com

Oświadczenie ekspertów opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.

"Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (...) Chcemy współpracować z rządem, aby temu zapobiec"

– powiedział niedawno Altman przed komisją Senatu USA. Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI "rozwinie zdolność do autoreplikacji i wyrwie się na wolność".

Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność "rozwijania prostego rozumowania poznawczego" - relacjonuje "USA Today". Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i "całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji".

W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność "generowania nieprawdziwych informacji", czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.

Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.

Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.

Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to "niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie" - pisze "USA Today".

W wywiadzie dla "New York Timesa" z początku maja Hinton powiedział: "Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę".

 



Źródło: PAP, niezalezna.pl

#sztuczna inteligencja #wojna nuklearna