Pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym, by korzystano z tego typu narzędzi w sposób świadomy i odpowiedzialny. [...] Człowiek nie może zostać zdominowany przez maszyny, musi móc nimi ostatecznie zarządzać - ocenił ekspert grupy roboczej ds. sztucznej inteligencji przy Kancelarii Prezesa Rady Ministrów Maciej Chojnowski.
Wraz z gwałtownym rozwojem sztucznej inteligencji (SI) w ostatnich latach, eksperci i naukowcy zwracają uwagę na problemy etyczne związane z jej użytkowaniem. Dlatego coraz częściej dyskutuje się na temat wprowadzenia odpowiednich wytycznych.
"Nie jest możliwe nauczenie sztucznej inteligencji zachowań etycznych i moralności, bo ciągle nie jest ona samoświadoma. Nadal nam do tego momentu daleko - to jest science-fiction" - ocenił dyrektor programowy i współtwórca Centrum Etyki Technologii w Instytucie Humanites oraz członek grupy roboczej ds. sztucznej inteligencji przy KPRM, Maciej Chojnowski.
"Dlatego, gdy mówimy o etyce sztucznej inteligencji, należy pamiętać o tym, że nie mamy na myśli zaprogramowania etyki w maszynach czy wyposażenia robotów w moralność, ale stworzenie takich reguł, takich wskazówek, które pozwoliłyby osobom rozwijającym te systemy robić to w sposób odpowiedzialny"
- dodał Chojnowski.
Ekspert zwrócił uwagę na to, że istnieje ścisły związek między etyką a prawem dotyczącym SI. "Ważną rolą etyki sztucznej inteligencji będzie dostarczanie konkretnych narzędzi umożliwiających realizację wymogów zapisanych w prawie" - zaznaczył Chojnowski.
Zapytany o to, czy w Europie obowiązują jakieś regulacje dotyczące SI, zwrócił uwagę na przykład na RODO - Ogólne rozporządzenie o ochronie danych.
"RODO może dotyczyć także SI, bo korzysta ona z dużych zbiorów danych. To podstawa uczenia maszynowego, które jest dominującą formą współczesnej SI" - zauważył.
Chojnowski powiedział, że zasadniczym aktem prawnym, który będzie dotyczył SI będzie AI Act (z ang. Artificial Intelligence). To rozporządzenie o sztucznej inteligencji zostało zaproponowane przez Komisję Europejską w kwietniu 2021 r. Chodzi o stworzenie wspólnych ram regulacyjnych i prawnych dla sztucznej inteligencji. Swoim zakresem obejmuje wszystkie sektory (z wyjątkiem wojska) i wszystkie rodzaje sztucznej inteligencji.
Projekt KE ma być odpowiedzią na ryzyka generowane przez określone zastosowania sztucznej inteligencji za pomocą zestawu uzupełniających się, proporcjonalnych i elastycznych przepisów. Zaproponowane ramy prawne dotyczące sztucznej inteligencji proponują podejście oparte na czterech różnych poziomach ryzyka: ryzyko niedopuszczalne, ryzyko wysokie, ryzyko ograniczone i ryzyko minimalne.
"Okazało się, że zapisy w tym dokumencie należy zmodyfikować w związku z szybkim postępem prac nad SI i pojawieniem się SI ogólnego zastosowania (ang. general purpose AI), jak np. Chat GPT. Ze względu na wielorakie, trudne do przewidzenia zastosowania, może być to narzędzie niebezpieczne" - zaznaczył Chojnowski.
Ekspert zapytany o prace w interdyscyplinarnym gronie ekspertów działającym w ramach grupy roboczej ds. sztucznej inteligencji przy KPRM w zakresie etyki powiedział, że są one zgodne z koncepcją SI godnej zaufania (ang. Trustworthy AI). Wypracowała ją grupa robocza powołana przez Komisję Europejską. Wśród wytycznych napisano, że systemy SI należy opracowywać, wdrażać i wykorzystywać w sposób zgodny z następującymi zasadami etycznymi: poszanowaniem autonomii człowieka, zapobieganiem szkodom, zapewnieniem sprawiedliwości i możliwości wyjaśnienia ich działania.
"Pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym, by korzystano z tego typu narzędzi w sposób świadomy i odpowiedzialny"
- podkreślił.
Zwrócił uwagę na to, że zgodnie z polityką rozwoju SI w Polsce, sektor publiczny ma do odegrania w dziedzinie wdrażania SI rolę wzorcotwórczą.
"Właśnie podsumowujemy nasze prace i rozpoczynamy przygotowywanie raportu, który będzie zawierał zarys podstawowych problemów. Będą tam opisane narzędzia i wskazania" - zapewnił.
Dodał, że w przypadku wytycznych z zakresu etyki chodzi m.in. o zapewnienie przewodniej i nadzorczej roli człowieka w przypadku systemów SI. "Człowiek nie może zostać zdominowany przez maszyny, musi móc nimi ostatecznie zarządzać" - wyjaśnił.
Nie tylko w Europie eksperci zastanawiają się nad kontrolą SI. Szef Google Sundar Pichai przyznał w wywiadzie udzielonym w kwietniu telewizji CBS, że pożądane byłoby stworzenia dla SI globalnych ram regulacyjnych, podobnych do Układu o nierozprzestrzenianiu broni jądrowej. Chojnowski komentując tę wypowiedź stwierdził: "Poszczególne jurysdykcje będą tworzyć swoje rozwiązania. Uważam, że Europa ma do odegrania rolę pioniera, który wytyczy szlaki dla innych".