Do zaskakujących wniosków doszli naukowcy z Australijskiego Uniwersytetu Narodowego. Wykazali oni, że twarze wygenerowane w całości przez sztuczną inteligencję (AI) wydają się nam bardziej realistyczne niż rzeczywiste ludzkie twarze. Eksperyment został opisany w czasopiśmie „Psychological Science”. Jednocześnie pragniemy zwrócić uwagę, że tekst, który teraz czytasz został natomiast zilustrowany losowo wygenerowanymi przez sztuczną inteligencję modelami ludzkich twarzy.
Według informacji zawartych w artykule, algorytmy sztucznej inteligencji są przeważnie szkolone na obrazach osób białych, co prowadzi do tego, że generowane przez nie twarze jednostek wydają się bardziej rzeczywiste dla obserwatorów. Co ciekaw to zjawisko nie obejmuje jednak twarzy osób o innych kolorach skóry.
Taka dominacja jednej grupy etnicznej w danych treningowych dla sztucznej inteligencji może generować poważne konsekwencje, wzmacniając ewentualne uprzedzenia rasowe.
Badanie porusza także kwestię „hiperrealizmu” sztucznej inteligencji, co sprawia, że ludzie często nie zdają sobie sprawy, że są oszukiwani. Uczestnicy badania, którzy uznali generowane przez AI twarze za prawdziwe, paradoksalnie, najpewniej oceniali swoje spostrzeżenia jako poprawne. To sugeruje, że ludzie łatwo dają się oszukać, ale jednocześnie nie uznają tego faktu.
Pomimo istnienia istotnych fizycznych różnic między obrazami stworzonymi przez sztuczną inteligencję a rzeczywistymi twarzami ludzkimi, ludzie mają tendencję do błędnej interpretacji tych różnic. Na przykład, generowane przez AI twarze białych osób są zazwyczaj bardziej proporcjonalne niż rzeczywiste, co jest niewłaściwie odczytywane, jako cecha ludzkości, a nie wytwór narzędzia do generowania grafiki.
Badaczka prognozuje, że istniejące różnice między obrazami AI a prawdziwymi twarzami prawdopodobnie znikną w przyszłości, w miarę szybkiego rozwoju technologii sztucznej inteligencji. Z tego powodu uważa, że konieczne jest zwiększenie przejrzystości w dziedzinie sztucznej inteligencji, aby badacze i społeczeństwo mogli zidentyfikować potencjalne problemy zanim staną się poważnym zagrożeniem.
Edukacja społeczeństwa w zakresie rozpoznawania oszustw związanych z technologią sztucznej inteligencji może odegrać kluczową rolę w ograniczaniu potencjalnych zagrożeń, takich jak dezinformacja czy kradzież tożsamości.
Najnowsze dowody wykazały, że twarzy wygenerowanych przez sztuczną inteligencję nie można obecnie odróżnić od twarzy ludzkich. Jednak algorytmy są trenowane nieproporcjonalnie na białych twarzach, dlatego białe twarze AI mogą wydawać się szczególnie realistyczne.
W eksperymencie 1 (N = 124 osoby dorosłe) oprócz ponownej analizy wcześniej opublikowanych danych naukowcy wykazali, że białe twarze AI są częściej oceniane jako ludzkie niż rzeczywiste twarze ludzkie – zjawisko to określono mianem hiperrealizmu sztucznej inteligencji. Paradoksalnie najbardziej pewne siebie były osoby, które popełniły najwięcej błędów w tym zadaniu (efekt Dunninga-Krugera).
W eksperymencie 2 (N = 610 dorosłych) wykorzystano teorię przestrzeni twarzy i raporty jakościowe uczestników, aby zidentyfikować kluczowe cechy twarzy, które odróżniają sztuczną inteligencję od twarzy ludzkich, ale zostały błędnie zinterpretowane przez uczestników, co doprowadziło do hiperrealizmu sztucznej inteligencji. Jednak atrybuty pozwoliły na wysoką dokładność przy użyciu uczenia maszynowego. Odkrycia te ilustrują, w jaki sposób teoria psychologiczna może pomóc w zrozumieniu wyników sztucznej inteligencji i wskazać kierunek kwestionowania algorytmów sztucznej inteligencji, promując w ten sposób etyczne wykorzystanie sztucznej inteligencji.