Rosja, Chiny, Iran i Izrael - te państwa korzystały z należących do OpenAI modeli sztucznej do prowadzenia ukrytych operacji wpływu w mediach społecznościowych. Propaganda była wymierzona m.in. w Polaków. Koncern stojący za ChatemGPT poinformował o skasowaniu kont powiązanych z tymi grupami.
Jak podała w nowym raporcie OpenAI, jej dochodzenie wykryło pięć siatek użytkowników: dwie z Rosji, jedną z Chin i po jednej z Iranu i Izraela. Wśród nich odkryto jedną wcześniej nieznaną operację, nazwaną przez OpenAI "Bad Grammar" (zła gramatyka), która używała ChataGPT do ulepszenia bota na Telegramie i tworzenia krótkich komentarzy w języku polskim i angielskim.
Dodatkowo, w ramach znanej już wcześniej operacji nazwanej "Doppelganger" powiązanej z rosyjskim wywiadem, Rosjanie korzystali z modeli AI do tworzenia postów po francusku, niemiecku, włosku i polsku, które były zamieszczane na portalu X (d. Twitter) i portalu z memami 9GAG, a także do tworzenia całych artykułów zamieszczanych na stronach imitujących rzeczywiste media.
W podobny sposób - do ulepszania botów i tworzenia artykułów i komentarzy - platformy OpenAI wykorzystywały grupy z Chin (znana od dawna operacja "Spamuflaż"), Iranu i Izraela.
"Treści publikowane w ramach tych różnych operacji skupiały się na szerokim spektrum zagadnień, w tym inwazji Rosji na Ukrainę, konflikcie w Gazie, wyborach w Indiach, polityce w Europie i Stanach Zjednoczonych oraz krytyce chińskiego rządu ze strony chińskich dysydentów i obcych rządów"
Podczas briefingu prasowego Nimmo stwierdził, że choć modele AI ułatwiły i usprawniły pracę grup stojących za operacjami wpływu, żadna z nich nie trafiła ze swoimi treściami do szerszego grona odbiorców. Przestrzegł jednak, że nie należy lekceważyć tych prób.
"Historia pokazuje, że operacje wpływu, które przez lata nie przynosiły żadnych rezultatów, mogą nagle osiągnąć przełom, jeśli nikt na nie nie uważa"