Głównym założeniem funkcjonowania aplikacji jest możliwość modyfikowania wprowadzanych do niej zdjęć dzięki wykorzystaniu sztucznych sieci neuronowych. Zmianie może ulegać wygląd (kolor włosów, okulary, zarost), wiek, a nawet płeć osób widocznych na zdjęciach.
Wraz ze wzrostem zainteresowania samą aplikacją, pojawia się coraz więcej ostrzeżeń przed bezrefleksyjnym udostępnianiem swoich zdjęć. Niewinna z pozoru zabawa i rozrywka kryje bowiem wiele zagrożeń. Jednym z pierwszych argumentów podnoszonych przez ekspertów ds. cyberbezpieczeństwa jest rosyjski rodowód samej aplikacji – serwery twórców apki znajdują się w... Petersburgu. Kolejnym, znacznie poważniejszym zagrożeniem jest niezwykle niejasna polityka prywatności.
„Informacje, które nam przekazujesz bezpośrednio: treści użytkownika (np. zdjęcia i inne materiały)”.
- głosi lakoniczny komunikat autorów oprogramowania.
Poniżej dający do myślenia fragment umowy licencyjnej FaceApp:
„Możemy udostępniać Treści użytkownika i informacje użytkownika firmom, które prawnie są częścią tej samej grupy przedsiębiorstw, której częścią jest FaceApp, lub które stają się częścią tej grupy („Partnerzy”). Partnerzy mogą wykorzystywać te informacje, aby pomóc w dostarczaniu, zrozumieniu i ulepszaniu Usługi oraz własnych usług Partnerów”.
Na potencjalne niebezpieczeństwo związane z użytkowaniem aplikacji zwracała uwagę wiceminister cyfryzacji Wanda Buk:
W moich mediach społecznościowych wysyp zdjęć z #FaceApp ?Ze sklepu Google Play apka pobrana ponad ?mln razy-ktoś zupełnie za darmo zgromadził sobie całkiem sporą bazę danych. Jak z niej skorzysta❓?? ?♀️
— Wanda Buk (@WandaBuk) 17 lipca 2019
?Warto sprzedawac swoje dane po cenie chwili rozrywki❓ pic.twitter.com/wt3pOwaEI9
Czym może grozić dostęp do milionów zdjęć internautów korzystających z tego typu aplikacji? Jednym z kluczowych zagrożeń w tym kontekście jest możliwość wykorzystania zarówno samych zdjęć, jak i możliwości ich dowolnego przerabiania i wprowadzania zmian w wizerunku do tworzenia całej armii sztucznych kont, wykorzystywanych na szeroką skalę w internetowym trollingu i machinie dezinformacji.
Badacz z Oxfordu Robert Gorwa już w 2017 roku w swoim opracowaniu "Computational propaganda in Poland: False Amplifiers and the Digital Public Sphere" opisuje mechanizm tworzenia w internecie sztucznych tożsamości w celu szerzenia działań propagandowych zakrojonych na szeroką skalę. Gorwa powołuje się na informacje uzyskane od polskiego specjalisty ds. komunikacji i marketingu, który z oczywistych względów zastrzega sobie anonimowość. Jako pracownik firmy zajmującej się od lat tworzeniem fałszywych kont i całych tożsamości w internecie ma on niezwykle cenną wiedzę w zakresie wykorzystywania tego typu mechanizmu w różnych gałęziach marketingu – od handlu, po marketing polityczny. Okazuje się, że tylko ta jedna firma była w stanie w ciągu zaledwie 10 lat wytworzyć niemal 40 tys. sztucznych tożsamości. Warto w tym miejscu nadmienić, że każdy taki fałszywy internauta posiadał przypisane do siebie, wyjątkowe cechy, odpowiednią historię oraz grupę kont w mediach społecznościowych. Fałszywym użytkownikom nadawano również unikatowe adresy IP, aby ich działania w internecie nie budziły niczyich podejrzeń i do złudzenia przypominały standardową aktywność w sieci.
Proces tworzenia fałszywego użytkownika przypomina do złudzenia działania szpiegowskie służb specjalnych, a szczególnie proces funkcjonowania tzw. nielegałów czy śpiochów (szpiegów, którzy po zwerbowaniu i opracowaniu odpowiedniej legendy nieraz nawet po kilka, kilkanaście lat czekają „w uśpieniu” na rozkaz rozpoczęcia działalności). W przypadku internetu, stworzenie fałszywej tożsamości jest znacznie prostsze i o wiele mniej ryzykowne. Taki sztuczny twór ma przede wszystkim pełnić rolę podżegacza, który w odpowiednim momencie skieruje dyskusję na internetowych forach i popularnych serwisach na konkretne tory. Wszystko zaczyna się jednak od przyjęcia konkretnego zlecenia. Często to właśnie firma lub formacja polityczna dokładnie określa „profil psychologiczny” i główne cele. Wówczas do akcji wkracza zespół specjalistów, który tworzy odpowiednią liczbę sztucznych internautów. Wymyślane są dane osobowe, opracowywane są historie i biogramy, dla każdego tworzone są unikatowe adresy e-mail i profile w mediach społecznościowych.
- tłumaczy w rozmowie z portalem niezalezna.pl dr Piotr Łuczuk, medioznawca i ekspert ds. cyberbezpieczeństwa Instytytu Staszica oraz Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.
To jeszcze nie wszystko. Tak spreparowane sztuczne tożsamości są aktywnie wykorzystywane i od pewnego czasu wypierają tradycyjne działania internetowych trolli. Sztuczne konta zarządzane przez odpowiednio do tego przeszkolone osoby lub wręcz specjalnie opracowane w tym celu boty znacznie poszerzają możliwości rozpowszechniania i co najbardziej niebezpieczne – uwiarygadniania całych kampanii fake newsów.
Dla uwiarygodnienia danej „osoby” publikowane są nawet odpowiednio spreparowane zdjęcia i regularnie dodawane są wpisy na różne tematy, pozostające w sferze zainteresowań podmiotu i będące w ścisłej relacji z daną wersją legendy. Po zbudowaniu historii aktywności na danym koncie, sztuczny internauta jest w pełni gotowy do działania. Jak się okazuje w firmach zajmujących się tego typu działalnością każdy z pracowników jest w stanie kontrolować/monitorować równolegle nawet do piętnastu tego typu sztucznych kont. Tego typu działania znacznie utrudniają identyfikację użytkownika, jako sztucznego tworu, a wykorzystanie tego mechanizmu w celach propagandowych i dezinformacyjnych jest długofalowo znacznie skuteczniejsze od użycia botów. W porównaniu z użyciem botów, tworzenie sztucznych kont sterowanych przez człowieka daje nieograniczone wręcz możliwości, a przede wszystkim pozwala na wiarygodną interakcję z pozostałymi internautami. W tym modelu wojny informacyjnej boty wykorzystywane są głównie do prowadzenia agitacji, rozpowszechniania fake newsów na szeroką skalę lub rozsyłania spamu, a także do dyskredytowania ewentualnych oponentów.
- tłumaczy dr Piotr Łuczuk.