Kilka miesięcy temu miliony widzów telewizyjnych w Korei Południowej oglądało kanał MBN, aby zapoznać się z najnowszymi wiadomościami. W szczycie oglądalności codzienna prezenterka wiadomości Kim Joo-Ha zaczęła czytać poszczególne newsy. To była stosunkowo normalna lista wiadomości na koniec 2020 roku – pełny raport o Covid-19 i aktualizacja newsów dotyczących pandemii.

Jednak ten konkretny serwis informacyjny był daleki od normalności, ponieważ Kim Joo-Ha tak naprawdę nie było na ekranie. Zamiast tego na ekranach pojawił się "deepfake" cyfrowa wersją jej samej - wygenerowana komputerowo kopia, która miała na celu doskonałe odzwierciedlenie jej głosu, gestów i mimiki.

Widzowie zostali wcześniej poinformowani, że to się wydarzy, a południowokoreańskie media donosiły o mieszanej reakcji telewidzów. Podczas gdy niektórzy byli zdumieni, jakie to było realistyczne, inni mówili, że martwią się, że prawdziwa Kim Joo-Ha może stracić pracę.
MBN oznajmiło, że nadal będzie wykorzystywać deepfake do niektórych doniesień prasowych, podczas gdy firma stojąca za technologią sztucznej inteligencji - południowokoreańska firma Moneybrain - poinformowała, że będzie teraz szukać innych nabywców, wśród mediów w Chinach i USA.

Kiedy większość ludzi myśli o deepfake'ach, wyobrażają sobie fałszywe filmy z celebrytami.  W rzeczywistości tylko w zeszłym tygodniu jeden z takich fałszywych - ale bardzo realistycznych - wideo Toma Cruise'a trafił na pierwsze strony gazet na całym świecie po tym, jak pojawił się w TikTok-u.

Pomimo negatywnych konotacji towarzyszących potocznemu określeniu deepfakes (ludzie zwykle nie chcą, aby kojarzono je ze słowem „podróbka”), technologia ta jest coraz częściej wykorzystywana komercyjnie. Użycie filmów generowanych przez sztuczną inteligencję lub mediów „syntetycznych” szybko rośnie w sektorach takich jak wiadomości, rozrywka i edukacja, a technologia staje się coraz bardziej wyrafinowana.

Jednym z pierwszych użytkowników komercyjnych była Synthesia, londyńska firma, która tworzy korporacyjne filmy szkoleniowe oparte na sztucznej inteligencji dla globalnej firmy reklamowej WPP i firmy konsultingowej Accenture.

„Oto przyszłość tworzenia treści” - mówi dyrektor generalny i współzałożyciel Synthesia Victor Riparbelli. Aby stworzyć wideo wygenerowane przez sztuczną inteligencję za pomocą systemu Synthesia, po prostu wybierz spośród wielu awatarów, wpisz słowo, które chcesz, aby powiedzieli, i to wszystko.

Pan Riparbelli mówi, że oznacza to, że globalne firmy mogą bardzo łatwo nagrywać filmy w różnych językach, na przykład na wewnętrzne kursy szkoleniowe.

„Powiedzmy, że masz 3000 pracowników magazynu w Ameryce Północnej” - mówi. Niektórzy z nich mówią po angielsku, ale niektórzy mogą być bardziej zaznajomieni z hiszpańskim. Jeśli musisz przekazać im złożone informacje, czterostronicowy plik PDF nie jest świetnym sposobem. Znacznie lepiej byłoby nakręcić dwu- lub trzyminutowe wideo w języku angielskim i hiszpańskim.

„Gdybyś musiał nagrać każdy z tych filmów, to byłaby ogromna praca. Teraz możemy to zrobić za (niewielkie) koszty produkcji i bez względu na to, ile czasu zajmie komuś napisanie scenariusza.  Technologia ta jest używana już dzisiaj”

- dodaje.