Co to jest deepfake?
W największym skrócie: nazwa ta określa sposób edycji i tworzenia filmów, a składa się z połączenia słów deep oraz fake. Pierwszy człon dotyczy deep learning, czyli nowoczesnych systemów głębokiego uczenia maszynowego. Drugi człon oznacza po prostu fałsz. Tym samym deepfake to zjawisko polegające na tworzeniu fałszywych filmów, ale najczęściej z wykorzystaniem wizerunków prawdziwych osób. I jest to coś znacznie więcej niż zwykły, klasyczny fotomontaż. Wykorzystywane są tu bowiem zarówno nowoczesne technologie graficzne, jak i zaawansowana sztuczna inteligencja oraz maszynowe uczenie, co pozwala uzyskać wrażenie głębokiego realizmu.
Przy tworzeniu tego typu fałszerstwa wykorzystuje się nie tylko obraz (np. skan twarzy osoby, który twórcy deepfake’a chcą wykorzystać), ale też próbki dźwięku, innych filmów lub zdjęć, które są następnie ze sobą łączone i odpowiednio przetwarzane. Efekt potrafi być piorunujący: dostajemy przekonująco wyglądający film, na którym jakaś konkretna osoba mówi lub robi rzeczy, których w rzeczywistości nigdy by nie zrobiła (lub nie miałaby okazji, gdyż nie żyje). Komputery są zresztą w stanie wygenerować obraz z postaciami, które w ogóle nie istnieją, chociażby z połączenia cech fizycznych dwóch innych osób.
Początkowo technologie tego typu były (głównie ze względu na ogromne wymagania obliczeniowe) wykorzystywane jedynie przez dysponujące odpowiednim sprzętem i możliwościami największe studia filmowe Hollywood. Wówczas nazwano to po prostu zaawansowanymi efektami specjalnymi. Z czasem jednak, gdy do podstawowej obróbki zaczął wystarczać zwykły komputer, a nawet smartfon i odpowiednie algorytmy w stworzonych w tym celu aplikacjach, technika ta trafiła pod strzechy. W tej chwili produkcje używające do tworzenia filmów technologii deepfake pojawiają się bardzo często — zarówno na dużym, jak i małym ekranie. Duże zainteresowanie widzów wzbudziły, chociażby reklamy TV "ożywiające" Audrey Hepburn czy aktora Petera Cuschinga w kolejnej części Gwiezdnych Wojen.
Powszechny dostęp do tworzenia deepfake’ów tworzy nie tylko wielkie możliwości fabularne, ale też poważne zagrożenia w sieci. Technologia ta zaczyna być masowo wykorzystywana do wprowadzenia fałszywych informacji do Internetu. Póki są to jedynie niewinne, humorystyczne filmiki, problem jest niewielki, natomiast gdy Deepfake wkracza do chociażby dużych kampanii politycznych, staje się realnym problemem.
Łatwo sobie wyobrazić, że można prowadzić kampanię wyborczą, używając sfałszowanych, ale mocno „kompromitujących” wypowiedzi przeciwników. Takie sytuacje zresztą miały już miejsce. Powszechnie też tworzy się w sieci filmiki pornograficzne z wykorzystaniem wizerunków znanych celebrytów. Biorąc pod uwagę, że często takie produkcje są prawie niemożliwe do odróżnienia od oryginału, szkody, jakie mogą być wyrządzone, wydają się przerażające.
Jak powstają materiały deepfake?
Twórcy filmów typu deepfake wykorzystują do ich tworzenia różne metody. Najpopularniejsza działa w oparciu o dwa zaawansowane algorytmy: enkoder, który potrafi znajdować wspólne cechy dwóch różnych obrazów planowanych do połączenia, oraz dekoder, który z ich użyciem tworzy gotowy, fałszywy obraz.
W praktyce wygląda to tak, że jeśli twórca filmiku chce, by postać z pierwszego materiału poruszała się tak, jak ta z drugiego, enkoder nauczy się ruchu z filmu, na którym ta druga postać się porusza, następnie dekoder zamieni jej twarz na twarz tej z pierwszego materiału, a dodatkowo sprawi, że będzie ona się reagowała w ten sam sposób (zachowa charakterystyczne cechy). Opiera się to na cyfrowej analizie i przetwarzaniu wybranych cech, np. mimiki.
Innym sposobem tworzenia Deepfake’ów są sieci Generative Adversarial Network. W tym przypadku także dwa algorytmy współpracują ze sobą. Pierwszy, czyli generator wykorzystuje bazę ogólnych informacji i z ich pomocą tworzy obrazy, w tym wizerunki ludzi, wskazując przy tym zestaw ich głównych wyróżników. Drugi algorytm to dyskryminator, który sprawdza, czy wytworzone przez generator obrazy są prawdziwe, czy nie. Cały proces „tworzenia” toczy się do momentu, w którym drugi z algorytmów nie uzna, że otrzymał prawdziwy, a nie sztuczny obraz.
Czy każdy może zrobić film deepfake?
W tym momencie są nawet aplikacje na smartfona, które dają próbkę możliwości deepfake. Oczywiście nie będą to materiały w pełni profesjonalne i w wielu przypadkach da się odróżnić, że jest to materiał spreparowany. Technologie deepfake wykorzystuje też wiele aplikacji do upiększania twarzy i wizerunków. Działają one na bardzo podobnej zasadzie. Tu efekt może być znacznie lepszy (praktycznie nie da się wychwycić fałszerstwa) niż w przypadku tworzenia filmów. Wynika z tego, że do stworzenia statycznego obrazu jest potrzebna znacznie mniejsza moc obliczeniowa.
Jeśli natomiast dysponujemy potężnym sprzętem komputerowym (co najmniej kilka maszyn powiązanych w sieć, z topowymi kartami graficznymi), to nasze możliwości są w zasadzie nieograniczone.
Przykłady deepfake
Jak odróżnić deepfake od prawdziwych nagrań?
Na początek zła informacja. Profesjonalnie przygotowane filmy deepfake będzie coraz trudniej odróżnić od rzeczywistości. Postęp w tej dziedzinie jest ogromny, algorytmy sztucznej inteligencji są dopracowywane a moc obliczeniowa komputerów, które za to odpowiadają, rośnie w niewyobrażalnie szybkim tempie. Wcześniej na przykład często zdarzało się, że postaci wygenerowane sztucznie miały problem z… mruganiem powiekami. Powodowało to bardzo nienaturalny efekt i szybko można było rozpoznać fałszerstwo. Twórcy tego typu filmów bardzo szybko się jednak uczą i takie problemy zostały już jednak (przynajmniej w profesjonalnych produkcjach) wyeliminowane. Ciągle jest jednak kilka wskaźników, które mogą pomóc nam w rozpoznaniu fałszerstwa. Są to przede wszystkim:
- Niezgodność ruchu warg z wypowiadanymi treściami. Czasem opóźnienie może być minimalne, ale już widoczne dla ludzkiego oka. Jeśli zaobserwujemy tu jakąkolwiek niezgodność, możemy mieć uzasadnione podejrzenia co do autentyczności filmu.
- Naszą uwagę powinny zwrócić także wszelkie anomalie w ustawieniu i ułożeniu ciała. Algorytmy uczą się, ale to nie znaczy, że są idealne. Także tym najlepszym zdarza im się popełniać błędy. Nienaturalnie położona głowa, dziwne ruchy mogą zdradzać fałszerstwo.
- Jedną z często spotykanych cech deepfake jest różnica między jakością ścieżki wideo i audio. Najczęściej odstaje ścieżka audio, która jest słabsza.
- Przy bardziej prymitywnych fałszerstwach często można zobaczyć problemy z jakością w wybranych miejscach obrazu. Rzucające się w oczy zamazania, przeskakujące klatki, nieprawidłowe oświetlenie (cienie padają w innym kierunku niż światło).
- Wskazaniem mogą być też osobiste, subiektywne odczucia widza. Bywa tak, że wypowiadana na ekranie treść nie współgra z widocznymi emocjami osoby, która je przekazuje. To także może być istotny sygnał wskazujący fałszerstwo.
Czy zagrożenie deepfake jest realne?
Niestety tak. Już dawno przestał być to problem zachodnich celebrytów, którzy zresztą mają środki finansowe i prawników, by przed takimi atakami się obronić. W dużo gorszej sytuacji są zwykli użytkownicy Internetu, których ktoś może, na przykład zaszantażować udziałem w przestępstwie bądź wstydliwymi aktywnościami w sytuacji, kiedy nigdy nie miały one miejsca. Zagrożony może być także biznes i świat polityki, w którym takich materiałów można użyć do publicznego zdyskredytowania konkurenta lub oponenta. Nietrudno sobie wyobrazić sytuacje, w których fałszywe nagranie ukazujące ludzi w kompromitujących okolicznościach mogłoby być dla ich wrogów realnie użyteczne.
Pojawienie się deepfake’ów będzie mieć także i inną wadę. W miarę ukazywania się tego typu produkcji, a następnie ich dementowania, zwykli ludzie zaczną tracić zaufanie do obrazów, także tych o dużym znaczeniu pokazywanych w mediach. Skoro bowiem „wszystko da się sfałszować”, to skąd pewność, że akurat to, co nam pokazują, jest prawdziwe? Może to mieć poważne konsekwencje. Zanim jednak na dobre przyzwyczaimy się do tych fałszerstw, wielu oszustom uda się z ich pomocą zwieść nieświadomych obserwatorów.
Na szczęście są też firmy i instytucje, które zajmują się walką z tego typu manipulacjami. Na przykład Microsoft i Amazon pracują nad specjalnym oprogramowaniem, które pozwoli (przynajmniej spróbuje) rozpoznać takie fałszerstwa. Podobnymi badaniami zajmują się też renomowane instytucje naukowe. Kto wygra tę wojnę? Czas pokaże.
Tomasz Sławiński
KOMENTARZE (0) SKOMENTUJ ZOBACZ WSZYSTKIE