Coraz sprytniejsze i coraz trudniej je zdemaskować. Co to jest deepfake?

Share on facebook
Share on twitter
Share on linkedin
Czas czytania: 8 min.

Zagrażają politykom, artystom i innym osobom publicznym. Niszczą wizerunek, generują podejrzenia i brak zaufania. Są coraz bliżej nas i właściwie możemy spotkać się z nimi gdy tylko uruchomimy przeglądarkę. Czym są deepfakes, czyli druga strona technologii powiązanych z uczeniem maszynowym i sztuczną inteligencją?

Witaj w przyszłości, czyli era Fake News 2.0

Pokolenie millenialsów pamięta dobrze wysyp tzw. łańcuszków. Były to informacje tworzone przez użytkowników komunikatorów internetowych takich jak prawie już zapomniane albo dziś już mocno niszowe Gadu-Gadu, które nakłaniały do zrobienia… czegoś, zwykle głupiego czegoś. A po co? Żeby odegnać pecha albo coś, ale dokładnie to w sumie nie wiadomo.

Wiele spośród nich miało jakąś mroczną historię rodem z horroru w tle. Łączyło je zwykle jedno – były całkowicie nieszkodliwe. O ile był to co najwyżej irytujący wyraz wczesnej fascynacji możliwościami raczkującego w Polsce Internetu, o tyle współczesna historia cyfrowa zgłasza do tego porównania nowe, o wiele groźniejsze zjawisko – rozpowszechnianie się fake newsów.

Komunikator Gadu-Gadu
"Prześlij tę wiadomość 10 osobom, albo Twoja pralka eksploduje w środku nocy".

Co to jest fake news

Fake news to fałszywe i wprowadzające w błąd informacje przedstawiane na przykład jako medialne wiadomości. Różne są ich cele. Psikus, zaszkodzenie reputacji, pozyskanie rozgłosu. Równie często chodzi jednak o zarobienie pieniędzy dzięki wpływom z reklam, a stąd już blisko do praktyk żerujących na ludzkiej naiwności, na przykład skłonności do otwierania  podejrzanych linków z „nagrodą” albo przerażającym użytkowników wezwaniom do natychmiastowej zapłaty.

Fake news niebezpiecznie krzyżuje się z cyberprzestępczą praktyką znaną jako phishing – podszywaniem się pod osobę lub instytucję w celu wyłudzenia danych, zainfekowania wirusem lub namowy do zrobienia czegokolwiek innego w sieci na własną szkodę. Wiele spośród tych informacji jest częściowo prawdziwa, aby uwiarygodnić przekaz tą starą jak świat techniką, ale według purystów mówienie półprawdy to jak kłamstwo – i w sumie tak przecież jest. A dlaczego mówimy o tym wszystkim jednocześnie i wrzucamy do jednego worka fake newsy, phishing i manipulacje? Bo oszustwo jest stare świat i wszechobecne, a zmieniają się tylko metody przekrętu. Techniki te coraz obejmują także treści filmów, animacji i zdjęć.

Dopóki wymuszenia i nadużycia mają na celu szeroko rozumianą kradzież, nawet jeżeli dotyczy ona dużych grup, to wciąż jest to sprawa dla organów ścigania. Często zapominamy, że równie niebezpieczne są, jakże niefrasobliwe, bagatelizowane i pozornie podane w formie głupich żartów, porady dotyczące problemów ze zdrowiem. 

Jakiś czas temu wielu zgłaszało, że za pośrednictwem komunikatora WhatsApp rozsyłano wyssane z palca wyniki badań naukowych, według których rzekomo istniały domowe sposoby na zwalczenie objawów koronawirusa. Wiele z takich informacji nie powstało w oryginale po polsku i sprawne „oko do języka” mogło wychwycić tłumaczeniowe potknięcia i dziwaczne błędy w zapisie. Podobnie jak z fałszywymi wezwaniami do zapłaty, których twórcy prawie niedostrzegalnie zmieniają np. nazwę banku albo innej instytucji.

Ofiarą takich „tylko żartów” padają najczęściej osoby nieobeznane z internetowymi praktykami oraz osoby starsze w sieci. Szkoda tylko, że świadkowie i adresaci takich wiadomości dzielą się na dwie grupy – na tych, co uświadamiają o oszustwach i na tych dołączających do naśmiewania się z tych, którzy padają ich ofiarą. 

Gdyby skutkowało to "tylko" bezmyślnym udostępnieniem posta...

Dobra fikcja to nadal dobra fikcja

Analiza wykonana przez popularny serwis BuzzFeed wykazała, że „najlepsze” historie fake news dotyczące listopadowych wyborów prezydenckich w USA w 2016 roku otrzymały więcej zaangażowania na Facebooku niż „najlepsze” historie pochodzące z oficjalnego przekazu, czyli z głównych mediów krajowych. W popularnej grze-aplikacji mobilnej Plague Inc. mającej ponad 3,5 mln pobrań pojawił się specjalny scenariusz o nazwie Fake News, w którym zamiast zwyczajowo zakażać lub leczyć staramy się rozpowszechnić nieprawdziwe informacje i przekonać do nich całą populację świata – i jest to scenariusz niepokojąco znajomy. 

Uwielbiamy fake newsy niezależnie od tego, czy w nie wierzymy, czy nie – dla niektórych są po prostu dobrą zabawą albo tematem do rozmów o wielkiej konspiracji. Jednak jeśli przyjrzeć im się bliżej i pomyśleć nieco szerzej o tym, jak szeroki jest przekrój demograficzny wśród tych, którzy mogą na nie natrafić, to trudno przymknąć oczy na czyhające zagrożenia. A przecież tylko chcieliśmy nauczyć babcię i dziadka obsługi Internetu

Fałszywy komunikat wysłany na WhatsApp uwiarygodniony domeną rządową .gov.

Rozwój ściemy

Stara, dobra manipulacja nigdy nie wychodzi z mody. Deepfake to nic więcej jak bardziej zaawansowany technologicznie krok na drodze do stworzenia przekonującego „fejka”. Nie ma lepszego sposobu na uwierzytelnienie jakiejś informacji, niż jej osobiste przedstawienie przed słuchaczami. A przedstawiać można treści rozmaite, błahe i ważne, potoczne i (pseudo)naukowe, opiniotwórcze i rozrywkowe, z ust osób wpływowych, które niejako sygnują autorytetem własnej twarzy i wizerunku to, co jest mówione. A tymczasem serwis Instagram nie usunął nawet fejkowego wideo z prezesem Facebooka w obawie o pogwałcenie własnych zasad. 

W wyjątkowo realistycznie prezentującym się nagraniu wykorzystano wywiad Marka Zuckerberga dla CBSM z 2017 roku, podłożyli głos aktora i za pomocą sztucznej inteligencji zmanipulowali mimikę jego twarzy. Pamiętajmy, że Instagram nadal należy do Facebooka. Nagranie przedstawia te możliwości. 

Niewiele wcześniej przed awanturą o ów materiał firma spotkała się z ostrą krytyką za odmowę usunięcia przerobionego nagrania przedstawiającego spikerkę Izby Reprezentantów w USA Nancy Pelosi. Algorytmy serwisów takich jak Facebook czy Instagram nie są gotowe na zalew takich treści. Algorytm facebookowy potrafi się także mylić w kwestiach rozpoznawania przedmiotów i oznaczyć publikowaną reklamę… takiej obudowy jako reklamę broni palnej. Dlaczego? Zgaduj-zgadula. Pewnym jest, że działają coraz lepiej, ale wciąż wadliwie, nie mówiąc już o walce z fachowymi przeróbkami. 

Jak powstaje deepfake?

Nie tak łatwo zrobić deepfake. Jego głównym składnikiem jest uczenie maszynowe, które umożliwiło znacznie szybszą produkcję przy niższych kosztach. Aby stworzyć fałszywe wideo, twórca najpierw trenuje sieć neuronową na wielu godzinach prawdziwych nagrań wideo, aby mogła się uczyć i uzyskać realistyczne „zrozumienie” tego, jak dana osoba wygląda pod wieloma kątami i w różnym oświetleniu. Następnie wytrenowana sieć łączy się z technikami grafiki komputerowej, aby nałożyć kopię danej osoby na innego aktora. O rozpoznawaniu i mapowaniu twarzy pisaliśmy dla Was nieco więcej tutaj w kontekście robota BBC Maqueen z kamerą i Kendryte K210.

Podczas gdy dodanie do tego wszystkiego sztucznej inteligencji sprawia, że proces staje się szybszy niż kiedykolwiek wcześniej, to nadal potrzeba czasu, aby uzyskać wiarygodną kompozycję, która umieści kogoś w fikcyjnej sytuacji. Twórca musi ręcznie dostosować wiele parametrów wyszkolonego programu, aby uniknąć wyraźnych mignięć i artefaktów – powidoków na obrazie. Zadanie nie jest proste, ale wielu zakłada, że klasa algorytmów głębokiego uczenia się zwanych Generative Adversarial Networks (GAN) będzie głównym motorem rozwoju deepfakes w przyszłości. Twarze wygenerowane przez GAN są prawie niemożliwe do odróżnienia od prawdziwych. Pierwszy audyt krajobrazu deepfake’ów poświęcił całą sekcję sieciom GAN, sugerując, że dzięki nim z czasem praktycznie każdy będzie mógł tworzyć wyrafinowane podróbki.

U podwalin deepfake stoją techniki face recognition.

Najbardziej imponujące przykłady deepfake pochodzą z laboratoriów uniwersyteckich i startupów. Szeroko komentowane jest między innymi wideo ukazujące Davida Beckhama mówiącego płynnie w dziewięciu językach, z których tylko jeden zna w rzeczywistości. Powstało dzięki nowej wersji kodu opracowanego na Uniwersytecie Technicznym w Monachium w Niemczech. Tu akurat cel był szczytny – kampania walki z malarią. David Beckham nie musiał realizować żadnego misternego scenariusza ruchu warg, wystarczyła obróbka cyfrowa. Minutowy materiał video:

Coraz głębiej w nieprawdę

Aby zrozumieć, w jaki sposób zjawisko celebrity politics rozwinęło się i wchodzi w interakcje z polityką, oraz w jaki sposób tak zwane Fake News stały się tak ważną częścią tego zjawiska, musimy najpierw zrozumieć, co za nim stoi społecznie. Media społecznościowe i media głównego nurtu od dawna już się sprzęgają. Te dwie dziennikarskie sfery, świeższa i bardziej tradycyjna, tworzą hybrydowy system wzajemnie oddziałujących na siebie mediów, który nie dość, że nie był dotychczas znany na taką skalę, to jest jeszcze nieznany wielu uznanym politykom i instytucjom w ogóle. Przez litość pominiemy kilka kont Twitter znanych polityków, gdzie najlepiej dają tego dowód. Cóż, nie każdy idzie z duchem czasu, jego wybór. A nawet jak idzie, to i tak może paść ofiarą ekspertów od ściemy. 

Czołowa amerykańska senator Demokratów Elizabeth Warren jako ofiara fałszywki deepfake. Cóż, przynajmniej ją odmłodzono. Źródło: cyfrowa.rp.pl

 Wykorzystują to nowi aktorzy polityczni – tak zwani polityczni celebryci. Zwłaszcza zyskują tutaj ci, którzy potrafią wykorzystać istniejące wcześniej uznanie i rozgłos publiczny na nowych platformach, aby ominąć tradycyjne kanały komunikacji i dotrzeć bezpośrednio do nowego odbiorcy masowego. A są to często ludzie niezadowoleni, zbuntowani, pokrzywdzeni albo pominięci w procesie globalizacji, którym marzy się zmienianie kultury, losu narodu albo całego świata. 

OK, pobawiłeś się, ale to już akurat nie jest śmieszne

Duży polityczny kaliber to zupełnie osobna sfera rozgrywek na wysokim szczeblu, która rządzi się swoimi prawami. Nie jesteście też tutaj dzisiaj z nami wyłącznie po to, aby zastanawiać się nad kondycją amerykańskiej polityki i tego, co można ugrać dzięki nowym technikom cyfrowej manipulacji. Poza tym wymuszenia i szantaże są znane od zarania dziejów, tylko po prostu dzielą się na mniej i bardziej przekonujące zupełnie tak, jak wykorzystywane w ich celu fotomontaże. Czasami twórcom nie wystarczy nagranie albo sfotografowanie kogoś w dwuznacznej sytuacji. Chcą jeszcze dołożyć fałszywy element, aby komuś jeszcze bardziej dołożyć.

Nie trzeba dodawać, że psychologiczny wpływ niechcianego występu w pornograficznym wideo typu deepfake może pozostawić trwałą traumę. Latem 2020 roku TikTok obiegły nagrania jednego z bardziej prominentnych użytkowników, które zaczęły wkrótce krążyć także po innych mediach społecznościowych. Screengrab trafił na konta instagramowe, w tym konto osoboy przedstawionej na filmie. Powiedział: to deepfake, ok, kumam zabawę, ale z tej aplikacji korzystają moi rodzice

W przeszłości raczkujące dopiero technologie deepfake były wykorzystywane przede wszystkim do tworzenia nagich zdjęć celebrytek. Wynika to po części z faktu, że do stworzenia modeli deepfake’ów potrzeba tysięcy zdjęć lub kilkuminutowych nagrań wideo, aby zrobić to przekonująco – wyjaśnia Giorgio Patrini, założyciel serwisu Sensity AI. 

A gwiazdy na ekranie pojawiają się przecież co rusz – bo im większa gwiazda, tym więcej z nią nagrań ze srebrnego ekranu i serialu, i jednocześnie im bardziej znana, tym chętniej poszukiwane są materiały z jej udziałem. Może to i podwójna popularność, ale taka wcale nie do pozazdroszczenia. 

Fotomontaż w "starym stylu" przy wystarczającej ilości nagrań pozwala na stworzenie filmu deepfake.

Deepfake, czyli krążyć po sieci wcale tego nie chcąc

Z pewnością na witrynach internetowych o podejrzanej renomie nie znalazły się z własnej woli gwiazdy, które padły ofiarą deepfake. Rozpoczynaliśmy artykuł od fake newsów, których szkodliwość może być różna zależnie od tego, czego dotyczą, ale zniszczenie wizerunku na dobre to równie poważny zarzut. Czym innym jest także wprawna obsługa programu graficznego takiego jak Adobe Photoshop, gdzie wyniki prezentują bądź co bądź nieruchomy obraz, czym innym natomiast krótkometrażowy film, w którym dobór światła, zwyczajowej mimiki i ruchów mięśni twarzy przedstawianej osoby pasuje do reszty tak bardzo, że nie da się tego odróżnić. 

Zgodnie z wewnętrznymi danymi firmy przejrzanymi przez New York Times prawie jedna trzecia użytkowników TikTok jest w wieku poniżej 14 lat (stan na koniec 2020 r.). Czyni to tę społeczność wyjątkowo podatną na zagrożenie. Czytaliśmy dalej w artykule magazynu Rolling Stone, że nie jest rzadkością, że nieletni twórcy TikTok znajdują swoje filmy w kompilacjach wideo na stronach dla dorosłych. Redaktorzy pisma rozmawiali z matką 17-letniej wówczas dziewczyny, która odkryła, że jeden z jej filmików TikTok został umieszczony na witrynie Pornhub. „Była przerażona. Nie chciała wracać do szkoły” – powiedziała matka. „Bardzo niewinnie zamieściła ten filmik. To nie jest lekcja, której powinieneś się uczyć w wieku 17 lat.”. Cóż, ostatnie zdanie jest dyskusyjne… szkoda tylko, że lekcja została zadana takim kosztem. Serwis natychmiast usunął nagranie na prośbę rodziny i zaprzeczył w mailu do Rolling Stone’a, jakoby treści z TikToka były „często umieszczane” na platformie.

Dyskusje, wspólne gry i siedlisko deepfake

Jednym z najpopularniejszych miejsc z deepfake’ami jest Discord. Platforma jest szczególnie popularna jako środek komunikacji drużynowej wśród miłośników gier multiplayer. W jego przepastnych odmętach można odnaleźć serwer z ponad 100 użytkownikami, gdzie mogą oni kontaktować się ze swomi ulubionymi celebrytami z TikToka i zyskującymi popularność influencerami. Często proszą o stworzenie materiału deepfake. Chociaż publicznie zamieszczane są tylko filmy z udziałem twórców powyżej 18 roku życia, jednym z najczęściej proszonych o pozwolenie celebrytów na serwerze była popularna użytkowniczka TikTok, która właśnie skończyła 17 lat. „Zrób [wstaw imię, nazwisko albo pseudonim], przy okazji ona kończy 18 lat za 4 dni” – napisał wówczas jeden z użytkowników prosząc o stworzenie montażu dziewczynki. Administratorka faktycznie zrobiła materiał video i zamieściła go na stronie w  dwa tygodnie po tym, jak skończyła 18 lat. Materiały można również zakupić, a biznes kwitnie. 

Zapytany o serwer Discord odpowiedział, że narusza on jego zasady dotyczące nagości i że został usunięty. „Discord stosuje zasadę zerowej tolerancji wobec nieobyczajnej pornografii w serwisie, a firma podejmuje natychmiastowe działania, gdy się o tym dowie” – powiedział rzecznik firmy. Na stronie z pornografią deepfake znajdowała się jednak informacja, że „pracuje ona nad alternatywnym serwerem”. Trudno śledzić wszystkie te orzeczenia i zapowiedzi na bieżąco, ale pozostaje faktem, że podobne praktyki są jak hydra – gdy tylko obciąć im głowę, to natychmiast w innym miejscu pojawiają się dwie inne.

 

Bicie na alarm w kontekście AI niektórych przyprawia o pusty śmiech. Nie inaczej było w przypadku komentowania wypowiedzi przerażonych Internetem rodziców albo wypowiedzi  na temat tego, jak bardzo social media odmienią nasze życie. Tym razem nie mówimy jednak o kontroli nad bronią masowego rażenia albo sygnalizacją świetlną wielomilionowego miasta – mroczne strony rozwoju technologii związanych ze sztuczną inteligencją dają się dostrzec już teraz. Ale to nie wszystko: są „społecznie bliżej nas”, niż mogłoby się wydawać. To nie przestroga ani katastrofizm. To wyraz świadomości kierunku rozwoju technologii.

Podziel się:

Share on facebook
Share on linkedin
Share on twitter
Oskar Pacelt

Oskar Pacelt

Autor i redaktor ponad 200 wpisów na Botland Blog. Wierzy, że udany tekst jest jak list wysłany w przyszłość. W życiu najbardziej interesuje go prawda, pozostałych zainteresowań zliczyć nie sposób. Zajmuje się ciekawostkami ze świata technologii i nauki. Najlepszy pływak w Botland.

Zobacz więcej:

Moneta - kryptowaluta Bitcoin i wykresy
Ciekawostki
Oskar Pacelt

Co to są kryptowaluty?

Omówienie dla tych, którzy ciągle o tym słyszą, a dalej nie wiedzą, o co chodzi. Nie wchodzimy w meandry ekonomiczne – czym są kryptowaluty, co to jest Bitcoin?

Dodaj komentarz

Twój adres email nie zostanie opublikowany.