Dr Maciej Kawecki: Celem deepfake’ów jest obnażenie atrybutu władzy

Anita Czupryn
Anita Czupryn
Ogromną przestrzenią udostępniania deepfake’ów nie są mainstreamowe media społecznościowe, tylko różnego rodzaju fora dyskusyjne, miejsca, które odwiedzane są przez miliony ludzi, ale nie są zarządzane przez globalne korporacje. I to dzisiaj jest największe zagrożenie – mówi dr Maciej Kawecki, prorektor do spraw innowacji w Wyższej Szkoły Bankowej, prezes Instytutu Lema.

Głośno było ostatnio o incydencie z udziałem prezydenta Rafała Trzaskowskiego, który rzekomo przeprowadził wideorozmowę z merem Kijowa Witalijem Kliczką. Okazało się, że to nie był prawdziwy Kliczko, tylko tak zwany deepfake. Co więcej, podobnemu cyberatakowi ulegli prezydenci innych europejskich stolic: Wiednia, Budapesztu, Berlina, Madrytu. Jaki jest cel tego rodzaju fałszerstw?

Dr Maciej Kawecki, prorektor do spraw innowacji w Wyższej Szkole Bankowej, prezes Instytutu Lema
Dr Maciej Kawecki, prorektor do spraw innowacji w Wyższej Szkole Bankowej, prezes Instytutu Lema Materiały prasowe

Deepfake wykorzystuje algorytmy do tego, żeby symulować rzeczywistość i najprawdopodobniej prezydenci europejskich miast padli jego ofiarą. Cele są dwa. Pierwszy ma moim zdaniem wymiar fundamentalny. Chodzi mianowicie o obnażenie atrybutu władzy, o zbudowanie w obywatelach poczucia zagrożenia. Jest to forma dezinformacji, pokazanie, że nawet osoby, które w państwie są szczególnie chronione, mogą paść ofiarą takiej dezinformacji. To jest cel nadrzędny. Cel drugi, o którym zaraz powiem, czasami wysuwany jest jako pierwszy – chodzi o wyciągniecie informacji, które potem posłużą do bardziej precyzyjnego cyberataku. Wydaje mi się jednak, że dużo ważniejszy jest rozgłos, skala i to poczucie zagrożenia, które się w nas rodzi. O to głównie chodzi cyberprzestępcom. Cel polegający na wyciągnięciu informacji jest drugorzędny, ale on też ma znaczenie – bo rzeczywiście w trakcie tego typu rozmowy prezydenci miast przekazują informacje, które dotyczą chociażby przygotowań do wojny, przekazują informacje o wsparciu oferowanym Ukrainie przez określone państwa. I jest to informacja istotna i cenna dla Rosji, która w sposób celny chce kierunkować ataki względem państw członkowskich Unii Europejskiej.

To był więc cyberatak przeprowadzony przez stronę rosyjską?

Myślę, że tak właśnie było. Pamiętajmy, że konflikty geopolityczne wiążą się z dużą liczbą aktorów, czyli sprzecznych interesów. Inne interesy ma Unia Europejska, inne mają Stany Zjednoczone, inne Rosja, jeszcze inne Chiny. Ale w tym przypadku zdecydowanie stawiałbym, że to sprawa Rosjan; interes jest tu jednoznacznie ukierunkowany i wskazuje, że to był pewnie jakiś rosyjski kolektyw hakerski.

Przypatrywał się Pan bliżej tej akcji z udziałem prezydenta Trzaskowskiego?

Przypatruję się bliżej wszystkim tego typu przypadkom, bo nie jest on absolutnie pierwszy. Ofiarą podobnego przestępstwa padł przecież - a było to już jakiś czas temu - prezydent Andrzej Duda.

Przypomnę, że prezydent Duda rozmawiał z kimś, kto podawał się za Sekretarza Generalnego ONZ António Guterresa. Prezydenta wkręcili Władimir Kuzniecow i Aleksiej Stoljarow, rosyjscy pranksterzy, który udostępnili tę rozmowę na You Tube.

Jeszcze wcześniej ofiarą padł jeden z najważniejszych polityków świata czyli Barack Obama. To był w ogóle jeden z pierwszych znanych deepfake’ów i dotyczył właśnie prezydenta Stanów Zjednoczonych. Jest też słynny deepfake z Tomem Cruise’m, który rozmawiał o problemach świata. Mnóstwo deepfake’ów jest w świecie porno. Rodzi się pytanie o mechanizm bezpieczeństwa, który znacznie wykracza poza osoby, padające ofiarami tego typu przestępczości. Wracając na nasze podwórko, trzeba pamiętać o tym, że w momencie, kiedy dochodzi do umówienia rozmowy pomiędzy głowami państw czy włodarzami miast, to powinna być ona poprzedzona rozmową na poziomie urzędniczym. To oznacza, że nie doszło w tym przypadku do żadnej weryfikacji rozmówcy. Przecież maile musiały być wysyłane z domeny ratusza kijowskiego.

Tak właśnie było – zaproszenie do rozmowy z rzekomym Witalijem
Kliczką prezydent Trzaskowski otrzymał z adresu kijowskiego urzędu miasta.

Owszem, było to zaproszenie, które w żaden sposób nie zostało zweryfikowane. O tym właśnie mówię: nie zostało ono zweryfikowane przez czynnik ludzki, czyli rozmową ukierunkowaną na konkretny numer telefonu. Należało zadzwonić do Kijowa, wybierając zweryfikowany numer telefonu i w ten sposób zweryfikować rozmówcę, dokonać pogłębionego uwierzytelnienia. Oczywiście tutaj prawdopodobnie padłby argument, że ze względów bezpieczeństwa miejsce przebywania czy to głowy państwa czy mera Kijowa, nie jest w stu procentach ujawniane, ani udostępniane. Wtedy prawdopodobnie łatwiej jest wprowadzić kogoś w błąd. Ale na pewno ten pierwszy etap weryfikacji kuleje.
Druga rzecz to taka, czy tego typu rozmowy powinny być udostępniane opinii publicznej. Mam tu trochę odmienne zdanie. Oczywiście, realizujemy element informacyjny; opinia publiczna ma prawo wiedzieć o tak poważnych incydentach dotyczących najważniejszych osób w państwie czy mieście. Ale z drugiej strony wiemy o tym, że przestępca, który kieruje tego typu atak, tego właśnie chce. Chce, żeby o nim mówić, żeby informować, że do tego typu ataku doszło. W ten sposób robimy dokładnie to, czego on chce, czyli budzimy niepokój w społeczeństwie. Pytanie, czy tu nie powinno się wprowadzić jednak, nawet zgodnie z przepisami, polityki informacyjnej, gdzie informacje tego rodzaju byłyby udostępniane osobom wyłącznie do tego uprawnionym i nie zawsze powinny być przekazywane opinii publicznej. Byłbym za tym.

Dlaczego tak trudno rozpoznać, że dane nagranie to fałszywka?

Mówimy tu o ogromnej precyzji sieci neuronowych. Żeby stworzyć dobrego deepfake’a potrzeba tysięcy zdjęć, a w sieci, w takich liczbach udostępniane są zdjęcia osób publicznych. Zatem osoba, pod którą chcą się podszyć przestępcy, musi być osobą publiczną, bo to jej zdjęć czy filmów jest w sieci mnóstwo. Wtedy rzeczywiście algorytm jest w stanie bardzo precyzyjnie dopasować twarz, mimikę do tego, pod kogo chcemy się podszyć. To jest całe clou deepfake’ów. To, czego dzisiaj nie jesteśmy jeszcze w stanie precyzyjnie symulować, to barwa głosu i sam głos. W przypadku incydentu z fałszywym Witalijem Kliczką prawdopodobnie było tak, że żaden z prezydentów miast nie znał głosu mera Kijowa. Udało się przestępcy, który miał pewnie grubszy głos, podszyć pod głos Kliczki. Natomiast najprostszą dzisiaj techniką rozpoznania depfake’a jest właśnie albo głos, albo prośba o dokonanie niestandardowego zachowania czy ruchu, którego rozmówca zwykle nie robi. Oczywiście w tego rodzaju rozmowach ciężko jest poprosić o to rozmówce, na przykład, o założenie czapki na głowę. Ale wtedy można dostrzec rozmazanie obrazu. Tylko jak w oficjalnych rozmowach prosić, żeby prezydent drugiego kraju czy miasta dokonywał jakichś niestandardowych zachowań, czy działania?

Deepfake można też rozpoznać po ruchu ust, który często nie pokrywa się z wypowiadanymi słowami, no, ale to nie jest pewny sposób.

Ależ oczywiście że to nie jest pewne, często przecież mówimy o opóźnieniach transferu danych. Nie wiemy, czy to nie jest tak, że ktoś się łączy przez terlinka, bo przebywa w obszarze działań wojennych. Zatem rozpoznać, z czym mamy do czynienia i jak jest naprawdę, jest tu bardzo trudne.

Deepfake to szczególna forma dezinformacji – czy właśnie dlatego, że tak trudno rozpoznać fałszerstwo?

Deepfake sam w sobie nie jest technologią, która powstała po to, żeby dezinformować. Deepfake powstał głównie w segmencie sztuki filmowej i miał między innymi pomóc ukończyć rolę aktorom, którzy z jakichś powodów nie mogli tego zrobić, bo, na przykład zmarli. A zatem - aktor umiera w trakcie planu zdjęciowego, ale jest nagrana duża część jego zdjęć, wobec tego wykorzystuje się algorytmy, aby można było dokończyć jego rolę. Tak się narodził deepfake czy chatbot. Niestety deepfake stał się jedną z form przestępczości internetowej.

Wszystko zaczęło się w 2017 roku, kiedy wykorzystano wizerunki znanych aktorek, umieszczając ich w scenach porno. Wtedy chodziło o kompromitację znanych postaci. Ale dziś okazuje się, że za pomocą depfake’ów można manipulować opinią publiczną, a nawet zmieniać wynik wyborczy.

Tak. Dziś głównie chodzi o kompromitację i manipulowanie opinią publiczną. W momencie, kiedy technologia deepfake bardziej się rozpowszechni, będzie chodziło również o to, aby oszukiwać, czyli traktować te technologie między innymi do wyłudzeń. Mam tu na myśli wyłudzenia haseł, danych uwierzytelniających, dostępowych. Dziś stworzenie deepfake’a jest bardzo kosztowne, w związku z tym wykorzystuje się go głównie w efekcie skali. Natomiast, kiedy się tę technologię rozpowszechni i będzie ona tańsza, to niestety, będzie służyła większej liczbie przestępstw.

Jakiś czas temu media społecznościowe zapowiedziały, że będą usuwać deepfake’i…

… to się już dzieje. Facebook już to robi; ma bardzo skuteczny weryfikator deepfake’ów. I algorytmy Facebooka radzą sobie z tym bardzo dobrze; na Facebooku deepfake’ów w zasadzie nie ma. Gorzej radzą sobie inne media społecznościowe, jak TikTok czy Linkedin.

Ale Facebook zostawia deepfake’i satyryczne, które są stworzone do tego, żeby się pośmiać. Po sieci „chodzi” deepfake z królową brytyjską Elżbietą II i jej fałszywym orędziem na Boże Narodzenie, kiedy to podczas jego wygłaszania, królowa w pewnym momencie zaczyna tańczyć na biurku. On miał zresztą odgrywać rolę odstrzeżenia przed deepfake’ami.

Facebook nie chce wchodzić w obszar cenzury prasy, wolności wypowiedzi i wyrazu artystycznego, co jest bardzo trudne, bo sam musi oceniać jakość określonego tekstu czy nagrania. Kryterium jest bardzo proste – jeżeli udostępniając, informujemy, że to jest deepfake, to wtedy Fb nie widzi powodu, by taka treść nie wisiała, jako forma satyry, zabawy formą. Od razu bardzo wyraźnie informujemy, że to deepfake, czyli wpis o charakterze nieprawdziwym albo satyra. Ale w momencie, kiedy udostępniamy coś jako treść prawdziwą, a jest deepfake’iem, to wprowadzamy w błąd, dezinformujemy.
Pamiętajmy, że ogromną przestrzenią udostępniania deepfake’ów nie są mainstreamowe media społecznościowe, tylko różnego rodzaju fora dyskusyjne, miejsca, które odwiedzane są przez miliony ludzi, ale nie są zarządzane przez globalne korporacje. I to dzisiaj jest największe zagrożenie.

Jak przeciętny człowiek może wykryć, że to deepfake?

Powinniśmy przestać wierzyć temu, co słyszymy i widzimy. Trzeba włączyć pogłębioną weryfikację. Deepfake jest tylko jednym z bardzo wielu możliwych technologii fałszowania rzeczywistości. Inną, która bardzo często jest łączona z deepfake’iem, jest spoofing. To możliwość dzwonienia do nas z numeru telefonu osoby, która widnieje w naszej książce telefonicznej. Jeżeli nałożymy jedną rzecz na drugą, to zobaczymy, że coraz łatwiej padamy ofiarą takiej przestępczości. W związku z tym potrzebna jest weryfikacja, ponowna weryfikacja. Czasami warto przerwać połączenie i oddzwonić do określonej osoby po to, żeby się upewnić, czy naprawdę z nią rozmawiamy; nie wierzyć w to, co widzimy. Zdygitalizowaliśmy sobie relacje, stworzyliśmy media społecznościowe – to nam nie wystarczyło. Stworzyliśmy wirtualny świat, zdygitalizowaliśmy rzeczy dookoła, stworzyliśmy szarą, wirtualną, rozszerzoną rzeczywistość i to nam też nie wystarczyło. Jest tylko jeden obszar, którego jeszcze nie zdygitalizowaliśmy – to dygitalizacja zmysłów i emocji; swiat metaversum, do którego podążamy. W związku z tym powinniśmy wiedzieć o tym, że nasze zmysły, w tym również wzrok, będzie okłamywany coraz częściej, coraz częściej traktowany iluzorycznie, coraz częściej zarzucany iluzjami. Musimy więc przykładać większą wagę do weryfikacji.

Wygląda na to, że podążamy w kierunku, który wydaje się coraz mniej przyjazny, a stwarza coraz większe zagrożenie.

Technologie z założenia nie są ani dobre, ani złe. Są neutralne. O tym, czy będą służyc dobru, albo złu, zależy od ludzi, od tego, jak je wykorzystujemy. Tak jak wspomniałem – deepfake może pięknie służyć do tego, żeby, z wykorzystaniem holografii, pomagać dokończyć rolę aktorowi, który zmarł. A może też być wykorzystany po to, żeby oszukiwać.

Dziś mamy do czynienia z plagą oszustów, którzy podając się za specjalistów z banku wyłudzają hasła, przejmują konta, wyciągają pieniądze. Co jeszcze może nas czekać, zważywszy na to, że nowoczesna technologia wciąż jest ulepszana, stając się perfekcyjną jak nigdy wcześniej?

Nikt tego nie wie. Powiedziałem, że czeka nas dygitalizacja zmysłów i obrazów; dygitalizacja zmysłu dotyku. A to oznacza, że wchodzimy w świat wirtualny. Dzisiaj, jeżeli zakładamy gogle mieszanej rzeczywistości, to widzimy przed sobą hologram przestrzeni, w której jesteśmy, ale ręką jej nie czujemy. Jeżeli wejdziemy do świata metaversum i wypijemy z kimś online herbatę, to nie poczujemy filiżanki tej herbaty w ręku. Jeżeli podajemy komuś w świecie wirtualnym rękę, to nie poczujemy ciepła jego dłoni we własnej dłoni. Ale zmierzamy w kierunku, w którym to poczujemy. To się już dzisiaj dzieje; dygitalizujemy dotyk, powstają urządzenia, pierścienie, które poprzez stymulację mikrofal powodują drgania rąk, a ponieważ zmysł dotyku jest bardzo silnie zintegrowany z wzrokiem, to nasz umysł nadpisuje – wystarczy, że nam drga w odpowiednim kierunku dłoń, a my widzimy, że trzymamy filiżankę, to nasz umysł nadpisuje czynność trzymania filiżanki. Robimy wszystko, by dygitalizować jak największą liczbę zmysłów. To absolutnie jest coś, co nas czeka.

Jednym słowem, sztuczna miłość jest możliwa?

To już się dzieje. Parę tygodni temu doszło do pierwszego gwałtu w metaversum. Uważam, że seksualizacja to pierwszy segment rozwoju metaversum. Sektor porno jest bardzo rozbudowany, urządzenia pozwalają dzisiaj coraz silniej stymulować różnego rodzaju zmysły. Seksualizacja technologii będzie tą, która czyni z metaversum projekt o charakterze powszechnym i mainstreamowym. Zdecydowanie więc to dziś się dzieje i na pewno będzie się działo jeszcze silniej. Oczywiście za tym idzie masa negatywnych cech, w tym rozpad relacji społecznych.

Jak się przed tym wszystkim chronić? Co nas obroni?

Świadomość. Natomiast przed pewną ilością tych zjawisk nie jesteśmy w stanie się obronić. Internet ma ponad 50 lat. Mieliśmy ponad 50 lat na przygotowanie się na takie zjawiska jak dezinformacja, jak hejt, jak hate speech i masa innych zjawisk i nam się to nie udało. Z metaversum nie będziemy mieć 50 lat, tylko 5 lat, wobec tego będziemy musieli przejść przez te chorobę wieku dziecięcego. Ale przed częścią tych zagrożeń w metaversum, które są niejako wpisane w postęp, nie będziemy w stanie się obronić. Ale, powtórzę to raz jeszcze, za dużą część tego odpowiada po prostu świadomość. Czyli: ostrożność, pogłębiona weryfikacja, dwupoziomowe uwierzytelnienia, aktualizowanie systemów operacyjnych, które mamy.

Jeżeli administracja czy to rządowa, czy na poziomie stolicy daje się nabierać na deepfake’i, to marnie widzę świadomość zwykłych obywateli.

Oczywiście, skuteczność cyberataku zależy od ilości nakładów podjętych na taki cyberatak. Przy dużej ilości środków chronienie się przed nimi jest niemożliwe. Natomiast powinniśmy pamiętać o tym, że my raczej nie padamy ofiarą tak wysublimowanej przestępczości. Ona jest najczęściej dużo bardziej uproszczona.

Warszawski ratusz pytany o procedury bezpieczeństwa przy okazji sytuacji z fałszywym Kliczką, nie chciał tego komentować.

Jestem w stanie zrozumieć, że nie chciał komentować, ponieważ to jest wpisane w pewien sposób w bezpieczeństwo i informacje o tym nie powinny być publiczne. Informacja o tym, że istnieją procedury bezpieczeństwa powinna być publiczna, ale jakie – to już nie do końca.

Spotkał się Pan z tego rodzaju prowokacjami, które by dotyczyły prezydenta Ukrainy Zełenskiego?

Nie spotkałem się, ale sama informacja o tym, że deepfake’i powstają, czy mogą powstać z tego rodzaju osobami ma bardzo silny walor dezinformujący. Rodzi wtedy wątpliwość, które z wypowiedzi prezydenta Zełenskiego są nieprawdziwe, a które są prawdziwe. Mogą mieć wpływ na postrzeganie prezydenta przez szarych obywateli; przez ludzi, którzy nie znają się na technologiach, a którzy będą mówić: „Może to wcale nie on, może to ktoś inny to powiedział”. Wydaje mi się, że wobec prezydenta Zełenskiego największe zagrożenie depfake’owe wynikało z tego, że w ogóle pod wątpliwość poddajemy słowa wypowiadane przez niego, stawiając znak zapytania, czy oby na pewno to on, czy to nie był deepfake.

Jak podsumujemy naszą rozmowę?

Pamiętajmy o tym, że deepfake musi do nas w jakiś sposób dotrzeć. Najczęściej deepfakie’i nie docierają przez główne media społecznościowe, które sobie z tym zjawiskiem radzą. Docierają przez różnego rodzaju fora dyskusyjne, linki aktywne, które otrzymujemy w formie łańcuszkowej. Nie klikajmy w tego typu linki, nawet jeśli otrzymujemy je od osoby bliskiej. Zadzwońmy do tej osoby i upewnijmy się, że to ona nam tę wiadomość przysłała, czy nie jest to przestępca, który podszywa się pod identyfikator, który mamy zapisany w książce telefonicznej. Jeżeli widzimy treść, która zawiera wypowiedź osoby publicznej, to weryfikujmy, czy ona znajduje się również w tradycyjnych środkach przekazu, w mediach, które bardzo szybko weryfikują, że dana informacja jest nieprawdziwa. To są moje główne rady. Zanim uwierzymy w to, co ktoś mówi, zweryfikujmy to w innych źródłach.

od 12 latprzemoc
Wideo

Akcja cyberpolicji z Gdańska: podejrzani oszukali 300 osób

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Materiał oryginalny: Dr Maciej Kawecki: Celem deepfake’ów jest obnażenie atrybutu władzy - Plus Polska Times

Wróć na i.pl Portal i.pl