Deep fake. Prof. Henryk Skarżyński wykorzystany przez cyberoszustów w "reklamie" na Facebooku! Wideo spreparowano z udziałem AI

Tomasz Dereszyński
Prof. Henryk Skarżyński podczas uroczystości wręczenia odznaczeń państwowych z okazji Narodowego Święta Niepodległości
Prof. Henryk Skarżyński podczas uroczystości wręczenia odznaczeń państwowych z okazji Narodowego Święta Niepodległości Adam Jankowski
Technologia deepfake, bazująca na podrabianiu czyjegoś głosu albo wizerunku, stanowi coraz większy problem – i jednocześnie dowód, że AI (sztuczna inteligencja) to nie tylko plusy, ale też wiele minusów.

Z badań firmy McAffe wynika, że co dziesiąty uwzględniony w badaniu internauta padł ofiarą takiego oszustwa, a kolejne 15 proc. próbowano w ten sposób oszukać. Cyberoszuści, wykorzystujący deepfake, stają się problemem również w Polsce, co pokazuje przykład wykorzystania wizerunku światowej sławy otolaryngologa prof. Henryka Skarżyńskiego.

Na stronie Facebook.com, na jednym z profili, opublikowano film, który spreparowano przy użyciu najnowszych technik podkładania głosu oraz obrazu, z udziałem sztucznej inteligencji. Materiał dotyczył jednego z preparatów medycznych. W filmie wygenerowano wizerunek prof. Henryka Skarżyńskiego i jego wypowiedź na temat preparatu.  Profesor nigdy nie uczestniczył w takim nagraniu, nie wyraził zgody na promowanie produktu swoją opinią, a tym bardziej wizerunkiem – zgodnie z art. 63 Kodeksu Etyki Lekarskiej, jako lekarz nie bierze udziału w reklamach. Profesor skierował sprawę do prokuratury.

emisja bez ograniczeń wiekowych

- Sztuczna inteligencja ułatwiła życie nie tylko naukowcom i twórcom, ale również pospolitym oszustom. Brytyjskie media niedawno podniosły alarm, że telefoniczni oszuści, operujący metodą „na wnuczka”, używają AI do podszywania się pod rzeczywistych członków rodziny. Niestety, wiara w sztuczną inteligencję jest zbyt często bezwarunkowa. Wedle badań zacytowanych przez ChronPesel.pl, aż 43% respondentów sądzi, że AI udziela zawsze odpowiedzi zgodnych z prawdą – mówi dr Piotr Balcerowski, wiceprezes Instytutu Staszica.

Na dwie strony medalu technologii AI w medycynie zwraca uwagę prof. Piotr H. Skarżyński z Instytutu Fizjologii i Patologii Słuchu w podwarszawskich Kajetanach.

- Sztuczna inteligencja niesie ze sobą potencjalnie ogromne korzyści dla pacjentów. Między innymi może odciążyć lekarzy pierwszego kontaktu, pomagając w postawieniu wstępnej diagnozy, dzięki której pacjent będzie mógł zostać skierowany do odpowiedniego specjalisty. Pomoże wszędzie tam, gdzie potrzebna jest szybka analiza danych, wyszukiwanie odchyleń od normy – przykładem może być diagnostyka obrazowa, czy w mojej specjalności – analiza wyników przesiewowych badań słuchu – mówi naukowiec.

Profesor podkreśla, że w przypadku nowych technologii, w tym AI, należy patrzeć nie tylko na szanse, lecz również na zagrożenia. Także w zakresie wprowadzania w błąd odbiorców treści związanych ze zdrowiem.

- Coraz częściej docierają do nas sygnały o wykorzystywaniu wizerunku znanych specjalistów i renomowanych marek medycznych oraz farmaceutycznych do nieuczciwej reklamy. Mnie osobiście również dotknęła taka sytuacja – oszuści przerobili materiały edukacyjne z moim udziałem i wykorzystywali je do reklamowania specyfiku „cudowanie przywracającego słyszenie”. Poszkodowanymi są osoby i podmioty, których wizerunek jest w ten sposób wykorzystywany, ale przede wszystkim pacjenci – ich zdrowie a czasem nawet życie – mówi prof. Skarżyński.

– Pokazuje to, jak niezbędna jest odpowiednia prawna regulacja w zakresie wykorzystywania technologii AI oraz wypracowanie mechanizmów odpowiedniej i szybkiej reakcji właścicieli platform internetowych, na których takie nadużycia mają miejsce.

Dr Balcerowski wskazuje, że Komisja Nadzoru Finansowego przestrzega przed wprowadzającymi w błąd reklamami instrumentów finansowych, w których przy wykorzystaniu AI podszywano się pod celebrytów, polityków czy wiarygodne instytucje – z różnych sektorów, od energetycznego począwszy, a skończywszy na bankowym.

- W gronie poszkodowanych w ten sposób instytucji są także podmioty związane z ochroną zdrowia. Oszustwa w tym obszarze mają dodatkowy negatywny sposób: podważają zaufanie pacjentów do instytucji i autorytetów medycznych – zaznacza ekspert.

- Mam wrażenie, że polskie prawo nie nadąża za rozwojem nowych technologii, a oszuści wykorzystują istniejące luki. Prawodawca staje tu przed dylematem: albo precyzyjne określanie nowych typów przestępstw, co prowadzi do zabawy w „kotka i myszkę” ze stale udoskonalającymi swoje metody oszustami, albo tworzenie regulacji bardzo pojemnych, co znowu grozi nadużywaniem prawa wobec przedsiębiorców – ocenia Piotr Balcerowski.

Wideo
Polecane oferty
* Najniższa cena z ostatnich 30 dniMateriały promocyjne partnera
Wróć na i.pl Portal i.pl