Deepfake w natarciu. Ulepszona AI może skraść tożsamość

OPRAC.:
Andrzej Grochal
Andrzej Grochal
Sztuczna inteligencja potrafi nas łudzić
Sztuczna inteligencja potrafi nas łudzić Fot. Pixabay/0fjd125gk87
Głosy znanych kanadyjskich dziennikarzy zostały wykorzystane bez ich wiedzy w reklamie gier hazardowych, stworzonej z wykorzystaniem sztucznej inteligencji. To pierwszy taki przypadek opisany w Kanadzie.

Deepfake w natarciu

Na Facebooku pojawiła się kilka dni temu reklama, w której znana dziennikarka Radio-Canada Anne-Marie Dussault informuje o aplikacji na telefony, umożliwiającej gry hazardowe zapewniające wygrane. Reklama przekierowywała na stronę nielicencjonowanego kasyna. Problem w tym, że Dussault nigdy w takiej reklamie nie wzięła udziału, a jej głos, bez jej zgody, został skopiowany i przetworzony przez AI.

O sprawie napisał serwis informujący o nowościach technologicznych, prowadzony przez Francois Charron, który zwrócił uwagę, że początek jest oszustwem, w które łatwo uwierzyć, jednak w dalszej części reklamy deepfake staje się mało wiarygodny. Istotnie, głos Dussault brzmi coraz bardziej mechanicznie.

Deepfake staje się coraz częstszy

„Mimo to ważną rzeczą jest rozumieć ten sposób działania ponieważ, niestety, to coś, co będziemy widzieli coraz częściej” – ostrzegł Charron. To samo internetowe kasyno w reklamach na Instagramie również wykorzystuje nielegalnie głos i wizerunek Dussault oraz głos innego dziennikarza Radio-Canada, Sebastiena Bovet, który jest m.in. szefem biura Radio-Canada przy parlamencie prowincji Quebec.

Dussault napisała na Twitterze, iż „pojawia się reklama, która przywłaszcza sobie moją tożsamość, dziękuję za powiadomienie, jeśli ją zobaczycie”.

Ulepszona AI może skraść tożsamość

Radio-Canada zwróciło uwagę w swoim materiale, że z początkiem br. dostępne stały się tanie narzędzia wykorzystujące AI, umożliwiające tworzenie fałszywych wypowiedzi, klonujących głos dowolnej osoby na podstawie zaledwie 1 minuty rzeczywistej wypowiedzi. Narzędzia te będą coraz doskonalsze, a osoby bez doświadczenia w ocenianiu nagrań będą miały coraz mniejsze szanse na odróżnienie deepfake od prawdziwych wypowiedzi. Meta, spółka matka Facebooka i Instagrama, nie odpowiedziała na pytania Radio-Canada.

W minionych tygodniach pojawiły się też doniesienia o klonowaniu głosów kanadyjskich aktorów bez ich zgody. Telewizja CTV cytowała aktora Billa Newtona, którego głos został bez jego wiedzy wykorzystany prawie 500 razy. – Nagle mogę zostać wykorzystany jako rzecznik sprawy, której moralnie się sprzeciwiam – powiedział Newton. CTV przytoczyła wypowiedź profesora Patricka Parra Pennefathera z Uniwersytetu Kolumbii Brytyjskiej, który zwrócił uwagę na znaczenie prawa do wizerunku i głosu i konieczność istnienia odpowiednich rozwiązań prawnych.

Jesteśmy na Google News. Dołącz do nas i śledź Portal i.pl codziennie. Obserwuj i.pl!

Źródło:

emisja bez ograniczeń wiekowych
Wideo

Wskaźnik Bogactwa Narodów, wiemy gdzie jest Polska

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

Nikt jeszcze nie skomentował tego artykułu.
Wróć na i.pl Portal i.pl