Najpopularniejszy na świecie YouTuber, MrBeast, i dwójka prezenterów BBC, zostali wykorzystani do promowania oszustw. Cyberprzestępcy za pomocą AI stworzyli fałszywe filmy, w których celebryci nakłaniali do oszukańczych zakupów i inwestycji. Materiały pojawiały się na TikToku i Facebooku.
Film wykorzystujący wizerunek MrBeast pojawił się w tym tygodniu na TikToku. „YouTuber” oferował nowe iPhone’y za 2 dolary. Z kolei materiały z podobiznami gwiazd BBC Matthew Amroliwala i Sally Bundock zostały wykorzystane do promowania znanego oszustwa. Wideo na Facebooku pokazywało dziennikarzy „przedstawiających” Elona Muska, miliardera, właściciela X, dawniej Twittera, rzekomo promującego okazję inwestycyjną.
Materiały typu deepfake wykorzystują sztuczną inteligencję do tworzenia filmów lub zdjęć z wizerunkiem wybranych osób, które do złudzenia przypominają prawdziwe. Filmy stworzone przez AI pozwalają przypisać prawie każdej osobie dowolne słowa, nawet te, których nigdy nie wypowiedziała. Jedynym warunkiem stworzenia takiego materiału jest dostęp do większej liczbyfilmów wideo z udziałem danej osoby. To na ich podstawie AI generuje nowy materiał.
– Dostarczanie materiałów do deepfake’ów to zagrożenie związanie z korzystaniem z social mediów, o którym rzadko myślimy. Nie dotyczy ono tylko twórców internetowych i celebrytów. Wiele z nas, przez lata publikowało materiały wideo, które teraz mogą posłużyć od kradzieży naszego wizerunku i tworzenia naszych wypowiedzi. W ten sposób można oszukać np. naszych najbliższych, a nawet zniszczyć naszą reputację – mówi Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET i dodaje – Jeszcze pięć lat temu wykrywanie sfabrykowanych filmów i obrazów było stosunkowo proste, ale z biegiem stało się znacznie trudniejsze. Obecnie coraz trudniej stwierdzić czy dany materiał jest wytworem AI. Dlatego warto poważnie przemyśleć swoją aktywność internetową, a zwłaszcza publikowanie filmów z udziałem dzieci. Obecnie, narzędzia do tworzenie materiałów deepfake są na wyciągnięcie ręki dla każdego cyberprzestępcy. Niebawem może okazać się, że szantaże czy oszustwa poprzez filmy będą równie częste jak tzw. kradzież „na wnuczka”. Bardzo szybko rozwija się technologia związana z klonowaniem głosu. Łatwo więc sobie wyobrazić, że ktoś np. otrzymuje film, w którym osoba z jego rodziny prosi o pomoc lub słyszy głos bliskiej osoby z prośbą przekazania pieniędzy. Dlatego tak ważne jest by wszelkie prośby o pomoc weryfikować kontaktując się z taką osobą innym kanałem komunikacji.