piątek, 13 czerwca, 2025

AI w rękach przestępców. Deepfake’i i chatboty groźniejsze niż kiedykolwiek

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

Fałszywy minister, prawdziwe zagrożenie. Nowy raport firmy Check Point Software ujawnił, jak sztuczna inteligencja staje się bronią w rękach cyberprzestępców – tworząc głosy, twarze i treści tak realistyczne, że nawet eksperci nie potrafią ich rozpoznać. Cyfrowe sobowtóry, zatrute chatboty i ciemna strona LLM – to nie wizja przyszłości, lecz codzienność, która wymaga całkowitej redefinicji bezpieczeństwa w biznesie i IT.

W Polsce rośnie m.in. zjawisko tzw. medycznego deepfake’u, które może być wyjątkowo groźne dla pacjentów. Ofiarą takiej kampanii był prof. Jerzy Szaflik, okulista, którego wizerunek wykorzystano w mediach społecznościowych w fałszywych reklamach promujących preparat rzekomo przywracający wzrok. Wszedłem na FB i zobaczyłem siebie wygłaszającego skandaliczną informację, że pewien preparat z wyciągu roślinnego (imbir i cytryna) w ciągu kilkunastu dni przywraca wzrok. Opowiadam tam „jak szybko i bez wychodzenia z domu odzyskać wzrok”. Podano także, że nad tym preparatem pracowałem kilkadziesiąt lat i wyleczyłem w zeszłym roku ponad 40 tys. osób, a „wiele z nich odzyskało wyraźne widzenie już w 15 dni”. Coś strasznego! – wyjaśnił w rozmowie z PAP prof. Szaflik.

Granica między prawdą a fikcją w cyfrowym świecie właśnie się zatarła. AI nie tylko zmienia sposób, w jaki tworzymy treści czy zarządzamy firmami – teraz również oszukuje, podszywa się i atakuje. A najnowszym stadium tego zjawiska są tzw. „cyfrowe sobowtóry” – nie tylko wyglądające i brzmiące jak człowiek, ale także reagujące i analizujące jak człowiek.

Inną głośną sprawą były oszustwa „na Brada Pitta”, za którymi stała najprawdopodobniej grupa Nigeryjczyków. Wykorzystując zmodyfikowane przez sztuczną inteligencję zdjęcia amerykańskiego aktora, wabili kobiety przekonując je, że rozmawiają z amerykańskim aktorem, a następnie prosili o finansowe wsparcie… leczenia onkologicznego. Łącznie poszkodowanych było ponad 30 osób, a rekordzistka przelała oszustom ponad 800 tys. Euro. Co więcej, oszuści ze swoją akcją mieli dotrzeć również do Polski!

– Szybkie przyjęcie sztucznej inteligencji przez cyberprzestępców już zmieniło krajobraz zagrożeń – zauważa Lotem Finkelstein, dyrektor Check Point Research. Ekspert ostrzega, że cyberprzestępcy coraz chętniej sięgają po generatywne modele językowe i narzędzia oparte na AI, które potrafią tworzyć głosy, teksty i obrazy niemal nie do odróżnienia od autentycznych. Przykład? Atak wymierzony we włoskiego ministra obrony, którego głos został odtworzony przy pomocy AI i użyty w celu dezinformacji. Ofiary nie były w stanie zidentyfikować oszustwa, bo ten brzmiał zbyt przekonująco.

Wątpliwe etycznie są także próby wykorzystywania deepfake’ów przez polityków. W ubiegłym roku firma Check Point wpisała Polskę na listę krajów, które stosowały sztuczną inteligencję w kampaniach wyborczych — sfałszowano m.in. spot z udziałem byłego premiera Mateusza Morawieckiego, a także wygenerowano klip, w którym główny negatywny bohater do złudzenia przypominał Donalda Tuska.

AI i rosyjscy hakerzy

Raport Check Pointa przedstawił również przypadki zatrucia danych treningowych, w wyniku których chatboty AI zaczynają powtarzać propagandę i fałszywe narracje. W jednym z analizowanych przypadków aż 33% odpowiedzi chatbotów opartych na zmanipulowanych danych pochodziło z rosyjskich źródeł dezinformacyjnych. To pokazuje, że nie chodzi już tylko o ataki techniczne – ale o kontrolę nad „prawdą”.

Co więcej, cyberprzestępcy wykorzystują AI do tworzenia złośliwego oprogramowania, optymalizacji kampanii phishingowych, automatyzacji ataków DDoS, a także do czyszczenia i klasyfikowania skradzionych danych, by zwiększyć ich wartość i skuteczność ataków. W ciemnych zakamarkach internetu pojawiły się nawet własne modele językowe do celów przestępczych, takie jak FraudGPT czy WormGPT, które obchodzą standardowe zabezpieczenia komercyjnych narzędzi.

W odpowiedzi na te zagrożenia Check Point apeluje, by organizacje natychmiast wdrażały strategie cyberbezpieczeństwa zorientowane na AI. Oznacza to konieczność rozpoznawania i analizowania treści generowanych przez sztuczną inteligencję, w tym phishingu i deepfake’ów, wdrożenie bardziej złożonych metod weryfikacji tożsamości oraz rozwijanie narzędzi analitycznych uwzględniających kontekst i sposób działania algorytmów AI.

Jak podkreślają autorzy raportu, fundament internetu – czyli zaufanie do cyfrowej tożsamości – właśnie się kruszy. Jeśli nie zareagujemy teraz, wkrótce każdy będzie mógł paść ofiarą perfekcyjnie spreparowanej iluzji.

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

Socjotechnika i phishing 2.0 – jak AI zmienia oblicze cyberprzestępczości

Generatywna sztuczna inteligencja radykalnie zwiększyła skuteczność cyberataków —...

Jak firmy w Polsce inwestują w AI? Raport Ayming pokazuje wyraźny trend

Firmy wykorzystujące sztuczną inteligencję w działalności innowacyjnej coraz częściej...
00:03:19

Czy Europa jest gotowa na odejście USA od roli gwaranta bezpieczeństwa?

Paradoksalnie, wojna w Ukrainie umożliwiła Europie pozbycie się przestarzałego...

Cloud Security Report 2025: 65% firm doświadczyło incydentu w chmurze w ciągu roku

W ostatnich 12 miesiącach aż 65% firm padło ofiarą...

Czas na decyzję: co robić, zanim automatyzacja i sztuczna inteligencja zrobi to za nas

Automatyzacja i sztuczna inteligencja nie są już przyszłością –...

Podobne tematy

00:01:53

Jarosław Królewski: AI w szkołach to już nie wybór, a obowiązek

Sztuczna inteligencja to wielka szansa dla edukacji. Konkurencja toczy...

Czas na decyzję: co robić, zanim automatyzacja i sztuczna inteligencja zrobi to za nas

Automatyzacja i sztuczna inteligencja nie są już przyszłością –...

Jak firmy w Polsce inwestują w AI? Raport Ayming pokazuje wyraźny trend

Firmy wykorzystujące sztuczną inteligencję w działalności innowacyjnej coraz częściej...

Microsoft uruchamia nowy Europejski Program Bezpieczeństwa

4 czerwca 2025 roku w Berlinie firma Microsoft ogłosiła...
00:02:22

Sztuczna inteligencja to nie magia. Potrzebujemy regulacji i edukacji

Kluczowe jest zrozumienie na prostym poziomie, na czym polega...

Rynek pracy 2025: Pracodawcy oczekują znajomości AI, ChatGPT i gotowości do nauki

Kompetencje cyfrowe, znajomość sztucznej inteligencji oraz umiejętność korzystania z...

Polski klient banku – cyfrowy innowator z potrzebą ludzkiego kontaktu

Na podstawie Accenture Global Banking Consumer Study 2025, konsultanci...

Może Cię zainteresować

Polecane kategorie