BEZPIECZEŃSTWODeepfake - manipulacja obrazem i dźwiękiem. Jak rozpoznać fałszywe treści, chronić...

Deepfake – manipulacja obrazem i dźwiękiem. Jak rozpoznać fałszywe treści, chronić prywatność i ochronić się przed oszustwem

Deepfake – manipulacja obrazem i dźwiękiem. Jak rozpoznać fałszywe treści, chronić prywatność i ochronić się przed oszustwem

Technologia deepfake, umożliwiająca tworzenie realistycznych, lecz fałszywych obrazów i dźwięków, stawia przed nami nowe wyzwania w zakresie bezpieczeństwa cyfrowego i ochrony prywatności. Zdaniem Wojciecha Chojnackiego, Dyrektora Biura Bezpieczeństwa Systemów Teleinformatycznych i Ochrony Zasobów Banku Pocztowego, eksperta ds. cyberbezpieczeństwa, obecnie deepfake nie tylko zagraża reputacji osób prywatnych i publicznych, ale także może być wykorzystywany do oszustw finansowych i dezinformacji na niespotykaną dotąd skalę. W dobie szybko rozwijających się technologii, świadomość i odpowiednie zabezpieczenia stają się nieodzownym elementem naszej codzienności. Kluczowe jest rozwijanie narzędzi do wykrywania manipulacji deepfake oraz edukacja społeczeństwa na temat potencjalnych zagrożeń.

Jednym z narzędzi, które mogą wykorzystywać cyberprzestępcy jest deepfake voice. Sztuczna inteligencja, na podstawie skryptów, potrafi tworzyć całe wypowiedzi, które przekształca w dowolny głos. Do stworzenia takiej symulacji wystarczą bardzo niewielkie próbki oryginalnego głosu. Powstała symulacja jest praktycznie nie do odróżnienia od oryginalnej wypowiedzi. Metoda ta jest bardzo często stosowana przy różnego rodzaju wyłudzeniach.

Deepfake voice jest też chętnie wykorzystywany w przypadku fałszywych rozmów telefonicznych, np. gdy szef prosi nas o przesłanie na prywatny adres mailowy tajnych dokumentów. Takie rozmowy mają na celu wyłudzenie od nas danych lub spowodowanie, abyśmy wysłali na dany numer swoje loginy czy hasła. Warto pamiętać, że przestępcy bardzo często stosują również efekty psychologiczne, polegające na informowaniu ofiary o wypadku lub kłopotach kogoś bliskiego. W połączeniu ze znajomo brzmiącym głosem w słuchawce, może to nas łatwo zmylić i doprowadzić do szkód finansowych.

Deepfake image, czyli nowy wymiar manipulacji obrazem

Jeszcze niedawno zmiana zdjęć za pomocą programów takich jak Photoshop wymagała znaczących umiejętności i czasu, aby osiągnąć realistyczne efekty. Technologia deepfake  image poszła jednak o krok dalej, umożliwiając szybkie i łatwe tworzenie zupełnie wyimaginowanych obrazów i filmów, które są niemal niemożliwe do odróżnienia od rzeczywistości. Dzięki zaawansowanym algorytmom sztucznej inteligencji, deepfake pozwala na manipulowanie twarzami, mimiką i głosami w sposób, który jeszcze kilka lat temu wydawał  się nierealny. W kilka minut wygenerowane może zostać np. przemówienie polityka, który nigdy w danym miejscu nie wystąpił i danych słów nie wypowiedział albo znanego sportowca reklamującego szybki zysk na super nowej giełdzie kryptowalut czy też wykorzystanie czyjegoś wizerunku (dostępnego publicznie w mediach społecznościowych) w celu uzyskania korzyści pieniężnych.

Jak należy się bronić przed deepfake voice i deepfake image?

Pomimo tego, że narzędzia sztucznej inteligencji są coraz bardziej zaawansowane, to mamy przeciwko nim najlepszy oręż – nasz rozum. Jeżeli coś wydaje nam się dziwne w reklamie, którą widzimy, to z pewnością takie jest. Jeżeli np. odbieramy telefon i ktoś mówi znanym nam głosem, że potrzebuje pomocy – zweryfikujmy to pytając o wspólne wspomnienie, pisząc do tej osoby lub dzwoniąc na jej numer. Rozumowe i przede wszystkim spokojne podejście do treści, które widzimy i słyszymy w internecie, pozwoli nam rozpoznać te, które zostały sfałszowane. Warto trzymać się tych prostych zasad, nawet wtedy, kiedy to co widzimy lub słyszymy wydaje nam się dość realistyczne.

Najprostszą metodą weryfikacji jest również poszukanie dodatkowych informacji w internecie za pomocą, chociażby, wyszukiwarki internetowej. Doprecyzujmy nasze wyszukanie dopiskiem „fake news”. Jeśli już ktoś spotkał się z czymś podobnym, wyniki pomogą nam w rozszyfrowaniu oszustwa. W dobie wszechobecnych manipulacji, wszyscy musimy stać się adeptami sztuki „białego wywiadu”, żeby mieć narzędzia do weryfikacji znajdowanych treści.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...