BEZPIECZEŃSTWOWybory w Polsce: Do gry wkracza generatywna sztuczna inteligencja i deep fake

Wybory w Polsce: Do gry wkracza generatywna sztuczna inteligencja i deep fake

Wybory w Polsce: Do gry wkracza generatywna sztuczna inteligencja i deep fake

Już na starcie kampanii wyborczej oba główne bloki polityczne w Polsce zdecydowały się użyć sztucznej inteligencji w swoich materiałach politycznych*. Wygenerowany przez AI deep fake, czy tworzenie wysoce spersonalizowanych cynicznych treści to wyzwanie nie tylko dla obywateli, ale całego demokratycznego procesu wyborczego – zwracają uwagę analitycy Check Point Research.

Gdy na scenie pojawiła się sztuczna inteligencja, wpłynęła na wiele aspektów naszego codziennego życia, często poprawiając wydajność w pracy, czy po prostu ułatwiając dostęp do wiedzy. Dziś jednak wiemy, że technologia ta wykorzystywana jest również w kampaniach wyborczych, w których coraz częściej „wszystkie chwyty są dozwolone”. W tym kontekście specjaliści cyberbezpieczeństwa z Check Point Research przyjrzeli się dwóm zmianom: zdolności sztucznej inteligencji wykorzystywanej do tworzenia na masową skalę przekonujących, dostosowanych do indywidualnych potrzeb tekstów na potrzeby wielu indywidualnie ukierunkowanych dialogów oraz jej biegłości w generowaniu wiarygodnych treści audiowizualnych niskim kosztem. Wielu obserwatorów obawia się, że rozwój ten stwarza ryzyko oddzielenia dyskursu publicznego od merytorycznych, ideologicznych debat, co może podważyć samą istotę demokratycznych wyborów

Demokracja w tarapatach?

Demokratyczne wybory opierają się o kilka kluczowych elementów: wolnej dyskusji publicznej -publicznym rynku idei, na którym konfrontowane są i rozważane sprzeczne poglądy, uczciwym procesie głosowania oraz gwarantowanym pokojowym przekazaniu władzy zgodnie z wynikami głosowania. Każdy z tych elementów borykał się w ostatnich latach z wyzwaniami.

W okresie poprzedzającym wybory w USA w 2020 r. położono większy nacisk na niezawodność i odporność maszyn do głosowania. W centrum uwagi znalazły się liczne konferencje i publiczne testy podatności na zagrożenia. Inicjatywa DefCon „Voting Village” zapewniła hakerom platformę do kwestionowania bezpieczeństwa tego typu amerykańskich narzędzi wyborczych, a wszelkie wykryte luki często trafiały na pierwsze strony gazet i były szeroko omawiane w mediach. Jednak krytycy utrzymywali, że kolejne testy bezpieczeństwa są przeprowadzane w nierealistycznych warunkach. Warto przy tym zauważyć, że dotychczas nie było żadnych doniesień o próbach włamań do maszyn do głosowania w celu globalnego manipulowania wynikami wyborów.

– Manipulowanie wynikami wyborów nie jest przedsięwzięciem prostym – zwracają uwagę specjaliści Check Point Research. Wymagałoby to włamania się do wielu rozproszonych systemów offline i, co najważniejsze, zrobienia tego bez wykrycia. Jednocześnie jakiekolwiek wzbudzenie podejrzenia mogłoby natychmiast unieważnić przeliczanie głosów. To właśnie te czynniki mogą wyjaśniać, dlaczego – zgodnie z naszą najlepszą wiedzą – faktycznie nie podjęto takich prób w krajach demokracji liberalnej. Nie oznacza to jednak, że system demokratyczny nie był atakowany.

Z perspektywy czasu można stwierdzić, że ciągłe wysiłki mające na celu wykrycie luk w zabezpieczeniach elektronicznych maszyn do głosowania, które realizowane były, by zwiększyć wiarygodności i wzmocnić system demokratyczny, mogły nieumyślnie przynieść odwrotny skutek. Możliwe, że podkopały zaufanie społeczne do wiarygodności tych systemów i legalności wyników wyborów. Wiele osób ma wątpliwości, czy zidentyfikowane luki w zabezpieczeniach rzeczywiście nadają się do wykorzystania, czy w ogóle są celem przeciwników lub czy potencjalne ryzyko z nimi związane przewyższa wynikający z tego spadek zaufania publicznego do wyników wyborów.

Być może ta perspektywa skłoniła CISA (Agencję ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury) do ponownego przemyślenia swojej strategii komunikacyjnej. Zamiast stale zwracać uwagę na słabe punkty i niedociągnięcia maszyn do głosowania, CISA zdecydowała się przez cały 2020 rok skupić na pozytywnych przesłaniach, potwierdzając bezpieczeństwo i niezawodność amerykańskiego systemu głosowania. Zmiana stanowiska CISA zakończyła się dymisją przez prezydenta Trumpa jej dyrektora, Chrisa Krebsa. Gdy Krebs ogłosił, że wybory te są najbezpieczniejsze w historii Ameryki, prezydent Trump stanowczo kwestionował ich wynik, a kulminacją były wydarzenia 6 stycznia na Kapitolu i zakłócanie przekazania władzy.

AI znosi bariery wejścia

– PiS przenosi kampanię na poziom powiatów. Tak o głosy nie walczył nikt – pisze red. Dariusz Ćwiklak w najnowszym magazynie Newsweek Polska (06.09.23). – PiS poszło krok dalej niż Cambridge Analytica, która kierowała przekazy do konkretnych grup odbiorców, ale tematy były ogólnokrajowe. Rządząca partia nie dość, że kieruje internetowe reklamy do konkretnych grup, np. kobiet z Łochowa, to jeszcze dla każdej z nich ma lokalny przekaz – mówi Michał Fedorowicz, prezes Instytutu Badań Internetu i Mediów Społecznościowych.

W 2018 roku wybuchł skandal z Cambridge Analytica, który dotyczył nieuprawnionego wykorzystania informacji użytkowników mediów społecznościowych. Informacje te wykorzystano do stworzenia profili wyborców i dostarczenia treści ściśle powiązanych ze światopoglądem docelowych osób, dzięki czemu stały się one skuteczniejszymi narzędziami perswazji. Wąskim gardłem w tych operacjach wywierania wpływu był koszt opracowania treści, który wymagał od twórców treści wykorzystania wiedzy osób biegłych w języku, kulturze, polityce i psychologii kraju docelowego. Jednak nowa technologia sztucznej inteligencji omija to wąskie gardło, oferując opłacalne spersonalizowane treści – zauważają analitycy Check Pointa.

Od czasu uruchomienia ChatGPT pod koniec 2022 r. automatyczne generowanie spersonalizowanego tekstu stało się łatwe. Obecnie możesz ustawić określone parametry konwersacji, takie jak wiek, płeć i lokalizacja geograficzna, a także cele, które są automatycznie wprowadzane do interfejsu API. W ten sposób powstaje imponujący i przekonujący spersonalizowany tekst, którego celem jest osiągnięcie wcześniej określonego celu. Dane wyjściowe można wykorzystać do wygenerowania pełnych rozmów między sztuczną inteligencją a wybraną osobą. Podobne chatboty są już wykorzystywane komercyjnie, na przykład jako wydajne narzędzia obsługi klienta.

Prawdziwy przełom polega na możliwości tworzenia spersonalizowanych treści na masową skalę przy niskim koszcie. Jakość tekstu poprawiła się do tego stopnia, że historyk prof. Yuval Noah Harari nazywa to „hakowaniem ludzi”, odnosząc się do zdolności sztucznej inteligencji do przewidywania naszych uczuć, myśli i wyborów oraz manipulowania nimi w sposób wykraczający poza nasze własne zrozumienie.

W kontekście wyborów badacze proponują eksperyment myślowy, w ramach którego systemy sztucznej inteligencji, które nazywają „Clogger i Dogger”, działają po obu stronach mapy politycznej, aby zmaksymalizować wykorzystanie technik mikrotargetowania i manipulacji zachowaniem. Wnioski są zatrważające – dyskurs polityczny może stracić na jakimkolwiek znaczeniu. Dyskurs pomiędzy botami a indywidualnymi wyborcami może w ogóle nie koncentrować się na istotnych kwestiach politycznych. Zamiast tego można go wykorzystać do odwrócenia uwagi od wiadomości przeciwnika lub innych ważnych tematów dyskusji. Ponadto należy pamiętać, że obecne systemy sztucznej inteligencji niekoniecznie są dokładne, ale generują treści zgodne z wyznaczonymi im celami. W takim scenariuszu zwycięzcy wyborów zwyciężyliby nie ze względu na swoje stanowisko polityczne lub przesłanie rezonujące z wyborcami, ale ze względu na ich zdolność finansową do wykorzystania tego nadrzędnego systemu do osiągnięcia sukcesu.

Audiowizualny deep fake

Jedną z najważniejszych konsekwencji powstającej technologii sztucznej inteligencji jest jej zdolność do wytwarzania „zwodniczych” nagrań głosu i wideo. Postęp ten grozi zatarciem granic między prawdziwymi i sfałszowanymi opisami wydarzeń. Choć początkowo technologia ta była wykorzystywana do oszustw, takich jak podszywanie się pod inne osoby w celu uzyskania korzyści finansowych, dziś została już wykorzystana politycznie. Podczas niedawnych wyborów samorządowych w Chicago pojawił się sfałszowany klip audio, rzekomo przedstawiający kandydata Paula Vallasa, popierającego agresję policji. W Internecie znaleziono także inne tego typu sfabrykowane materiały wykorzystujące wizerunki Elizabeth Warren lub Wołodymira Załenskiego. W Polsce w rozpoczętej niedawno kampanii wyborczej również wykorzystano sfabrykowany wizerunek przedstawicieli dwóch głównych formacji politycznych.

Postęp w dziedzinie sztucznej inteligencji, możliwość tworzenia spersonalizowanych tekstów i angażowania się w mikroukierunkowane dialogi, mogą pozbawić dyskusje oparcia w faktach, natomiast tworzenie i rozpowszechnianie deep fake’ów, generuje kolejne daleko idące konsekwencje dla procesów demokratycznych.

AI to wyzwanie, którym natychmiast należy się zająć

– Nowe osiągnięcia w dziedzinie AI stanowią wyzwanie dla czegoś fundamentalnego: naszego stosunku do samej prawdy. Obecnie zmagamy się ze złożonymi kwestiami, które mają charakter bardziej filozoficzny i moralny niż technologiczny. To zagadnienia epistemologiczne dotyczące natury wiedzy, wiarygodności źródeł danych, reputacji osób publicznych i samego sposobu, w jaki kształtujemy nasze rozumienie rzeczywistości. – mówi Yoav Arad Pinkas, badacz bezpieczeństwa z Check Point Research. Wyzwania te zmieniają krajobraz dyskursu politycznego, podważają autentyczność informacji i wymagają świeżego spojrzenia na podstawowe wartości, jakimi są komunikacja i uczciwość w procesie demokratycznym.

Aby skutecznie stawić im czoła, potrzebujemy współpracy wielu interesariuszy. Przede wszystkim dostawcy sztucznej inteligencji muszą podjąć proaktywne działania, aby zapobiec nadużyciom swoich procesów, a organy regulacyjne muszą ponownie ocenić i zaktualizować swoje wytyczne. Jako społeczeństwo musimy zaangażować się w głęboką refleksję nad niuansami wolności słowa i sposobem, w jaki postępujemy w erze cyfrowej.

Wobec braku zakazu udziału sztucznej inteligencji w publicznym dyskursie, oczywiste jest, że odpowiedzialność za treści wytwarzane przez sztuczną inteligencję spada na użytkowników i programistów. Dokładna granica zostanie wyjaśniona w sądach w drodze dialogu regulatorów z interpretatorami przepisów.

Czy osoba, która tworzy plik audio, obraz lub wideo mające na celu fałszywe przedstawienie rzeczywistości, powinna ponosić odpowiedzialność karną? Znaczenie wiarygodności w przyszłości nabierze jeszcze bardziej kluczowej roli. W rzeczywistości, w której identyfikacja fałszerstw staje się coraz trudniejsza, źródło i kontekst stają się najważniejsze.

*Źródła:

  • https://tvn24.pl/wybory-parlamentarne-2023/po-w-spocie-o-mailach-prawdy-uzyla-sztucznej-inteligencji-7311972
  • https://www.newsweek.pl/polska/polityka/pis-przenosi-kampanie-na-najnizszy-poziom-tak-o-glosy-nie-walczyl-jeszcze-nikt/nm4el1v

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...