W ostatnich tygodniach świat technologii ponownie zdominowała rozmowa na temat sztucznej inteligencji. Impulsem stały się wypowiedzi Elona Muska w debacie publicznej wokół ChatGPT. Choć Musk jest postacią kontrowersyjną, jego interwencje zwróciły uwagę na długotrwałe zagrożenia związane z rozwojem AI. To dzięki niemu publiczna debata na temat sztucznej inteligencji nabrała tempa, co pozwoliło na wyraźniejsze uwypuklenie zagrożeń, które wcześniej były ignorowane lub bagatelizowane. Eksperci coraz głośniej pytają więc jak będzie wyglądało bezpieczeństwo cyfrowe świata, w obliczu braku cenzury i jasnych regulacji tej technologii.
Zdaniem Graeme Stewarta, eksperta firmy Check Point (Head of UK Public sector), należy wskazać trzy główne zagrożenia związane z AI: Stronniczość w modelach AI, błędne odpowiedzi AI oraz zagrożenia bezpieczeństwa informacji. Podobnie jak tradycyjne media, które mają swoje własne linie redakcyjne, narzędzia oparte na sztucznej inteligencji, takie jak ChatGPT, również noszą piętno twórców, którzy je opracowali. Ekspert firmy Check Pointa zwraca uwagę na przykład chińskiego chatbota DeepSeek, który unika rozmów na temat kontrowersyjnych wydarzeń, takich jak masakra na placu Tiananmen. Pokazuje to, jak AI może zostać wykorzystane do manipulowania informacjami i cenzurowania niepożądanych tematów.
Pomimo ogromnego postępu w technologii sztucznej inteligencji, AI wciąż ma swoje ograniczenia. Jednym z nich jest niewłaściwa interpretacja faktów i generowanie nieprawdziwych odpowiedzi. Graeme Stewart przywołuje eksperymenty przeprowadzone przez brytyjską stację BBC, w których ChatGPT dostarczał błędne informacje na temat wydarzeń, co potwierdza, że nawet najnowsze modele AI wciąż są dalekie od ideału.
Rozwój AI niesie ze sobą nie tylko ryzyko stronniczości czy błędów, ale również poważne zagrożenia w zakresie cyberbezpieczeństwa. Dane wprowadzane do systemów AI mogą pochodzić z bardzo wrażliwych źródeł, takich jak badania naukowe, informacje korporacyjne czy nawet dane rządowe. W związku z tym, pojawia się pytanie o to, jak te dane są przechowywane i przetwarzane, a także jakie ryzyko związane z ich ujawnieniem może się wiązać z wykorzystywaniem AI.
Choć dyskusja o regulacji AI staje się coraz bardziej aktualna, ekspert Check Pointa, zwraca uwagę na trudności związane z jej wdrożeniem. Sztuczna inteligencja funkcjonuje w sposób podobny do mediów cyfrowych, co oznacza, że jest podatna na subiektywne interpretacje i stronniczość. Dodatkowo, podobnie jak w przypadku regulacji mediów społecznościowych, pomimo wielu lat dyskusji, wciąż brakuje skutecznych rozwiązań. W tej chwili to użytkownicy AI są odpowiedzialni za zachowanie czujności i krytycznego podejścia do narzędzi opartych na sztucznej inteligencji.
Graeme Stewart używa analogii, porównując sztuczną inteligencję do wynalezienia prasy drukarskiej. Jeśli AI jest „nową prasą drukarską”, to pytanie brzmi: kto trzyma pióro? To stwierdzenie podkreśla znaczenie odpowiedzialności za kształtowanie narracji w świecie, w którym AI ma coraz większy wpływ na kształtowanie opinii publicznej i procesy decyzyjne. W kontekście rosnącego wpływu AI na nasze codzienne życie, zrozumienie zagrożeń oraz podjęcie działań na rzecz ich minimalizacji stanowią klucz do odpowiedzialnego i bezpiecznego rozwoju tej technologii.