wtorek, 18 lutego, 2025

Graeme Stewart o ryzykach AI: Stronniczość, błędy i brak regulacji

W ostatnich tygodniach świat technologii ponownie zdominowała rozmowa na temat sztucznej inteligencji. Impulsem stały się wypowiedzi Elona Muska w debacie publicznej wokół ChatGPT. Choć Musk jest postacią kontrowersyjną, jego interwencje zwróciły uwagę na długotrwałe zagrożenia związane z rozwojem AI. To dzięki niemu publiczna debata na temat sztucznej inteligencji nabrała tempa, co pozwoliło na wyraźniejsze uwypuklenie zagrożeń, które wcześniej były ignorowane lub bagatelizowane. Eksperci coraz głośniej pytają więc jak będzie wyglądało bezpieczeństwo cyfrowe świata, w obliczu braku cenzury i jasnych regulacji tej technologii.

Zdaniem Graeme Stewarta, eksperta firmy Check Point (Head of UK Public sector), należy wskazać trzy główne zagrożenia związane z AI: Stronniczość w modelach AI, błędne odpowiedzi AI oraz zagrożenia bezpieczeństwa informacji. Podobnie jak tradycyjne media, które mają swoje własne linie redakcyjne, narzędzia oparte na sztucznej inteligencji, takie jak ChatGPT, również noszą piętno twórców, którzy je opracowali. Ekspert firmy Check Pointa zwraca uwagę na przykład chińskiego chatbota DeepSeek, który unika rozmów na temat kontrowersyjnych wydarzeń, takich jak masakra na placu Tiananmen. Pokazuje to, jak AI może zostać wykorzystane do manipulowania informacjami i cenzurowania niepożądanych tematów.

Pomimo ogromnego postępu w technologii sztucznej inteligencji, AI wciąż ma swoje ograniczenia. Jednym z nich jest niewłaściwa interpretacja faktów i generowanie nieprawdziwych odpowiedzi. Graeme Stewart przywołuje eksperymenty przeprowadzone przez brytyjską stację BBC, w których ChatGPT dostarczał błędne informacje na temat wydarzeń, co potwierdza, że nawet najnowsze modele AI wciąż są dalekie od ideału.

Rozwój AI niesie ze sobą nie tylko ryzyko stronniczości czy błędów, ale również poważne zagrożenia w zakresie cyberbezpieczeństwa. Dane wprowadzane do systemów AI mogą pochodzić z bardzo wrażliwych źródeł, takich jak badania naukowe, informacje korporacyjne czy nawet dane rządowe. W związku z tym, pojawia się pytanie o to, jak te dane są przechowywane i przetwarzane, a także jakie ryzyko związane z ich ujawnieniem może się wiązać z wykorzystywaniem AI.

Choć dyskusja o regulacji AI staje się coraz bardziej aktualna, ekspert Check Pointa, zwraca uwagę na trudności związane z jej wdrożeniem. Sztuczna inteligencja funkcjonuje w sposób podobny do mediów cyfrowych, co oznacza, że jest podatna na subiektywne interpretacje i stronniczość. Dodatkowo, podobnie jak w przypadku regulacji mediów społecznościowych, pomimo wielu lat dyskusji, wciąż brakuje skutecznych rozwiązań. W tej chwili to użytkownicy AI są odpowiedzialni za zachowanie czujności i krytycznego podejścia do narzędzi opartych na sztucznej inteligencji.

Graeme Stewart używa analogii, porównując sztuczną inteligencję do wynalezienia prasy drukarskiej. Jeśli AI jest „nową prasą drukarską”, to pytanie brzmi: kto trzyma pióro? To stwierdzenie podkreśla znaczenie odpowiedzialności za kształtowanie narracji w świecie, w którym AI ma coraz większy wpływ na kształtowanie opinii publicznej i procesy decyzyjne. W kontekście rosnącego wpływu AI na nasze codzienne życie, zrozumienie zagrożeń oraz podjęcie działań na rzecz ich minimalizacji stanowią klucz do odpowiedzialnego i bezpiecznego rozwoju tej technologii.

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

Sztuczna inteligencja w polskich firmach – na tle Europy wciąż daleko w tyle

Zespół Analiz Ekonomicznych banku Credit Agricole przeanalizował wykorzystanie sztucznej...

Polskie firmy coraz lepiej przygotowane na AI

Wyniki najnowszego badania EY "Jak polskie firmy wdrażają AI"...

Regulacje, AI i cyberbezpieczeństwo – 3 siły napędowe cyfryzacji w Polsce

Regulacje prawne, sztuczna inteligencja i cyberbezpieczeństwo – te trzy...

Podobne tematy

Cyberprzestępcy zmieniają strategię – web shell na czele metod ataku

W IV kwartale 2024 roku cyberprzestępcy coraz częściej wykorzystywali...

Rosnąca rola haktywizmu w cyberzagrożeniach

Firma Trend Micro  opublikowała nowe badania analizujące dynamicznie zmieniający...

Check Point Software i Wiz podpisały umowę o współpracy

Check Point Software Technologies podpisał umowę strategicznego partnerstwa z...

EDR, XDR, NDR – jakie systemy ochrony powinny znaleźć się w każdej firmie?

Jeden cyfrowy incydent może przesądzić o dalszych losach przedsiębiorstwa....

Urząd Ochrony Danych Osobowych bada zgodność DeepSeek z regulacjami UE

Urząd Ochrony Danych Osobowych (UODO) rozpoczął analizę modelu DeepSeek...

IBM i Palo Alto Networks: Fragmentacja rozwiązań cyberbezpieczeństwa osłabia organizacje

Nowe globalne badania przeprowadzone przez IBM Institute for Business...

Europa musi przygotować się na rosnącą falę cyberataków. Polska na czele stawki

Europa staje w obliczu rosnącego zagrożenia cybernetycznego. W 2024...

Może Cię zainteresować

Polecane kategorie

Exit mobile version