BEZPIECZEŃSTWOSztuczna inteligencja a dezinformacja: jak GPT-3 wpływa na nasze postrzeganie prawdy?

Sztuczna inteligencja a dezinformacja: jak GPT-3 wpływa na nasze postrzeganie prawdy?

Ostatnie badania przeprowadzone przez naukowców z Uniwersytetu Zuryskiego dowodzą, że sztuczna inteligencja, takie jak GPT-3, jest w stanie coraz lepiej imitować teksty pisane przez ludzi. Co gorsza, nie jesteśmy w stanie odróżnić ich od autentycznych treści, co rodzi niepokój w kontekście szerzenia dezinformacji.

Badanie w praktyce

Autorzy badania opublikowanego w „Science Advances” skoncentrowali się na tweetach generowanych przez GPT-3. Badacze tworzyli teksty dotyczące różnych tematów, takich jak szczepionki, technologia 5G, COVID-19 czy teoria ewolucji, a następnie prosili respondentów o ich ocenę.

Wyniki były zaskakujące. Respondenci uznawali informacje wygenerowane przez sztuczną inteligencję za bardziej przekonujące niż te pisane przez ludzi. Ponadto, istnieje tendencja do większego zaufania nieprawdziwym informacjom tworzonym przez SI w porównaniu z treściami ludzkimi.

Dwa oblicza sztucznej inteligencji

Dr Federico Germani, jeden z autorów badania, zwraca uwagę, że takie technologie jak GPT-3 są mieczem obusiecznym. Choć mogą być użyteczne w wielu dziedzinach, również stanowią narzędzie do generowania przekonujących fałszywych informacji. Niestety, nawet sama sztuczna inteligencja ma trudności z rozróżnianiem informacji prawdziwych od fałszywych, co pokazuje skalę problemu.

Jak przeciwdziałać dezinformacji?

Choć sytuacja jest niepokojąca, naukowcy proponują rozwiązania. Jeden z modeli zakłada tworzenie treści przez sztuczną inteligencję, ale z obowiązkową weryfikacją przez ludzi. W sytuacjach wymagających szybkiej komunikacji z dużymi grupami ludzi, takie podejście może okazać się skuteczne.

Dr Germani podkreśla, że edukacja medialna jest kluczem. Ludzie powinni być w stanie ocenić, czy informacja jest wiarygodna czy nie, opierając się na określonych cechach treści.

W Polsce istnieją już inicjatywy mające na celu przeciwdziałanie dezinformacji, jak Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on narzędziem dla dziennikarzy, osób publicznych i odbiorców, pomagającym rozpoznać i przeciwdziałać procesom dezinformacyjnym.

Wnioski

Sztuczna inteligencja, mimo wielu korzyści, stawia przed nami nowe wyzwania w kontekście walki z dezinformacją. Współczesne technologie pozwalają na tworzenie przekonujących, ale nieprawdziwych informacji, które mogą wpływać na postrzeganie rzeczywistości przez ludzi. Tylko świadome społeczeństwo i odpowiednie narzędzia pozwolą przeciwdziałać temu zagrożeniu.

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...
Exit mobile version