INNOWACJEHalucynacje AI

Halucynacje AI

Halucynacje AI

AI karmi się danymi, a jak mawiają dietetycy, jesteś tym co jesz! AI musi uczyć się i zdobywać wiedzę z wiarygodnych źródeł. W wielu przypadkach jednak trudno o czarno-białe określenie prawdy i wiarygodności źródeł, z których korzysta AI. Tzw. efekt halucynacji jest wynikiem powstawania danych, które są w jakimś stopniu sprzeczne, wadliwe, kłamliwe lub po prostu intencjonalnie zakłamane i zepsute. Jakże modnym dziś zdaniem jest dziś „fake news” czy „postprawda”. Jeśli jako społeczeństwo chcemy, aby nauka AI odbywała się prawidłowo, musimy zadbać o jakość wiadomości znajdujących się w przestrzeni publicznej. Z pomocą mogą przyjść narzędzia informatyczne, które potrafią w pewnym stopniu sprawdzić jakość danych i weryfikują tzw. fake news. Dopóki AI będzie czerpać wiedzę z ogólnej masy danych, tzw. halucynacje będą się zdarzać coraz częściej, a granica między prawdą a fałszem będzie się zacierać.

Co więcej, to nie jest tylko problem sztucznej inteligencji, co samego faktu odróżnienia prawdy od fałszu. Także w naszym świecie i ludzkiej inteligencji, jeśli nie będziemy chcieli dociekać prawdy i nie będziemy weryfikowali sami prawdziwości źródeł informacji, sami będziemy halucynować w obszarze wiedzy jaką posiadamy. U podstaw wiedzy AI musi być prawda lub różne jej strony dające uśredniony obraz rzeczywistości. Jednak w wielu kwestiach, np. prawdy historycznej ocena zdarzeń nie będzie zero – jedynkowa. Wiele problemów nie da się rozstrzygnąć w sposób na TAK lub NIE. To jak z Matrixem – czy łyżka naprawdę nie istnieje?

Piotr Kawecki, Prezes Zarządu ITBoom Sp. z o.o.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

polski ład

Składka zdrowotna dla przedsiębiorców: co dalej?

0
Przedsiębiorcy oczekują konkretów w sprawie opłacania tzw. składki zdrowotnej (po wielu latach polemik, obecnie coraz więcej jest stanowisk, że jest to po prostu podatek, a nie składka). Negatywne skutki „Polskiego Ładu” odczuwa wielu przedsiębiorców...