INNOWACJEHalucynacje AI

Halucynacje AI

Halucynacje AI

AI karmi się danymi, a jak mawiają dietetycy, jesteś tym co jesz! AI musi uczyć się i zdobywać wiedzę z wiarygodnych źródeł. W wielu przypadkach jednak trudno o czarno-białe określenie prawdy i wiarygodności źródeł, z których korzysta AI. Tzw. efekt halucynacji jest wynikiem powstawania danych, które są w jakimś stopniu sprzeczne, wadliwe, kłamliwe lub po prostu intencjonalnie zakłamane i zepsute. Jakże modnym dziś zdaniem jest dziś „fake news” czy „postprawda”. Jeśli jako społeczeństwo chcemy, aby nauka AI odbywała się prawidłowo, musimy zadbać o jakość wiadomości znajdujących się w przestrzeni publicznej. Z pomocą mogą przyjść narzędzia informatyczne, które potrafią w pewnym stopniu sprawdzić jakość danych i weryfikują tzw. fake news. Dopóki AI będzie czerpać wiedzę z ogólnej masy danych, tzw. halucynacje będą się zdarzać coraz częściej, a granica między prawdą a fałszem będzie się zacierać.

Co więcej, to nie jest tylko problem sztucznej inteligencji, co samego faktu odróżnienia prawdy od fałszu. Także w naszym świecie i ludzkiej inteligencji, jeśli nie będziemy chcieli dociekać prawdy i nie będziemy weryfikowali sami prawdziwości źródeł informacji, sami będziemy halucynować w obszarze wiedzy jaką posiadamy. U podstaw wiedzy AI musi być prawda lub różne jej strony dające uśredniony obraz rzeczywistości. Jednak w wielu kwestiach, np. prawdy historycznej ocena zdarzeń nie będzie zero – jedynkowa. Wiele problemów nie da się rozstrzygnąć w sposób na TAK lub NIE. To jak z Matrixem – czy łyżka naprawdę nie istnieje?

Piotr Kawecki, Prezes Zarządu ITBoom Sp. z o.o.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

chiny

Chiny: od „cudownego wzrostu” do nowej rzeczywistości

0
Chiny potrzebują nowych źródeł wzrostu – sektor nieruchomości: od bohatera do zera, spowolnienie inwestycji zagranicznych (w grę wchodzą zarówno krótkoterminowe czynniki taktyczne, jak i długoterminowe czynniki strukturalne) Popyt zagraniczny: rola Chin jako krytycznego...