AI karmi się danymi, a jak mawiają dietetycy, jesteś tym co jesz! AI musi uczyć się i zdobywać wiedzę z wiarygodnych źródeł. W wielu przypadkach jednak trudno o czarno-białe określenie prawdy i wiarygodności źródeł, z których korzysta AI. Tzw. efekt halucynacji jest wynikiem powstawania danych, które są w jakimś stopniu sprzeczne, wadliwe, kłamliwe lub po prostu intencjonalnie zakłamane i zepsute. Jakże modnym dziś zdaniem jest dziś „fake news” czy „postprawda”. Jeśli jako społeczeństwo chcemy, aby nauka AI odbywała się prawidłowo, musimy zadbać o jakość wiadomości znajdujących się w przestrzeni publicznej. Z pomocą mogą przyjść narzędzia informatyczne, które potrafią w pewnym stopniu sprawdzić jakość danych i weryfikują tzw. fake news. Dopóki AI będzie czerpać wiedzę z ogólnej masy danych, tzw. halucynacje będą się zdarzać coraz częściej, a granica między prawdą a fałszem będzie się zacierać.
Co więcej, to nie jest tylko problem sztucznej inteligencji, co samego faktu odróżnienia prawdy od fałszu. Także w naszym świecie i ludzkiej inteligencji, jeśli nie będziemy chcieli dociekać prawdy i nie będziemy weryfikowali sami prawdziwości źródeł informacji, sami będziemy halucynować w obszarze wiedzy jaką posiadamy. U podstaw wiedzy AI musi być prawda lub różne jej strony dające uśredniony obraz rzeczywistości. Jednak w wielu kwestiach, np. prawdy historycznej ocena zdarzeń nie będzie zero – jedynkowa. Wiele problemów nie da się rozstrzygnąć w sposób na TAK lub NIE. To jak z Matrixem – czy łyżka naprawdę nie istnieje?
Piotr Kawecki, Prezes Zarządu ITBoom Sp. z o.o.