INNOWACJESZTUCZNA INTELIGENCJAAI czyli nie naturalna nie inteligencja

AI czyli nie naturalna nie inteligencja

AI czyli nie naturalna nie inteligencja

Obecny stan dyskusji na temat AI i sposoby jej użycia świadczą o tym, że traktujemy ją jak twór inteligentny –  zdolny postrzegać, pojmować pojęcia, których używa, analizować i wnioskować w sposób charakterystyczny dla człowieka. Tymczasem coś co usilnie antropomorfizujemy jest jedynie bardzo skomplikowanym systemem bramek logicznych – algorytmem, który na podstawie ogromnej ilości danych wprowadzonych do systemu generuje najbardziej statystycznie poprawne odpowiedzi.

Zrozumienie mechanizmu „myślenia” algorytmicznego jest istotne nie tylko dlatego byśmy wiedzieli jak prawidłowo go używać i jak traktować wygenerowane odpowiedzi, ale również dlatego, żebyśmy mogli być uczestnikami dyskusji o tym jak regulować, kierunkować i rozwijać technologie oparte o AI by nam służyły a nie zagrażały. Stąd pomysł by podsumować kilka kwestii, które ekspertom mogą wydawać się oczywiste, ale wciąż są dużą nowością dla osób zaczynających swoją przygodę z #ArtificialIntelligence:

1) Duże modele językowe (#LargeLanguageModels) takie jak #Claude, stworzony przez #Anthropic, #GPT4 (Generative Pre-trained Transformer 4), bądź #BARD, najnowszy #chatbot LLM opracowany przez #GoogleAI nie służą do tego aby szukać odpowiedzi na pytania odnośnie nieznanych nam zagadnień, ani nie ma też sensu pytać je o to co sądzą na taki czy inny temat;

2) Złożone modele językowe, do których zalicza się ChatGPT, nic nie „sądzą” – nie postrzegają, bo nie mają zmysłów, aby odbierać spostrzeżenia z zewnątrz, ani świadomości, żeby postrzeżenia zmysłowe analizować;

3) #LLM nie rozumieją, że język jest symbolicznym nośnikiem treści, a więc nie używają słów do komunikacji, ale zajmują się generowaniem tekstu, tak aby rezultat uzyskał jak najwyższe prawdopodobieństwo akceptacji w toku procesu uczenia maszynowego (#MachineLearning);

4) LLM są więc „kalkulatorami słów”, które używają zaawansowanej statystyki bayesowskiej do zgadnięcia jakie kolejne wstawić słowo, tak aby rezultat uzyskał akceptację człowieka w toku procesu uczenia nadzorowanego (#SupervisedLearning). Po analizie kilkudziesięciu miliardów kombinacji z istniejących wypowiedzi maszyna jest w stanie bardzo trafnie pastiszować wypowiedzi w dowolnym języku etnicznym, chociaż nic ze swojej własnej wypowiedzi nie rozumie;

5) Elementem „#AIhype”, który wokół nas się dzieje, jest mówienie o tzw. #AIhallicunations – określenie to zawiera błędną antropomorfizację sugerującą, że maszyna co do zasady działa świadomie i prawidłowo, a od czasu do czasu miewa halucynacje. W rzeczywistości „kalkulator” słów jakim jest duży model językowy nic nie rozumie ze swoich własnych wypowiedzi, nie wie że słowa są nośnikami treści, nie umie co za tym idzie zweryfikować rzetelności swoich wypowiedzi, a rozwiązuje problem matematyczny z zakresu wyliczania prawdopodobieństwa subiektywnego jakie kolejne słowo wstawić do zdania, tak aby rezultat został pozytywnie oceniony w toku uczenia #DeepLearning;

6) W związku z powyższym – pytanie ChatGPT o to, co sądzi na jakiś temat zupełnie nie ma sensu i powoduje używanie tego narzędzia sprzecznie z jego przeznaczeniem. Producenci takich narzędzi to tolerują, bo kolejne zapytania wysyłane w ten sposób karmią rozwój #AI natomiast odbiorców nie są w stanie doprowadzić to uzyskania wiarygodnych i prawdziwych odpowiedzi;

7) Używając prostego przykładu – jeśli duży model językowy wykarmimy dużą liczbą wypowiedzi o tym, że woda wrze w stu stopniach, to jest bardzo prawdopodobne, że w odpowiedzi na pytanie w ilu stopniach wrze woda, on wróci do nas z elegancką wypowiedzią prawidłowo wskazującą, że przy ciśnieniu 1013 hPa woda wrze w 100 stopni Celsjusza, a nawet zachwyci nas ciekawostkami w stylu, że chcąc zagotować wodę na szczycie Mount Everestu, wystarczy doprowadzić ją do temperatury 68 stopni Celsjusza. Wynika to z faktu, że takie właśnie kombinacje słów spotkały się z akceptacją w toku procesu uczenia maszynowego i są zgodne z tekstami na których LLM został wykarmiony. W rzeczywistości jednak autor tej wypowiedzi generuje taki tekst bez wiedzy o tym, czym jest woda, co to jest wrzenie i co to jest Mount Everest. Jeśli duży model językowy wykarmimy wypowiedziami o tym, że księżyc jest z sera, to w równie przekonywujący sposób wyjaśni nam, że księżyc jest wykonany z Camemberta. On po prostu tego nie wie – tak jak w ogóle nic nie wie i nie rozumie, a zajmuje się tylko generowaniem słów w kombinacjach co do których występuje wysokie prawdopodobieństwo subiektywne pozytywnej oceny takiej kombinacji słów;

8) ChatGPT nie jest statyczną bazą wiedzy o świecie i nie nadaje się w ogóle do tzw. „hard prompting” – zadawania mu pytań o sprawy, o których nie mamy wiedzy z nadzieją, że duży model językowy znajdzie w swoich zasobach odpowiedź i ją nam przedstawi. W odpowiedzi na taki „hard prompt” on wygeneruje nam prawdopodobnie brzmiącą wypowiedź, co do której nasz kalkulator słów nie wie, czy ona ma sens.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...