środa, 30 kwietnia, 2025

AI czyli nie naturalna nie inteligencja

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

Obecny stan dyskusji na temat AI i sposoby jej użycia świadczą o tym, że traktujemy ją jak twór inteligentny –  zdolny postrzegać, pojmować pojęcia, których używa, analizować i wnioskować w sposób charakterystyczny dla człowieka. Tymczasem coś co usilnie antropomorfizujemy jest jedynie bardzo skomplikowanym systemem bramek logicznych – algorytmem, który na podstawie ogromnej ilości danych wprowadzonych do systemu generuje najbardziej statystycznie poprawne odpowiedzi.

Zrozumienie mechanizmu „myślenia” algorytmicznego jest istotne nie tylko dlatego byśmy wiedzieli jak prawidłowo go używać i jak traktować wygenerowane odpowiedzi, ale również dlatego, żebyśmy mogli być uczestnikami dyskusji o tym jak regulować, kierunkować i rozwijać technologie oparte o AI by nam służyły a nie zagrażały. Stąd pomysł by podsumować kilka kwestii, które ekspertom mogą wydawać się oczywiste, ale wciąż są dużą nowością dla osób zaczynających swoją przygodę z #ArtificialIntelligence:

1) Duże modele językowe (#LargeLanguageModels) takie jak #Claude, stworzony przez #Anthropic, #GPT4 (Generative Pre-trained Transformer 4), bądź #BARD, najnowszy #chatbot LLM opracowany przez #GoogleAI nie służą do tego aby szukać odpowiedzi na pytania odnośnie nieznanych nam zagadnień, ani nie ma też sensu pytać je o to co sądzą na taki czy inny temat;

2) Złożone modele językowe, do których zalicza się ChatGPT, nic nie „sądzą” – nie postrzegają, bo nie mają zmysłów, aby odbierać spostrzeżenia z zewnątrz, ani świadomości, żeby postrzeżenia zmysłowe analizować;

3) #LLM nie rozumieją, że język jest symbolicznym nośnikiem treści, a więc nie używają słów do komunikacji, ale zajmują się generowaniem tekstu, tak aby rezultat uzyskał jak najwyższe prawdopodobieństwo akceptacji w toku procesu uczenia maszynowego (#MachineLearning);

4) LLM są więc „kalkulatorami słów”, które używają zaawansowanej statystyki bayesowskiej do zgadnięcia jakie kolejne wstawić słowo, tak aby rezultat uzyskał akceptację człowieka w toku procesu uczenia nadzorowanego (#SupervisedLearning). Po analizie kilkudziesięciu miliardów kombinacji z istniejących wypowiedzi maszyna jest w stanie bardzo trafnie pastiszować wypowiedzi w dowolnym języku etnicznym, chociaż nic ze swojej własnej wypowiedzi nie rozumie;

5) Elementem „#AIhype”, który wokół nas się dzieje, jest mówienie o tzw. #AIhallicunations – określenie to zawiera błędną antropomorfizację sugerującą, że maszyna co do zasady działa świadomie i prawidłowo, a od czasu do czasu miewa halucynacje. W rzeczywistości „kalkulator” słów jakim jest duży model językowy nic nie rozumie ze swoich własnych wypowiedzi, nie wie że słowa są nośnikami treści, nie umie co za tym idzie zweryfikować rzetelności swoich wypowiedzi, a rozwiązuje problem matematyczny z zakresu wyliczania prawdopodobieństwa subiektywnego jakie kolejne słowo wstawić do zdania, tak aby rezultat został pozytywnie oceniony w toku uczenia #DeepLearning;

6) W związku z powyższym – pytanie ChatGPT o to, co sądzi na jakiś temat zupełnie nie ma sensu i powoduje używanie tego narzędzia sprzecznie z jego przeznaczeniem. Producenci takich narzędzi to tolerują, bo kolejne zapytania wysyłane w ten sposób karmią rozwój #AI natomiast odbiorców nie są w stanie doprowadzić to uzyskania wiarygodnych i prawdziwych odpowiedzi;

7) Używając prostego przykładu – jeśli duży model językowy wykarmimy dużą liczbą wypowiedzi o tym, że woda wrze w stu stopniach, to jest bardzo prawdopodobne, że w odpowiedzi na pytanie w ilu stopniach wrze woda, on wróci do nas z elegancką wypowiedzią prawidłowo wskazującą, że przy ciśnieniu 1013 hPa woda wrze w 100 stopni Celsjusza, a nawet zachwyci nas ciekawostkami w stylu, że chcąc zagotować wodę na szczycie Mount Everestu, wystarczy doprowadzić ją do temperatury 68 stopni Celsjusza. Wynika to z faktu, że takie właśnie kombinacje słów spotkały się z akceptacją w toku procesu uczenia maszynowego i są zgodne z tekstami na których LLM został wykarmiony. W rzeczywistości jednak autor tej wypowiedzi generuje taki tekst bez wiedzy o tym, czym jest woda, co to jest wrzenie i co to jest Mount Everest. Jeśli duży model językowy wykarmimy wypowiedziami o tym, że księżyc jest z sera, to w równie przekonywujący sposób wyjaśni nam, że księżyc jest wykonany z Camemberta. On po prostu tego nie wie – tak jak w ogóle nic nie wie i nie rozumie, a zajmuje się tylko generowaniem słów w kombinacjach co do których występuje wysokie prawdopodobieństwo subiektywne pozytywnej oceny takiej kombinacji słów;

8) ChatGPT nie jest statyczną bazą wiedzy o świecie i nie nadaje się w ogóle do tzw. „hard prompting” – zadawania mu pytań o sprawy, o których nie mamy wiedzy z nadzieją, że duży model językowy znajdzie w swoich zasobach odpowiedź i ją nam przedstawi. W odpowiedzi na taki „hard prompt” on wygeneruje nam prawdopodobnie brzmiącą wypowiedź, co do której nasz kalkulator słów nie wie, czy ona ma sens.

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

Wiceprezes Comarch na Europejskim Kongresie Gospodarczym: AI tworzy nowe zagrożenia

— Nie doceniamy skali wyzwania, jakim jest wdrożenie Krajowego...

Podobne tematy

PR w erze AI: technologia rośnie w siłę, ale autentyczność nie wychodzi z mody

Podczas gdy technologia i sztuczna inteligencja odgrywają coraz większą...

Wiceprezes Comarch na Europejskim Kongresie Gospodarczym: AI tworzy nowe zagrożenia

— Nie doceniamy skali wyzwania, jakim jest wdrożenie Krajowego...

Cyfrowa ewolucja sektora publicznego – kiedy AI stanie się rzeczywistym wsparciem administracji?

– Sztuczna inteligencja może stać się kluczowym katalizatorem rozwoju...

Sztuczna inteligencja nie zastąpi Cię w pracy – pomoże Ci ją wykonywać lepiej

- Asystenci oparci na sztucznej inteligencji będą doskonałym narzędziem...
00:01:13

Piotr Voelkel: Edukacja musi się zmienić – tradycyjny model już nie wystarcza

Tradycyjny model edukacji, oparty na kilkuletnich cyklach, staje się...

Handel detaliczny nie poradzi sobie bez AI. Rosnące oczekiwania konsumentów, duża konkurencja czy inflacja wymuszają zmiany

Rosnące koszty, coraz wyższe oczekiwania klientów i złożoność technologiczna...

Cyfrowa luka w administracji. AI ma być lekarstwem na brak efektywności

Tylko 32% dyrektorów firm i instytucji z sektora publicznego...

Może Cię zainteresować

Polecane kategorie

Exit mobile version