Premiera, na którą świat czekał – czyli nowa wersja chata GPT – była długo zapowiadana. Obecnie dostępna jest wersja 4 tego modelu. Natomiast obok pojawia się litera O, która jest synonimem koncepcji omnimodel – czyli modelu, który potrafi niemalże wszystko. Jest to rzeczywiście model lepszy – zarówno w tym, w czym już sam chat GPT w poprzednich wersjach był dobry, czyli tworzeniu tekstu. Jednak jest to też model, który jest w stanie rozpoznawać np. emocje w głosie. To już jest dosyć duża zmiana. Jest również w stanie w czasie rzeczywistym bardzo dokładnie analizować obraz. To znaczy, że wszystkie szczegóły na tym obrazie zostaną dokładnie zidentyfikowane i kontekstowo osadzone.
– Przykładowo, możemy teraz zapytać Chat GPT co się dzieje na zdjęciu i model nam opowie dokładnie co miało miejsce – powiedziała serwisowi eNewsroom.pl profesor Aleksandra Przegalińska, Vice Rector at Kozminski University, Harvard CLJE Senior Research Associate & SwissCognitive and #Digital EUAmbassador. – Nowością jest, że gdy zadajemy pytanie głosem, to dostajemy odpowiedź w czasie rzeczywistym, bez żadnego opóźnienia, również głosem. Zmiany w modelu mogą nie być tak bardzo odczuwalne – to jest ciągle to samo rozwiązanie – ale wprowadzono nowe funkcjonalności, które były kiedyś obiecane. Natomiast elementy, które nie działały perfekcyjnie, teraz funkcjonują znacznie lepiej – wyjaśnia prof. Aleksandra Przegalińska.