Komentarz Emila Waszkowskiego, Head of Strategy w Future Mind, do nowych produktów Generative AI.
Ostatnie dni szczególnie obfitowały w newsy od big techów o ich nowych produktach Generative AI. Najgłośniejszym z nich jest udostępnienie Google Bard w 40 nowych wersjach językowych, w tym także polskiej. Według danych similarweb jest on drugim najpopularniejszym chatem AI. Nowe wersje językowe z pewnością pomogą nadrobić nieco dystansu do ChatGPT. Na jak długo? To będzie zależało w głównej mierze od jakości generowanych odpowiedzi vs inne popularne czaty jak ChatGPT czy Bing Chat.
Duże znaczenie w utrzymaniu użytkowników będzie miał rozwój i zachowanie Barda. Jak wskazuje opublikowane w zeszłym tygodniu badanie Stanford University i University of California, jakość odpowiedzi ChatGPT w niektórych zadaniach pogorszyła się w czasie. Nie jest to spadek możliwości modelu, a zmiana jego zachowania. Dlatego użytkownicy stosujący sprawdzone taktyki promptowania muszą je zmieniać, aby uzyskać dotychczasową jakość odpowiedzi. Można to porównać do zmian algorytmu wyszukiwarki Google i idących w jego ślady taktyk SEO. Taki brak stabilności wpływa na negatywne doświadczenie użytkowników, jak również firm wykorzystujących API, które muszą dostosowywać się do zmian.
Google będzie chciało przygotować się na takie wyzwania szczególnie przed rozszerzeniem swoich głównych produktów o możliwości Gen AI. Dlatego prawdziwy test tej technologii nastąpi po wdrożeniu do search’a czy Google Workspace, z których korzystają miliardy użytkowników. Google ma zdecydowanie więcej do stracenia niż OpenAI, dlatego jego ruchy będą bardziej ostrożne.
Rozszerzenie Google Bard o kolejne języki to nie jedyny duży news z zeszłego tygodnia. Meta wypuściła drugą wersję swojego modelu językowego – Llama 2. Jest to inne podejście niż OpenAi czy Google, ponieważ bazuje na licencji open-source i umożliwia komercyjne wykorzystanie. Przy możliwościach zbliżonych do wcześniej wymienionych modeli sprawia, że staje się ciekawą alternatywą dla użytkowników i firm, którzy cenią większą transparentność i elastyczność. Ponadto Meta ogłosiła partnerstwo z Qualcomm – od 2024 r. Llama 2 będzie mogła zostać uruchomiona na procesorach Qualcomm na urządzeniach mobilnych i PC. Takie posunięcie znacząco obniży koszty i przyspieszy generowanie odpowiedzi w porównaniu do wykorzystania chmury, co jest szczególnie ważne w interakcjach z wirtualnymi asystentami na naszych telefonach.
Wszystko wskazuje na to, że również Apple dołącza do wyścigu Generative AI. Po wcześniejszych wiadomościach o poszukiwaniu ekspertów Gen AI, teraz firma testuje wewnętrznie swoją wersję chata. Ciągle nie jest znana strategia Apple, jednak pierwszych ogłoszeń należy się spodziewać w przyszłym roku. Można przypuszczać, że ruchy firmy z Cupertiono będą najbardziej ostrożne ze względu na dbałość o prywatność użytkowników ich produktów.
Zaangażowanie big techów w Generative AI znacząco zwiększa szansę na masową adopcję tej technologii i rozwój narzędzi do budowania własnych rozwiązań. Dzięki temu każdy z nas zyska kompana(-ów), który pomoże w brainstormingu, tworzeniu prezentacji, ale także w doborze ćwiczeń czy korepetycjach z matematyki.