INNOWACJEGoogle DeepMind testuje „trenera życia osobistego” AI. Czy to dobry pomysł?

Google DeepMind testuje „trenera życia osobistego” AI. Czy to dobry pomysł?

Jak donosi The Guardian[1], Google DeepMind testuje nowy produkt, tzw. trenera życia osobistego AI. Oparty na uczeniu maszynowym model będzie m.in. w stanie odpowiadać na pytania dotyczące relacji międzyludzkich i komunikacji. Czy sztuczna inteligencja może dobrze doradzać w dziedzinie relacji społecznych? Czy potrafi zrozumieć ludzkie uczucia i emocje? Czy porady AI mogą zaszkodzić naszym kontaktom społecznym?

Od kiedy narzędzie oparte na AI stały się szeroko dostępne, są one źródłem cennych informacji dla wielu osób. Pytania, które im zadajemy, nie ograniczają się do zapytań o dane, tłumaczeń czy próśb o stworzenie gotowych tekstów. Użytkownicy i użytkowniczki bardzo często proszą również o porady związane z relacjami z innymi ludźmi, a nawet z życiem uczuciowym – tę informację potwierdzają ChatGPT i Google Bard. Obydwa chatboty przyznają jednak skromnie, że nie są ludźmi i nie są w stanie zrozumieć ludzkich emocji i zachowań[2].

Warto mieć na uwadze, że mechanizmy AI towarzyszą nam na co dzień od niespełna roku i z pewnością nie pokazały nam jeszcze swoich pełnych możliwości. Na rynku jest wciąż dużo miejsca dla nowych produktów, które wkroczą w kolejne dziedziny ludzkiego życia.

– Udane rozwiązania technologiczne to te, które potrafią rozwiązywać codzienne problemy wielu osób. To właśnie dzięki temu wyszukiwarka Google zdobyła tak niezwykłą popularność. Obecnie otrzymaliśmy nowe narzędzie, które potencjalnie może pomagać nam na co dzień, czyli właśnie AI. Oczywistym wydaje się zatem, że ludzie zaczną wykorzystywać je do rozwiązywania swoich realnych problemów, czyli również tych, związanych z relacjami międzyludzkimi – mówi Maria Mikołajczak, Product Manager, AI/ML w SoftServe Poland.

– Należy pamiętać, że firmy przekazały nam chatboty najnowszej generacji w zasadzie za darmo. Idąc za potrzebami użytkowników, zaczynają teraz tworzyć odpowiednio sprofilowane mechanizmy, aby realizować własne potrzeby biznesowe – dodaje Mateusz Mitula, Senior Data Scientist w StofServe Poland.

Nowe technologie, zwłaszcza te, które wkraczają w bezpośrednie interakcje z ludźmi, u wielu osób budzą obawy. Część z nich wiąże się po prostu z początkowym brakiem wiedzy wśród użytkowników – śmiało można sobie wyobrazić, że podobne wątpliwości budził telefon, kiedy został po raz pierwszy zaprezentowany przez Alexandra Bella. Istnieją jednak pewne realne zagrożenia, z których warto zdawać sobie sprawę.

Emergencja, czyli nie wszystko da się przewidzieć

Teoretycznie rzecz biorąc, modele językowe oparte na uczeniu maszynowym są w stanie tworzyć komunikaty tylko i wyłącznie na podstawie wiedzy, która została im przekazana przez ludzi. W końcu to ich twórcy trenują je, skrzętnie wybierając informacje, które mają być podstawą ich zachować. Należy jednak pamiętać, że w nauce od zasad często zdarzają się wyjątki.

– W robotyce istnieje zjawisko nazywane emergencją. To taki niemożliwy do przewidzenia pierwiastek. Tworzone przez nas systemy są w stanie, na podstawie dostarczonej im wiedzy, wyciągnąć wnioski, których nikt do tej pory nie wysunął. Dobrym przykładem jest słynna partia gry w Go, w której AI pokonało jej mistrzów, wykonując ruch, który doświadczonym graczom wydawał się bezsensowny. Można zatem domniemywać, że ta wiedza nie pochodziła od ludzi, a była wytworem sztucznej inteligencji – opowiada Mariusz Janiak, (Co-)simulation and Optimization Expert w SoftServe Poland.

Można zatem wyobrazić sobie, że chatbot zapytany o poradę związaną z relacjami międzyludzkimi, bazując na wiedzy teoretycznej, otrzymanej od swoich twórców, może udzielić odpowiedzi, na które nikt z nas nigdy by nie wpadł. W tym momencie pojawia się obawa, że jeżeli ludzie zaczną postępować zgodnie z poradami sztucznej inteligencji, świat relacji i związków zmieni się nie do poznania. Czy w takiej sytuacji będziemy w stanie dalej poruszać się w tym świecie bez potrzeby pytania o wskazówki AI?

Istotną kwestią z pewnością jest również ochrona danych osobowych. Każdy, kto będzie rozmawiał z AI o innej osobie, może udzielić narzędziu informacji, na które bohater lub bohaterka opowieści nie wyrazili zgody. W tej sytuacji to firmy, których własnością są rozwiązania sztucznej inteligencji, staną się właścicielami tych danych. Plotkowanie ze sztuczną inteligencją może więc nieść za sobą znacznie poważniejsze skutki niż pogaduszki ze znajomymi.

Kolejnym ryzykiem, które pojawia się na horyzoncie jest utrata spontaniczności i bezpośredniości w naszych kontaktach z innymi ludźmi. Można sobie wyobrazić, że w obawie przed oceną innych, ludzie zaczną konsultować z AI każdą planowaną interakcję.

– Większość popularnych obaw wydaje się być mocno „na wyrost”. Pewnie kwestie wymagają jednak zaplanowania i ustrukturyzowania, być może nawet regulacji na poziomie państwowym. Pozostałe da się rozwiązać solidną edukacją. Użytkownicy muszą znać możliwości i ograniczenia AI i wiedzieć, że to na nich spoczywa odpowiedzialność za działania oparte na robotycznych poradach – mówi Mateusz Mitula i dodaje – mamy już pewne doświadczenia z edukacją związana z mediami społecznościowymi i bezpieczeństwem w intrenecie. Bazując na tym, możemy uczyć użytkowników również o AI. I warto robić to już teraz, zanim sztuczna inteligencja stanie się dla nas codziennością.

– Zasób wiedzy, na którym opierają się modele AI to w dużej części treści, które tworzymy i publikujemy w internecie. W ten sposób wszyscy, nie tylko przedstawiciele firm, mamy wpływ na to, jak będą działać modele oparte na uczeniu maszynowym. Im lepsza jakoś treści w intrenecie, tym lepsze mechanizmy na jej podstawie powstaną. Warto o tym myśleć publikując treści – przekonuje Maria Mikołajczak.

AI ma hamulce

W obecnej chwili odpowiedzią na większość obaw jest fakt, że AI nadal budują i rozwijają ludzie. To my tworzymy mechanizmy sztucznej inteligencji, uczymy sieci, selekcjonujemy informacje, którymi się posługują, a na koniec wyznaczamy dla nich granice. Osoby, które tworzą modele językowe, decydują w pewnym zakresie o tym, na jakie tematy sieci nie będą rozmawiały. Dla przykładu Chat GPT przyznaje, że są zagadnienie, w których zachowuje wyjątkową ostrożność np. nielegalna działalność, nienawiść i dyskryminacja, bezpieczeństwo i prywatność, porady medyczne i prawne czy osobiste informacje dotyczące użytkowników[3].

Podobnie sytuacja ma się z technologiami, które generują materiały graficzne. Nie każdy obraz, który będziemy chcieli otrzymać, zostanie stworzony. Generatory odmawiają wykonywania części poleceń.

Na ten moment nie ma więc powodu, aby podejrzewać, że osobiści asystenci oparci na AI będą działali bez żadnych, określonych przez ludzi ograniczeń. Istotne jest jednak, aby sposób tworzenia ich modeli językowych był jak najbardziej transparentny. Przejrzystość działań pozwoli na lepsze i powszechne zrozumienie tej technologii, a to powinno doprowadzić do zmniejszenia wielu obaw.

[1] https://www.theguardian.com/technology/2023/aug/17/google-deepmind-testing-personal-life-coach-ai-tool

[2] Informacja oparta na odpowiedziach udzielonych przez ChatGPT i Google Bard.

[3] Jak wyżej.

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...
Exit mobile version