TECHNOLOGIASztuczna inteligencja wpływa na nasze życie na tyle, na ile jej pozwolimy

Sztuczna inteligencja wpływa na nasze życie na tyle, na ile jej pozwolimy

Dzisiaj niemożliwe stało się faktem. Technologia dogania nas w zakresie analizy obrazu, komunikacji językowej, a nawet… tworzenia sztuki, czy wirtualnej rzeczywistości. Mając zdjęcie osoby można z tego jednego zdjęcia stworzyć wideo, a dysponując dodatkowo zapisem jej głosu, fachowiec jest w stanie zbudować syntezator mowy i sprawić, że powie własnym głosem rzeczy, których nigdy nie powiedziała – mówi Kamil Konikiewicz, dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP w rozmowie z PAP.

Tegoroczna pandemia Covid-19 znacząco przyspieszyła proces cyfryzacji. Inteligentne rozwiązania w postaci „uczących się” algorytmów stosowanych w programach komputerowych czy w aplikacjach na smartfony stały się powszechne. Wprowadzamy AI (ang: Artificial Intelligence) do naszego życia korzystając z serwisów społecznościowych, platform streamingowych, instalując różne urządzenia i wyrażając zgodę na przetwarzanie danych nas dotyczących.

Jak wyjaśnia Kamil Konikiewicz, nie istnieje dotąd w pełni autonomiczna AI, co oznacza, że algorytmy nie są w stanie uczyć się bez nadzoru człowieka. Ktoś musi im wskazać, że na tym konkretnym zdjęciu znajduje się pies albo, że rozmowa dotyczy koronawirusa. Dane muszą być w odpowiedni sposób przygotowywane, kategoryzowane i opisywane. Dopiero po dostarczeniu odpowiednio dużej ich próby algorytm zaczyna się uczyć.

„Umiejętności, które nabywają algorytmy w zakresie punktowych zastosowań są niesamowite. Potrafią już np. lepiej niż ludzie opisywać to co widzą na zadanym obrazie, a nawet tworzyć sztukę – >>malując<< obrazy lub komponując utwory muzyki klasycznej. Są też świetne w gry – dzisiaj ucząc ich np. gry w szachy sadzamy naprzeciw siebie dwa algorytmy, wczytujemy im zasady gry, one zaczynają ze sobą grać i w ciągu kilku godzin za pomocą tzw. uczenia wzmacnianego osiągają poziom arcymistrzowski” – wyjaśnia Konikiewicz.

Dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP jest współtwórcą asystenta głosowego w bankowej mobilnej aplikacji IKO. Asystent wykorzystuje zaawansowaną analitykę i algorytmy sztucznej inteligencji, aby umożliwić użytkownikom załatwianie spraw bankowych przy pomocy komend głosowych, np. przelewu, doładowania telefonu, wyszukiwania transakcji w historii konta, podania kodu BLIK.

System rozumie język naturalny i nie narzuca sposobu komunikacji. Można komunikować się z nim w zupełnie nieskrępowany sposób. Do jego uczenia użyto już ponad 100 tys. zwrotów, również kolokwialnych. Sprawdzenie stanu konta można zlecić na ponad 2 tys. sposobów, a przelew zrobić, mówiąc na przykład: „pchnij stówkę do Janka”. Co ważne, lista zwrotów które zrozumie algorytm jest znacznie większa, można rozmawiać z nim w sposób zupełnie naturalny.

Aplikacje bankowe działają jednak w bardzo surowym reżimie prawa polskiego i europejskiego nakładającego wymagania, co do zabezpieczenia transakcji . Każde logowanie i istotna transakcja muszą być potwierdzone mocną metodą autoryzacyjną – wpisaniem PIN-u czy podaniem kodu autoryzacyjnego. Przewidziana jest również możliwość ustawienia funkcji odcisku palca lub rozpoznawania twarzy.

„Przenieśliśmy sporo życia do sieci, a w ślad za nami ruszyli tam cyberprzestępcy – zwraca uwagę Konikiewicz. – Jako duży bank jesteśmy narażeni – my i nasi klienci – na różnego rodzaju ataki czy zagrożenia, natomiast stopień naszych zabezpieczeń jest bardzo wysoki – nie tylko na poziomie aplikacji i systemów, ale również na poziomie zabezpieczeń konta e-mail czy służbowego telefonu. Mamy też bardzo prężnie funkcjonujące działy bezpieczeństwa i cyberbezpieczeństwa” – zapewnia.

Jak zaznacza dyrektor Biura Rozwoju AI w PKO BP, „sztuczna inteligencja ingeruje w nasze życie na tyle, na ile jej pozwolimy”. „Ludzie potrafią w rozmowie z wirtualnymi asystentami zdradzać informacje, których nie powinni, nawet dane wrażliwe. Projektanci tego typu rozwiązań powinni te dane chronić, czasem nawet ”ustami” bota powstrzymać przed ich ujawnianiem, kiedy nie jest to wymagane” – podkreśla Konikiewicz.

Jego zdaniem, świat wirtualny niesie ogromne szanse, ale też pewne zagrożenia. Popularyzacja mediów społecznościowych oraz smartfonów (także cyfrowych smart-zegarków czy opasek) powoduje, że gromadzą one coraz więcej danych o użytkownikach i ich otoczeniu.

„Fałszywe informacje, materiały dźwiękowe i wizualne to gigantycznie wyzwania, na które nie jesteśmy jeszcze cywilizacyjnie gotowi” – zaznacza Konikiewicz.

Ogromnym wyzwaniem stojącym przed instytucjami regulującymi zagadnienia sztucznej inteligencji jest wykładniczy rozwój tej dziedziny – tzn. liczba zastosowań jest tak gigantyczna, że stworzenie uniwersalnego prawa, regulującego wszystkie możliwe warianty zastosowań AI, jest skrajnie trudne.

Dla twórców programów i aplikacji wyzwanie stanowi dostępność danych (w przypadku asystenta głosowego konkretnych rozwiązań dla języka polskiego) oraz regulacje dotyczące prywatności.

„Najtrudniej jest regulować i nadzorować wielkie organizacje globalne, jak GAFA (Google, Amazon, Facebook, Apple), więc przymyka się oko na przypadki działania w „szarej strefie”. Jeżeli np. w popularnym komunikatorze internetowym pojawiają się reklamy w kontekście tego, co powiedziałem lub zobaczyłem w trakcie wideo-rozmowy z moim znajomym – to coś jest nie w porządku, bo nie przypominam sobie, żebym zezwalał na analizowanie strumienia wideo albo strumienia dźwięku z prywatnych rozmów” – zauważa Konikiewicz.

„Największe mocarstwa światowe inwestują grube miliardy dolarów w rozwój AI. Kto zawojuje ten rynek – zawojuje mocniejszą pozycję geopolityczną w przyszłości – dodaje. – Mamy mnóstwo inteligentnych, zdolnych ludzi znających się na tej technologii i dobrze byłoby zrobić z tego użytek – zbudować centra rozwojowe, centra edukacyjne i użyć potencjału intelektualnego, żeby przygotować społeczeństwo na odpowiedzialne wykorzystanie takiej technologii” – wskazuje.

W opinii eksperta, byłoby pożyteczne, żeby technologia związana ze sztuczną inteligencją rozwinęła się przede wszystkim w sektorze publicznym – w szczególności we wsparciu diagnostyki w ochronie zdrowia, bezpieczeństwie, cyberbezpieczeństwie, w rozwiązywaniu problemów społecznych takich jak przemoc domowa, bezrobocie, a także przy monitorowaniu ochrony środowiska.

Rozwój technologii to również zapotrzebowanie na wysokiej klasy specjalistów: Data Scientists, Inżynierów AI, programistów, projektantów UX, a w przypadku asystentów głosowych, również lingwistów.

Według Konikiewicza, potrzebne są inicjatywy, które spowodują, że tzw. „przeciętny obywatel ” będzie wiedział więcej na temat AI. W Polsce są wprawdzie nieśmiałe próby wprowadzania programów edukacyjnych i inwestycyjnych czy działania fundacji pro publico bono, które mają na celu kształcenie obywateli. Jednak zbliżenie sektora naukowego i biznesowego, jeżeli chodzi o polski rynek, na razie jest jeszcze na zbyt wczesnym etapie w stosunku do rozwoju i popularyzacji tej technologii.

Konikiewicz wskazuje również na potrzebę wprowadzenia już na poziomie szkoły podstawowej przedmiotu „media cyfrowe”, podczas którego dzieci i młodzież zdobywałyby wiedzę o możliwościach nowoczesnych technologii, ale i o niebezpieczeństwach związanych z ich niewłaściwym stosowaniem.

„Materiału wystarczyłoby na kilka lat nauczania” – podkreśla ekspert PKO Banku Polskiego.

Źródło informacji: PAP MediaRoom

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...
Exit mobile version