TECHNOLOGIAKto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

Kto odpowiada za szkody wyrządzone przez sztuczną inteligencję?

  • 56% firm korzysta ze sztucznej inteligencji, najczęściej do monitorowania, serwisowania i zapobiegania awariom sprzętów.
  • Kluczową kwestią w ubezpieczeniu AI jest ustalenie odpowiedzialności za szkody.
  • Unijne regulacje proponują obowiązkowe OC dla użytkowników i twórców sztucznej inteligencji.

Pod koniec zeszłego roku 56% firm korzystało ze sztucznej inteligencji (AI), wynika z badania przeprowadzonego przez McKinsey[1]. To o 6 pkt procentowych więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27%), udoskonalenia produktów (22%), automatyzacji contact center (22%), optymalizacji produktów (20%) oraz zapobiegania awariom i ułatwiania interwencji (18%). Na dalszych miejscach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym, zabezpieczeniem mienia.

Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny, Z-ca Dyrektora Oddziału Kraków EIB SA.

Kto jest odpowiedzialny za sztuczną inteligencję?

Mimo że funkcjonują już na rynku umowy ubezpieczenia, uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie. A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Co więcej, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. To tylko część pytań, które na razie pozostają bez jasnej odpowiedzi, więc każdy przypadek rozpatrywany jest indywidualnie.

Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje Mateusz Bartoszcze z EIB SA.

Obowiązkowe OC dla sztucznej inteligencji

Nowe rodzaje ubezpieczeń wydają się więc koniecznością. Już jakiś czas temu UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Co więcej, w 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt. Ustalono też, na wzór regulacji dotyczących OC samochodowego, sugerowane sumy gwarancyjne tych ubezpieczeń. Są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz 1 miliona euro w przypadku szkód rzeczowych.

Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze z EIB SA.

Źródło: EIB SA.

[1] Źródło: https://www.mckinsey.com/business-functions/quantumblack/our-insights/global-survey-the-state-of-ai-in-2021

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...