Rada Unii Europejskiej przyjęła (2 lutego) finalną wersję Aktu o Sztucznej Inteligencji (AI Act). Stanowi on odpowiedź przede wszystkim na niektóre wyzwania etyczne związane z wykorzystaniem technologii AI, ukierunkowuje jej odpowiedzialny i bezpieczny rozwój. To niezmiernie ważne, bo rozwój AI i jej wpływ na globalną gospodarkę wykazuje bardzo silny wzrost.
W piątek, 2 lutego 2024 r., po trzech latach prac Rada Unii Europejskiej formalnie przyjęła finalną wersję Aktu o Sztucznej Inteligencji (AI Act). Jest oczekiwane, że wkrótce przyjmie ją także Parlament UE, już bez istotnych zmian tekstu. Rozporządzenie wejdzie w życie 20 dni po jego opublikowaniu. Otworzy się wówczas bieg kilku terminów, trwających od 6 miesięcy do 3 lat, na wydanie aktów prawa wtórnego oraz na dostosowanie się do nowych regulacji zarówno przez instytucje publiczne, jak i przez przedsiębiorców.
AI Act ma charakter Rozporządzenia Parlamentu i Rady UE, więc będzie bezpośrednio obowiązywał w krajach członkowskich. Kwestie techniczne i wykonawcze zostaną rozstrzygnięte przez wydanie przez KE aktów delegowanych i wykonawczych. W pewnych obszarach kraje członkowskie będą musiały przyjąć własne akty prawne, np. ustanowienie organów nadzoru.
Prace nad analogiczną regulacją prowadzone są przez administrację waszyngtońską, władze chińskie i Grupę G7, lecz są one na znacznie wcześniejszym etapie.
Z istniejących szacunków wynika, że wpływ sztucznej inteligencji (AI) na gospodarkę światową będzie bardzo istotny, aczkolwiek prognozy są bardzo zróżnicowane. Chris Hyzy, dyrektor do spraw inwestycji, Merrill and Bank of America Private Bank stwierdził, że sztuczna Inteligencja spowoduje transformację globalnej gospodarki, tak jak to uczyniły w swoim czasie wynalazki elektryczności, czy maszyny parowej.(1) Z przytoczonych przez niego danych wynika, że w 2020 roku przychody sektora sztucznej inteligencji wyniosły 318 miliardów USD, a w roku 2026 wyniosą 900 miliardów USD. Wkład sztucznej inteligencji w gospodarkę globalną do roku 2030 wyniesie około 15,7 bilionów USD, między innymi dzięki wpływowi AI na wzrost wydajności pracy. Według prognoz „Statista” w 2024 roku rynek globalny sztucznej inteligencji osiągnie wartość około 300 miliardów dolarów USA, aby wzrosnąć w roku 2030 do prawie 2 bilionów dolarów.(2) Z kolei bank Goldman Sachs w kwietniu 2023 roku prognozował, że rozwój i wykorzystanie generatywnej AI przyniesie w ciągu 10 lat wzrost globalnego PKB o 7 proc, czyli o 7 bln US$ i wzrost produktywności o 1,5 proc.(3) Tak znaczące różnice w danych historycznych, jak i w prognozach wynikają zapewne z odmiennego definiowania składowych rynku AI, a także z ciągle dużej niepewności co do potencjału AI.
Debiut na rynku w roku 2022 platformy AI ChatGTP, wykorzystującej przetwarzanie języka naturalnego (NLP), spowodował gwałtowny wzrost zainteresowania generatywną sztuczną inteligencją. Uważa się, że szybki rozwój NLP, uczenia maszynowego i technologii deep learning wpłynie niezwykle silnie na wiele aspektów życia społecznego. Przynosi on już dzisiaj szereg wyzwań, związanych z ochroną prywatności, kwestiami etycznymi, czy rynkiem pracy. Niedawno publikowany raport Międzynarodowego Funduszu Walutowego (MFW) przewiduje, że około 40 proc. wszystkich miejsc pracy na świecie zostanie dotknięta przez rozwój sztucznej inteligencji, przy czym aż około 60 proc. w krajach wysoko rozwiniętych. Autorzy raportu ostrzegają, że oprócz pozytywnego wpływu, jakim będzie wzrost wydajności pracy, istnieje groźba zwiększenia nierówności społecznych na świecie w zależności od mniejszej lub większej zdolności do wykorzystania AI w gospodarkach poszczególnych krajów. Aby móc monitorować te zagrożenia MFW przygotował Wskaźnik Gotowości na Sztuczną Inteligencję (AI Preparedness Index) oceniający takie obszary, jak infrastruktura cyfrowa, kapitał ludzki, polityka rynku pracy, innowacje, integracja gospodarcza, a także kwestie etyki i regulacje. (4)
Unijny AI Act stanowi odpowiedź przede wszystkim na konieczność ukierunkowania jej odpowiedzialnego i bezpiecznego rozwoju. Zgodnie z podejściem opartym na ryzyku, systemy sztucznej inteligencji będą klasyfikowane w ramach czterech grup, w zależności od poziomu ryzyka jaki stwarzają w szczególności dla zdrowia, bezpieczeństwa i naruszenia praw podstawowych.
W odniesieniu do systemów nieakceptowalnego ryzyka wejdzie zakaz ich wprowadzania do obrotu, oddawania do użytku lub wykorzystywania. Do takich systemów zostały zaliczone przykładowo te, które, wykorzystują techniki podprogowe, manipulacyjne lub zwodnicze, i przez to istotnie zniekształcają zachowanie danej osoby czy grupy osób, znaczne ograniczając jej zdolności do podjęcia świadomej decyzji, powodując podjęcie przez nią decyzji, której inaczej by nie podjęła, w sposób wyrządzający lub mogący wyrządzić tej lub innej osobie znaczną szkodę/krzywdę. Dla systemów wysokiego ryzyka obowiązywać będą restrykcyjne wymogi co do ich tworzenia/rozwijania, wykorzystywania, udostępniania i zarządzania. W szczególności dotyczy to zapewnianej jakości i odpowiedniości danych, dokumentacji, przejrzystości, informacji, nadzoru ze strony człowieka. Dla systemów niskiego ryzyka stopień reglamentacji i ograniczeń będzie znacząco mniejszy, a czwarta grupa systemów znajdzie się zasadniczo poza ograniczeniami.
AI Act ustanawia także publicznoprawny system nadzoru nad niektórymi systemami AI. Przedsiębiorcy muszą jednak pamiętać także o tym, że niedługo wejdą w życie obowiązki wynikające z innych nowych unijnych regulacji odnoszących się w szczególności do cyberbezpieczeństwa systemów informatycznych (w niektórych przypadkach ograniczone sektorowo), takie jak przykładowo NIS2, DORA, CER, czy odnoszące się do usług cyfrowych i rynku cyfrowego DSA i MSA. Mogą one nakładać się na wymagania AI Act. Warto też zwrócić uwagę na opublikowanie w grudniu 2023 r. normy ISO/IEC 42001 dotyczącej ustanowienia skonsolidowanych ram dla zarządzania systemami AI, która to w znaczącym zakresie, choć na bardzo ogólnym poziomie, jest spójna z wymogami AI Act. Unia Europejska brała aktywny udział w jej wypracowywaniu, w koordynacji z pracami nad tekstem AI Act.
Z prawnego punktu widzenia tekst AI Act, posługując się dość ogólnymi i niedookreślonymi pojęciami, będzie wprawdzie odporniejszy na następujące z czasem zmiany technologiczne, jednak w praktyce wielokrotnie zrodzi niepewność co do zakresu i sposobu jego zastosowania, wymagając dokonywania przez prawników wykładni, na której straży stał będzie TSUE. Od jego wykładni, jak również od przyszłych aktów wykonawczych i delegowanych KE, zależeć będzie ostateczne znaczenie tej regulacji.
Unijny AI Act wymusi przede wszystkim wzmocnienie jakości zarządzania systemami bazującymi na AI, ukierunkuje jej rozwój na wzmocnienia zabezpieczeń przed nieetycznym wykorzystaniem oraz polepszy sytuację osób fizycznych wchodzących w interakcję z systemami AI lub dotkniętych ich oddziaływaniem. W przyszłej unijnej dyrektywie o pozakontraktowej cywilnoprawnej odpowiedzialności odszkodowawczej za szkody wyrządzone przez systemy AI, zawarta zostanie regulacja niektórych zasad odpowiedzialności za szkody wyrządzone przez systemy AI. Zgodnie z aktualnym tekstem tej propozycji legislacyjnej, będzie ona skupiać się w głównej mierze na korzystnym dla osoby fizycznej określeniu ciężarów dowodowych dotyczących kwestii mających znaczenie dla przypisania odpowiedzialności odszkodowawczej (np. istnienia związku przyczynowego), jak i na innych ułatwieniach dowodowych.
AI Act stanowi więc zaledwie początek drogi do sprostania stworzonym przez AI wyzwaniom, przed którymi stoją dzisiaj i państwa, i przedsiębiorcy i obywatele. Powinny być one uzupełnione przez samoregulacje przyjmowane przez przedsiębiorców, jak i mądrą politykę państw, wykorzystującą szanse stwarzane przez AI dla całej gospodarki i społeczeństwa oraz mitygującą pojawiające się ryzyka.
Autorzy:
dr hab. Iwona Karasek-Wojciechowicz, Uniwersytet Jagielloński, of counsel Lawspective, Członkini Towarzystwa Ekonomistów Polskich
Jacek Wojciechowicz, Collegium Civitas, Członek Towarzystwa Ekonomistów Polskich