PRAWOAI Act już za tydzień zmieni cyfrowy krajobraz Europy

AI Act już za tydzień zmieni cyfrowy krajobraz Europy

Wejście w życie aktu ws. sztucznej inteligencji (tzw. AI Act) może wstrząsnąć praktykami zarządzania danymi w  Unii Europejskiej. Wiele instytucji już teraz przygotowuje swoje rozwiązania, zapewniając bezpieczne wykorzystanie sztucznej inteligencji (AI). Magda Kotowska-Gawrylczyk, ekspertka ds. analityki danych z NatWest Group Polska, tłumaczy, dlaczego buduje odpowiedzialną technologię, nawet zanim AI Act stanie się obowiązującym prawem.

  • AI Act wprowadza regulacje dotyczące sztucznej inteligencji, kategoryzując narzędzia AI według poziomów ryzyka i nakładając nowe obowiązki na rządy i firmy.

Już za tydzień, 26 lutego Parlament Europejski może zatwierdzić AI Act (czyli unijny Akt o sztucznej inteligencji). Później ostatecznie zatwierdzi go Rada UE, a prawo zacznie obowiązywać 24 miesiące po ogłoszeniu.

Krajowi pracodawcy mogą już teraz rozpocząć przygotowania do przyjęcia regulacji na podstawie AI Act, który może znacząco wpłynąć na krajobraz sztucznej inteligencji, zarówno wśród użytkowników_czek, jak i dostawców technologii.

Regulacja pojawiła się w momencie, gdy AI wydaje się obowiązkowym elementem rozwoju firm. Od 2017 roku 250% więcej menedżerów deklaruje wykorzystanie AI, a ci, którzy tego nie robią, mogą stracić (McKinsey & Company). Natomiast Goldman Sachs przewiduje, że generatywna sztuczna inteligencja może podnieść globalne PKB o 7%, a 300 milionów pracowników na całym świecie będzie korzystać ze sztucznej inteligencji.

Według badań jest nad czym pracować, bo jak wynika z raportu Accenture 2022 Tech Vision, tylko 35% globalnych konsumentów ufa temu, w jaki sposób sztuczna inteligencja jest wdrażana przez organizacje. Ponadto 77% uważa, że organizacje muszą zostać pociągnięte do odpowiedzialności za niewłaściwe wykorzystanie sztucznej inteligencji.

Regulacja kategoryzuje narzędzia sztucznej inteligencji według różnych poziomów ryzyka, od niskiego do niedopuszczalnego, i nakłada odpowiednie obowiązki na rządy i firmy korzystające z tych narzędzi. Narzędzia AI wysokiego ryzyka, w tym te wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa, edukacji i systemach ogólnego przeznaczenia (GPAIS), takich jak Chat GPT, będą poddawane intensywnej kontroli.

Ekspertka ds. analityki danych i uczenia maszynowego tłumaczy czym jest sztuczna inteligencja i co czyni ją odpowiedzialną.– Algorytmy sztucznej inteligencji uczą się wzorców z danych, np. takich jak zdjęcia owoców. Używają reguł matematycznych do rozpoznawania i przewidywania poprawnej odpowiedzi. Analizując okrągły kształt i obecność ogonka, mogą zidentyfikować jabłka. Przy większej ilości danych poprawiają swoją dokładność. Odpowiedzialna sztuczna inteligencja zapewniłaby, że zdjęcia owoców i inne dane byłyby wykorzystywane w sposób bezpieczny i zgodny z przepisami dotyczącymi prywatności. Dodatkowo odpowiedzialna sztuczna inteligencja będzie również wyjaśniać swoje decyzje. Wyjaśniałaby, dlaczego dany owoc jest jabłkiem lub pomarańczą, pomagając użytkownikom zrozumieć przewidywania sztucznej inteligencji. Przejrzystość pomaga budować zaufanie i zapewnia, że sztuczna inteligencja podejmuje uczciwe i bezstronne decyzje – mówi Magda Kotowska-Gawrylczyk, Data & Analytics Manager w NatWest Group Polska, tłumacząc, czym jest odpowiedzialna sztuczna inteligencja, o którą AI Act chce zadbać.

Magda Kotowska-Gawrylczyk ocenia AI Act jako dowód na to, że odpowiedzialne podejście do sztucznej inteligencji jej zespołu było właściwym wyborem. – Nasze zastosowania obejmują zarówno poprawę obsługi klienta za pomocą chatbotów, jak i wykorzystanie uczenia maszynowego do zwiększenia ich cyberbezpieczeństwa.

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...
Exit mobile version