PRAWOCzy polskie firmy są gotowe na bezpieczne korzystanie ze sztucznej inteligencji?

Czy polskie firmy są gotowe na bezpieczne korzystanie ze sztucznej inteligencji?

Czy polskie firmy są gotowe na bezpieczne korzystanie ze sztucznej inteligencji?

Korzystanie ze sztucznej inteligencji w polskich firmach wciąż przypomina trochę dziki zachód. Brak jasnych zasad i dopiero powstające regulacje nie sprzyjają zachowaniu bezpieczeństwa. A ryzyka dla firm są wcale niemałe – utrata poufności danych, rozproszona odpowiedzialność za podejmowanie błędnych decyzji, naruszenia własności intelektualnej, niezgodność z regulacjami oraz problemy z międzynarodowym transferem danych, to tylko kilka z nich. Według najnowszej checklisty bezpiecznego używania AI w firmie, stworzonej przez kancelarię LAWMORE, przedsiębiorcy powinni odpowiedzieć sobie na ponad … 100 pytań.

Korzyści płynące z bezpiecznego i zgodnego z prawem korzystania z AI są bezsprzeczne. AI pozwala na automatyzację procesów, oszczędność czasu i zasobów, poprawę decyzji biznesowych dzięki analizie danych, lepszą obsługę klienta. Wspiera rozwój innowacyjnych produktów i usług. Ale większe możliwości, to także większa odpowiedzialność.

Zacznijmy od tego, że niektóre firmy nawet nie wiedzą, jakie narzędzia AI są używane przez ich pracowników. A przecież jedną z kluczowych kwestii jest regularne sprawdzanie regulaminów tych narzędzi. Transparentność w komunikacji z klientami na temat wykorzystania AI w obsłudze i innych procesach również nie jest taka oczywista w wielu firmach. Narzędzia sztucznej inteligencji upowszechniły się wraz z wydaniem w 2022 roku usług i modeli AI do generowania grafiki Dall-e, StableDiffusion oraz usługi chatu ChatGPT. Jednak wdrożenie zasad bezpieczeństwa, określenie zasad korzystania z AI, w tym lista dozwolonych i zabronionych zastosowań AI w firmie, jest wciąż rzadkością. Dla właścicieli firm ważne jest nie tylko zrozumienie, jak AI może zwiększyć efektywność i innowacyjność, ale także to, jak mogą zapewnić bezpieczne i odpowiedzialne jej użycie – wskazuje Aleksandra Maciejewicz, rzeczniczka patentowa i prawniczka w kancelarii LAWMORE.

Shadow AI

Eksperci ostrzegają przed rosnącym zagrożeniem tzw. „Shadow AI” w polskich organizacjach. Zjawisko to stanowi poważne wyzwanie dla bezpieczeństwa danych i zgodności z regulacjami prawnymi.

Problem ten może wynikać w szczególności z braku formalnych zasad i procedur dotyczących korzystania z narzędzi AI w firmach. – Z moich obserwacji wynika, że w większości przypadków mamy do czynienia z biurową partyzantką. Firmy ignorują skalę problemu korzystania z AI w codziennej pracy, natomiast pracownicy pozostawieni sami sobie, korzystają z darmowych narzędzi AI, zasilając algorytmy firmowymi danymi. Ale takie działanie może się też dziać w imię szybkości i elastyczności, ponieważ centralne procesy mogą być wolniejsze od tempa, w jakim chciałyby działać poszczególne działy – podkreśla Maciejewicz.

Pracownicy często nie są świadomi ryzyk związanych z używaniem nieautoryzowanych narzędzi AI. Brak szkoleń i jasnych wytycznych sprawia, że korzystają z dostępnych darmowych rozwiązań, które mogą nie spełniać wymogów bezpieczeństwa. Dodatkowo firmy nie wdrażają oficjalnych rozwiązań AI, co zmusza pracowników do poszukiwania własnych narzędzi. Brak wsparcia ze strony kierownictwa i niechęć do inwestowania w nowe technologie sprzyja rozwojowi „shadow AI”.

Eksperci z LAWMORE apelują o pilne podjęcie działań mających na celu zwiększenie świadomości i edukacji w zakresie AI, a także wdrożenie formalnych procedur i polityk. – Zarządzanie ryzykiem związanym z AI powinno stać się priorytetem dla każdej organizacji. Kluczowe jest, aby firmy nie tylko dostrzegły problem, ale także aktywnie wdrażały rozwiązania zapobiegające niekontrolowanemu użyciu AI – dodaje Maciejewicz.

Checklista bezpiecznego korzystania z AI

Do wdrożenia niezbędnych zasad bezpieczeństwa firmy potrzebują jednak drogowskazów. Dlatego kancelaria LAWMORE wyszła z inicjatywą stworzenia praktycznej checklisty, która ma na celu pomoc firmom w bezpiecznym i zgodnym z prawem korzystaniu z technologii sztucznej inteligencji (AI). Dokument ten jest przydatnym narzędziem dla każdej firmy, która chce efektywnie wykorzystać AI, jednocześnie minimalizując ryzyka prawne i operacyjne.

Jak zaznaczają eksperci LAWMORE, implementacja AI w firmie wymaga indywidualnego podejścia, dostosowanego do specyfiki działalności. Pytań, które powinny sobie zadać firmy, jest niemało. Checklista LAWMORE zawiera ich ponad 200. Koncentruje się przy tym na wielu aspektach związanych z wykorzystaniem AI w biznesie. Pomaga firmom zbadać, co właśnie w mojej firmie jest najpilniejszego do zaadresowania pod kątem AI zarówno w polityce przedsiębiorstwa, jak i RODO, IT czy HR.

Dodatkowo, oprócz zadania sobie kluczowych pytań i wprowadzenia zasad bezpieczeństwa, niezbędne jest organizowanie szkoleń i warsztatów na temat bezpiecznego i efektywnego korzystania z AI w firmach. Wytyczne w tym zakresie nie są statyczne i co jakiś czas pojawiają się nowe ryzyka związane z AI. Ponadto to przedsiębiorstwa muszą także ustalić standardowe klauzule umowne dotyczące monitoringu i odpowiedzialności dostawców AI oraz opracować procedury anonimizacji danych, i zapewnić zgodność z przepisami RODO. Regularne audyty narzędzi AI oraz monitorowanie zmian regulacyjnych, i technologicznych są równie istotne – podkreśla ekspertka LAWMORE.

Nadchodzi AI Act

Nowo opublikowana checklista pojawiła się też dla przedsiębiorców w idealnym czasie. 12 lipca 2024 roku Komisja Europejska opublikowała w Dzienniku Urzędowym nowe Rozporządzenie o sztucznej inteligencji (AI Act), co oznacza, że swój bieg zaczynają terminy wyznaczone w akcie. Jest to pierwszy tego rodzaju akt prawny, który kompleksowo reguluje kwestie związane ze sztuczną inteligencją na terenie Unii Europejskiej. Rozporządzenie to nakłada na firmy obowiązek spełnienia szeregu wymogów dotyczących przejrzystości, odpowiedzialności oraz bezpieczeństwa w kontekście użycia AI. Checklista przygotowana przez kancelarię LAWMORE stanowi dobre uzupełnienie działań, które firmy będą musiały podjąć w celu dostosowania się do nowych przepisów. Dzięki temu przedsiębiorstwa będą lepiej przygotowane do wdrożenia AI Act i zapewnienia zgodności swoich działań z nowymi regulacjami.

“Checklista bezpiecznego korzystania z AI w firmie” kancelarii LAWMORE jest dostępna bezpłatnie na stronie internetowej lawmore.pl.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...