Etyka i poczucie palącej potrzeby, które leżą u podstaw odpowiedzialnego podejścia do sztucznej inteligencji, wynikają z wartości takich jak prywatność, bezpieczeństwo, sprawiedliwość i przejrzystość. Wiele nagłówków nie oddaje wyraźnie różnic między zjawiskami związanymi z AI – choćby uczeniem maszynowym, algorytmami adaptacyjnymi, głębokim uczeniem, przetwarzaniem języka naturalnego czy technologiami generatywnej sztucznej inteligencji (GenAI) – które napędzają obecny rozwój tej dziedziny. Ludzie obawiają się niewłaściwego wykorzystania swoich danych, błędnego interpretowania ich wypowiedzi i przypisywania ich pracy komuś innemu. Potęguje to atmosferę strachu, niepewności i wątpliwości.
Jak zachować kontrolę nad sztuczną inteligencją, aby nie wprowadzała użytkowników w błąd, nie rozpowszechniała fałszywych informacji ani nie wyrządzała innych szkód? W jaki sposób upewnić się, że modele AI wprowadzane do produktów nie naruszają praw autorskich, nie wzmacniają uprzedzeń ani nie pozbawiają kogoś pracy? Jak zapewnić sztucznej inteligencji niezbędny poziom samodzielności i autonomii, jednocześnie chroniąc zarówno konsumentów, jak i interesy firm?
Niełatwo znaleźć odpowiedzi na te pytania, zwłaszcza kiedy wartość AI stale rośnie oraz stale przybywa możliwości jej wykorzystania. Dobra wiadomość jest taka, że właśnie nad tymi zagadnieniami intensywnie pracują inżynierowie zajmujący się AI, naukowcy, eksperci prawni, osoby tworzące prawo oraz liderzy biznesu. Wszystko to dzieje się w momencie, gdy nowe regulacje próbują zbalansować odpowiedzialny rozwój sztucznej inteligencji z potrzebą innowacji biznesu. Zanim jednak przejdziemy do zasadniczego pytania – jak firmy mogą wdrażać w życie odpowiedzialne korzystanie z AI – powinniśmy najpierw zastanowić się, czym właściwie jest „odpowiedzialna sztuczna inteligencja”.
Jak zdefiniować „odpowiedzialną sztuczną inteligencję”?
Istnieje wiele różnych definicji, które zasadniczo sprowadzają się do podobnych wniosków, ale Międzynarodowa Organizacja Normalizacyjna (ISO) proponuje następującą wersję: „odpowiedzialna AI to podejście do tworzenia i wdrażania sztucznej inteligencji z uwzględnieniem aspektów etycznych i prawnych. Celem jest wykorzystanie AI w sposób bezpieczny, godny zaufania i etyczny. Odpowiedzialne podejście do sztucznej inteligencji powinno zwiększać przejrzystość i pomagać ograniczać takie zjawiska jak stronniczość AI”.
Choć idea odpowiedzialnej sztucznej inteligencji jest dość prosta, to przy jej wdrażaniu pojawiają się pewne trudności, bo różni interesariusze nie zawsze potrafią osiągnąć w tej kwestii porozumienie. Jak zauważyła Tess Valbuena, tymczasowa dyrektorka generalna Humans in the Loop, potrzeba nadzoru nad AI i zakres takiego nadzoru nie są tak obiektywne, jak wielu by sobie życzyło.
W tej chwili to firmy i poszczególni użytkownicy prywatni muszą samodzielnie określać ramy odpowiedzialnego korzystania ze sztucznej inteligencji oraz decydować, jak dostosować się do standardów etycznych oraz procesów nadzoru. Jednocześnie jednak wiele organizacji standaryzacyjnych, organów regulacyjnych i izb zawodowych stara się dostarczyć wytyczne w tej dziedzinie.
Na przykład w Stanach Zjednoczonych rozporządzenie wykonawcze w sprawie bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji z października 2023 r. („EO 14110”) wyznaczyło etap dalszego rozwoju standardów zarządzania ryzykiem w zakresie sztucznej inteligencji. Jeden z celów EO 14110 nakazywał Narodowemu Instytutowi Standardów i Technologii (NIST) opracowanie standardów generatywnej sztucznej inteligencji w ciągu 270 dni od wydania EO 14110. W lipcu 2024 r. NIST opublikował ramy zarządzania ryzykiem AI (RMF): Generative AI Profile (NIST AI 600-1), dokument towarzyszący AI RMF NIST, który został wcześniej opublikowany w styczniu 2023 roku.
Również w lipcu 2024 r. Unia Europejska (UE) uchwaliła pionierski akt prawny – EU AI Act – który stanowi pierwsze kompleksowe ramy prawne mające na celu uregulowanie rozwoju i wykorzystania sztucznej inteligencji.
Jak wdrożyć tę definicję w miejscu pracy?
Jakie dodatkowe działania powinny podjąć firmy, aby korzystać ze sztucznej inteligencji w sposób odpowiedzialny i zgodny z przyjętymi zasadami? To niełatwe pytanie, bo wszystko zależy od rodzaju wykorzystywanej AI oraz sposobu, w jaki dane przedsiębiorstwo ją wdraża (o czym wspomniano wcześniej w „prostym przykładzie”). Poniżej zamieszczamy jednak kilka uniwersalnych wskazówek:
- Sprawdź i zweryfikuj pochodzenie modelu lub narzędzia AI. Poznaj zasady etyczne, polityki i praktyki dostawcy sztucznej inteligencji oraz wszelkich innych stron zaangażowanych w jej szkolenie lub bieżący nadzór. Czy działali odpowiedzialnie podczas opracowywania i szkolenia modelu? Jakie są ich obecne i długoterminowe zamiary związane z modelem?
- Zrozumienie źródła danych wejściowych wykorzystywanych do trenowania modelu sztucznej inteligencji i sposobu postępowania z danymi wejściowymi. Czy istnieją mechanizmy kontroli zapobiegające udostępnianiu niepublicznych lub poufnych informacji poza instancją lub organizacją modelu? Czy firma może zaufać źródłu danych, jeśli model wykorzystuje dane wejściowe stron trzecich do świadczenia usług?
- Keep humans-in-the-loop (HITL). HITL to koncepcja przedstawiona w wielu zasobach wymienionych powyżej i omówiona bardziej szczegółowo w tym odcinku podcastu. Chcę jednak podkreślić, jak ważny jest ludzki nadzór nad systemami sztucznej inteligencji. Włączenie ludzkiego osądu i interwencji do procesu decyzyjnego AI może mieć kluczowe znaczenie dla zwiększenia bezpieczeństwa, niezawodności i zgodności z zasadami etycznymi.
- Uwzględnienie ryzyka przekłamań w przypadku każdego modelu AI i posiadanie wytycznych dotyczących weryfikacji wyników. Nie rozpowszechniaj ani nie używaj wyników AI bez potwierdzenia – i całkowitej pewności – ich dokładności. Nawet dobrze wyszkolone modele AI o niskim ryzyku mogą mieć błędy w swoich wynikach (podobnie jak ludzie). Ogólnie rzecz biorąc, najlepszą praktyką jest wdrożenie podejścia HITL, aby pomóc w zminimalizowaniu ryzyka błędów.
- Potwierdź prawo do wprowadzania danych z zewnętrznych źródeł do modelu sztucznej inteligencji i ustaw bariery ochronne, aby zapewnić, że dane nie zostaną wprowadzone do modelu bez odpowiednich uprawnień. Dane mogą obejmować wiedzę o klientach, partnerach, dostawcach lub ogólną wiedzę rynkową, historie i dane operacyjne, które mogą składać się z informacji poufnych, materiałów chronionych prawem autorskim, danych osobowych i innych danych, na których wykorzystanie może być wymagana zgoda.
- Właściwe oznaczanie źródeł wykorzystanych do generowania wyników AI. Niezwykle ważne jest, aby firmy uznawały pochodzenie danych podczas korzystania z AI do generowania treści, niezależnie od formatu lub zamierzonego zastosowania. Upewnij się, że kierownicy projektów Gen AI rozumieją różnice i korelacje między „autorstwem” a „własnością” treści lub produktów stworzonych przy użyciu AI. Zapewnienie właściwej atrybucji dla treści generowanych przez AI promuje kluczową koncepcję przejrzystości w odpowiedzialnych praktykach AI.
Pamiętaj, że odpowiedzialne praktyki AI to nie tylko zgodność z przepisami. Chodzi o uczciwość – o własny charakter i (szerzej) kulturę. I chociaż dodatkowe szkolenia i procedury uzupełniające są wskazane, aby zająć się niuansami AI i GenAI, organizacje powinny kierować się etyką korporacyjną, która służy jako zabezpieczenie.
Autor: Lee McLean, radca prawny i specjalista ds. sztucznej inteligencji, Zebra Technologies
Zastrzeżenie: Niniejsza publikacja służy wyłącznie celom informacyjnym i nie ma na celu, nie stanowi i nie powinna być traktowana jako porada prawna lub opinia prawna dotycząca jakichkolwiek konkretnych okoliczności lub faktów. W celu uzyskania porady dostosowanej do konkretnej sytuacji należy skonsultować się z wykwalifikowanym prawnikiem.