poniedziałek, 10 marca, 2025

Odpowiedzialna sztuczna inteligencja – jak zachować kontrolę i etykę w świecie AI?

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

Etyka i poczucie palącej potrzeby, które leżą u podstaw odpowiedzialnego podejścia do sztucznej inteligencji, wynikają z wartości takich jak prywatność, bezpieczeństwo, sprawiedliwość i przejrzystość. Wiele nagłówków nie oddaje wyraźnie różnic między zjawiskami związanymi z AI – choćby uczeniem maszynowym, algorytmami adaptacyjnymi, głębokim uczeniem, przetwarzaniem języka naturalnego czy technologiami generatywnej sztucznej inteligencji (GenAI) – które napędzają obecny rozwój tej dziedziny. Ludzie obawiają się niewłaściwego wykorzystania swoich danych, błędnego interpretowania ich wypowiedzi i przypisywania ich pracy komuś innemu. Potęguje to atmosferę strachu, niepewności i wątpliwości.

Jak zachować kontrolę nad sztuczną inteligencją, aby nie wprowadzała użytkowników w błąd, nie rozpowszechniała fałszywych informacji ani nie wyrządzała innych szkód? W jaki sposób upewnić się, że modele AI wprowadzane do produktów nie naruszają praw autorskich, nie wzmacniają uprzedzeń ani nie pozbawiają kogoś pracy? Jak zapewnić sztucznej inteligencji niezbędny poziom samodzielności i autonomii, jednocześnie chroniąc zarówno konsumentów, jak i interesy firm?

Niełatwo znaleźć odpowiedzi na te pytania, zwłaszcza kiedy wartość AI stale rośnie oraz stale przybywa możliwości jej wykorzystania. Dobra wiadomość jest taka, że właśnie nad tymi zagadnieniami intensywnie pracują inżynierowie zajmujący się AI, naukowcy, eksperci prawni, osoby tworzące prawo oraz liderzy biznesu. Wszystko to dzieje się w momencie, gdy nowe regulacje próbują zbalansować odpowiedzialny rozwój sztucznej inteligencji z potrzebą innowacji biznesu. Zanim jednak przejdziemy do zasadniczego pytania – jak firmy mogą wdrażać w życie odpowiedzialne korzystanie z AI – powinniśmy najpierw zastanowić się, czym właściwie jest „odpowiedzialna sztuczna inteligencja”.

Jak zdefiniować „odpowiedzialną sztuczną inteligencję”?

Istnieje wiele różnych definicji, które zasadniczo sprowadzają się do podobnych wniosków, ale Międzynarodowa Organizacja Normalizacyjna (ISO) proponuje następującą wersję: „odpowiedzialna AI to podejście do tworzenia i wdrażania sztucznej inteligencji z uwzględnieniem aspektów etycznych i prawnych. Celem jest wykorzystanie AI w sposób bezpieczny, godny zaufania i etyczny. Odpowiedzialne podejście do sztucznej inteligencji powinno zwiększać przejrzystość i pomagać ograniczać takie zjawiska jak stronniczość AI”.

Choć idea odpowiedzialnej sztucznej inteligencji jest dość prosta, to przy jej wdrażaniu pojawiają się pewne trudności, bo różni interesariusze nie zawsze potrafią osiągnąć w tej kwestii porozumienie. Jak zauważyła Tess Valbuena, tymczasowa dyrektorka generalna Humans in the Loop, potrzeba nadzoru nad AI i zakres takiego nadzoru nie są tak obiektywne, jak wielu by sobie życzyło.

W tej chwili to firmy i poszczególni użytkownicy prywatni muszą samodzielnie określać ramy odpowiedzialnego korzystania ze sztucznej inteligencji oraz decydować, jak dostosować się do standardów etycznych oraz procesów nadzoru. Jednocześnie jednak wiele organizacji standaryzacyjnych, organów regulacyjnych i izb zawodowych stara się dostarczyć wytyczne w tej dziedzinie.

Na przykład w Stanach Zjednoczonych rozporządzenie wykonawcze w sprawie bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji z października 2023 r. („EO 14110”) wyznaczyło etap dalszego rozwoju standardów zarządzania ryzykiem w zakresie sztucznej inteligencji. Jeden z celów EO 14110 nakazywał Narodowemu Instytutowi Standardów i Technologii (NIST) opracowanie standardów generatywnej sztucznej inteligencji w ciągu 270 dni od wydania EO 14110. W lipcu 2024 r. NIST opublikował ramy zarządzania ryzykiem AI (RMF): Generative AI Profile (NIST AI 600-1), dokument towarzyszący AI RMF NIST, który został wcześniej opublikowany w styczniu 2023 roku.

Również w lipcu 2024 r. Unia Europejska (UE) uchwaliła pionierski akt prawny – EU AI Act – który stanowi pierwsze kompleksowe ramy prawne mające na celu uregulowanie rozwoju i wykorzystania sztucznej inteligencji.

Jak wdrożyć tę definicję w miejscu pracy?

Jakie dodatkowe działania powinny podjąć firmy, aby korzystać ze sztucznej inteligencji w sposób odpowiedzialny i zgodny z przyjętymi zasadami? To niełatwe pytanie, bo wszystko zależy od rodzaju wykorzystywanej AI oraz sposobu, w jaki dane przedsiębiorstwo ją wdraża (o czym wspomniano wcześniej w „prostym przykładzie”). Poniżej zamieszczamy jednak kilka uniwersalnych wskazówek:

  • Sprawdź i zweryfikuj pochodzenie modelu lub narzędzia AI. Poznaj zasady etyczne, polityki i praktyki dostawcy sztucznej inteligencji oraz wszelkich innych stron zaangażowanych w jej szkolenie lub bieżący nadzór. Czy działali odpowiedzialnie podczas opracowywania i szkolenia modelu? Jakie są ich obecne i długoterminowe zamiary związane z modelem?
  • Zrozumienie źródła danych wejściowych wykorzystywanych do trenowania modelu sztucznej inteligencji i sposobu postępowania z danymi wejściowymi. Czy istnieją mechanizmy kontroli zapobiegające udostępnianiu niepublicznych lub poufnych informacji poza instancją lub organizacją modelu? Czy firma może zaufać źródłu danych, jeśli model wykorzystuje dane wejściowe stron trzecich do świadczenia usług?
  • Keep humans-in-the-loop (HITL). HITL to koncepcja przedstawiona w wielu zasobach wymienionych powyżej i omówiona bardziej szczegółowo w tym odcinku podcastu. Chcę jednak podkreślić, jak ważny jest ludzki nadzór nad systemami sztucznej inteligencji. Włączenie ludzkiego osądu i interwencji do procesu decyzyjnego AI może mieć kluczowe znaczenie dla zwiększenia bezpieczeństwa, niezawodności i zgodności z zasadami etycznymi.
  • Uwzględnienie ryzyka przekłamań w przypadku każdego modelu AI i posiadanie wytycznych dotyczących weryfikacji wyników. Nie rozpowszechniaj ani nie używaj wyników AI bez potwierdzenia – i całkowitej pewności – ich dokładności. Nawet dobrze wyszkolone modele AI o niskim ryzyku mogą mieć błędy w swoich wynikach (podobnie jak ludzie). Ogólnie rzecz biorąc, najlepszą praktyką jest wdrożenie podejścia HITL, aby pomóc w zminimalizowaniu ryzyka błędów.
  • Potwierdź prawo do wprowadzania danych z zewnętrznych źródeł do modelu sztucznej inteligencji i ustaw bariery ochronne, aby zapewnić, że dane nie zostaną wprowadzone do modelu bez odpowiednich uprawnień. Dane mogą obejmować wiedzę o klientach, partnerach, dostawcach lub ogólną wiedzę rynkową, historie i dane operacyjne, które mogą składać się z informacji poufnych, materiałów chronionych prawem autorskim, danych osobowych i innych danych, na których wykorzystanie może być wymagana zgoda.
  • Właściwe oznaczanie źródeł wykorzystanych do generowania wyników AI. Niezwykle ważne jest, aby firmy uznawały pochodzenie danych podczas korzystania z AI do generowania treści, niezależnie od formatu lub zamierzonego zastosowania. Upewnij się, że kierownicy projektów Gen AI rozumieją różnice i korelacje między „autorstwem” a „własnością” treści lub produktów stworzonych przy użyciu AI. Zapewnienie właściwej atrybucji dla treści generowanych przez AI promuje kluczową koncepcję przejrzystości w odpowiedzialnych praktykach AI.

Pamiętaj, że odpowiedzialne praktyki AI to nie tylko zgodność z przepisami. Chodzi o uczciwość – o własny charakter i (szerzej) kulturę. I chociaż dodatkowe szkolenia i procedury uzupełniające są wskazane, aby zająć się niuansami AI i GenAI, organizacje powinny kierować się etyką korporacyjną, która służy jako zabezpieczenie.

Autor: Lee McLean, radca prawny i specjalista ds. sztucznej inteligencji, Zebra Technologies

Zastrzeżenie: Niniejsza publikacja służy wyłącznie celom informacyjnym i nie ma na celu, nie stanowi i nie powinna być traktowana jako porada prawna lub opinia prawna dotycząca jakichkolwiek konkretnych okoliczności lub faktów. W celu uzyskania porady dostosowanej do konkretnej sytuacji należy skonsultować się z wykwalifikowanym prawnikiem.

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

Sektor technologiczny apeluje o zmiany w ustawie o sztucznej inteligencji

Sektor nowych technologii pozytywnie odbiera prace nad projektem ustawy...

Jak sztuczna inteligencja zmienia rynek pracy w sektorze finansów i nieruchomości

Ochrona danych wrażliwych, wykorzystanie najnowszych technologii, w tym AI...

Sztuczna inteligencja w Siłach Zbrojnych RP – nowa strategia do 2039 roku

3 marca 2025 roku w Legionowie odbyła się odprawa...

Raport Workday: Sztuczna inteligencja zmienia rynek pracy. 51% liderów obawia się luki kompetencyjnej

Workday, Inc. (NASDAQ: WDAY), platforma AI do zarządzania ludźmi...

Podobne tematy

Przyszłość pracy w rękach AI? Jakie kompetencje zapewnią nam przewagę?

Współczesny świat wkracza w kolejną fazę rewolucji informacyjnej. Po...

Wyzwania dla centrów danych: AI napędza rozwój, ale zużywa coraz więcej energii

Według danych Golden Sachs generatywna AI w ciągu dekady...

Sztuczna inteligencja w polskich firmach – na tle Europy wciąż daleko w tyle

Zespół Analiz Ekonomicznych banku Credit Agricole przeanalizował wykorzystanie sztucznej...

Graeme Stewart o ryzykach AI: Stronniczość, błędy i brak regulacji

W ostatnich tygodniach świat technologii ponownie zdominowała rozmowa na...

Automatyzacja w medycynie – jak nowoczesne systemy IT rewolucjonizują placówki zdrowotne?

Sektor ochrony zdrowia stawia na rozwój technologiczny, a automatyzacja...

CGI przejmuje Novatec – ekspansja na rynki cyfrowe w Niemczech i Hiszpanii

CGI (TSX: GIB.A) (NYSE: GIB), jedna z największych niezależnych...

IBM i Palo Alto Networks: Fragmentacja rozwiązań cyberbezpieczeństwa osłabia organizacje

Nowe globalne badania przeprowadzone przez IBM Institute for Business...

Może Cię zainteresować

Polecane kategorie