Według badania zleconego przez Progress, 66% firm doświadcza obecnie problemu tendencyjności danych. Wykorzystywana przez firmy w coraz większym stopniu sztuczna inteligencja wzmacnia nieświadome uprzedzenia tworzących ją osób. Taki stan rzeczy sprawia, że decyzje, przy których podejmowaniu używana jest najnowsza technologia, mogą być nieobiektywne, niesprawiedliwe, a nawet krzywdzące dla pewnych grup. 78% ankietowanych przedsiębiorstw obawia się, że wraz z rozwojem AI i uczenia maszynowego problem będzie się powiększał. To tylko jedna z wielu kwestii, którą należy rozważyć, by korzystać ze sztucznej inteligencji w sposób świadomy i etyczny.
Pierwszy przypadek wykorzystania sztucznej inteligencji miał miejsce już w 1956 roku, w ramach Dartmouth Summer Research Project. Zaprezentowano wówczas Logic Theorist – program, który z założenia miał być cybernetycznym odpowiednikiem ludzkiej umiejętności rozwiązywania problemów. Na przestrzeni lat obserwowano coraz większy postęp technologiczny, a wraz z nim – rozwój rozwiązań wykorzystujących sztuczną inteligencję. Stała się ona niewidzialną częścią wielu sfer przestrzeni cyfrowej, z których przeciętny użytkownik korzysta na co dzień. Można więc zadać sobie pytanie, z czego wynika tak duże zainteresowanie tym tematem w ostatnim czasie?
Na skróty:
Nie tylko dla specjalistów – ChatGPT podbija cyfrowy świat
Odpowiedzi należy szukać w rozwoju generatywnej sztucznej inteligencji. Kiedy w grudniu 2022 roku OpenAI wydało bezpłatną wersję podglądową ChatGPT, w ciągu zaledwie pięciu dni firma pozyskała ponad milion zarejestrowanych użytkowników. Sztuczna inteligencja przestała być narzędziem używanym wyłącznie przez analityków czy programistów. Dzięki rozwiązaniom takim jak ChatGPT, wizja świata, w którym każdy użytkownik posiada dostęp do AI oraz oferowanego przez nią potencjału, jest na wyciągnięcie ręki.
Sztuczna inteligencja już w tym momencie jest w stanie zapewnić użytkownikom zaawansowaną personalizację treści oraz dogłębną analitykę danych. W połączeniu z intuicyjnymi i dobrze zaprojektowanymi interfejsami oraz napędzającymi ją różnorodnymi zbiorami danych, wygoda i możliwości wynikające z funkcjonowania w cyberprzestrzeni zyskały nowy, lepszy wymiar.
Pomimo wielu udogodnień oferowanych przez sztuczną inteligencję, nie należy zapominać o wiążącym się z nią ryzyku. Konieczna jest jego wnikliwa analiza, szczególnie w kwestiach dotyczących etyki. Zaniedbanie tego aspektu może narazić przedsiębiorców na poważne konsekwencje. Aby być świadomym użytkownikiem AI, należy stworzyć odpowiednią strategię korzystania z tej przełomowej technologii.
Problem tendencyjności danych
Jakość funkcjonowania generatywnej sztucznej inteligencji jest zależna od jakości jej modeli szkoleniowych. Staranna selekcja danych jest niezbędna w celu stworzenia różnorodnej bazy użytkowników oraz przypadków użycia narzędzia. Jest to szczególnie ważne, biorąc pod uwagę potencjał sztucznej inteligencji do utrwalania nieświadomych uprzedzeń, które mogą negatywnie wpływać na zmarginalizowane grupy.
– Wartym rozważenia rozwiązaniem jest gromadzenie danych m.in. z szerokiej gamy źródeł demograficznych i geograficznych. Wówczas można mieć pewność, że modele szkoleniowe AI będą jak najbardziej zróżnicowane. Z pomocą mogą przyjść także zautomatyzowane narzędzia. Biorąc pod uwagę fakt, że nieświadome uprzedzenia ze swojej definicji są czymś, z czego nie zdajemy sobie sprawy, niektóre firmy decydują się na implementację algorytmów uczenia maszynowego (ML). Korzystają z ich pomocy w celu identyfikacji i usuwania stronniczego języka ze zbiorów danych tekstowych. Inne przedsiębiorstwa stawiają zaś na techniki statystyczne. Wykorzystują je do rozpoznawania i eliminowania rozbieżności w reprezentacji demograficznej – mówi Jakub Andrzejewski, Business Development Manager for Poland & CIS, Progress.
Przepisy (lub ich brak) oraz jak się wokół nich poruszać
Częstym problemem w przypadku szybko rozwijających się rozwiązań technologicznych jest to, że procesy legislacyjne nie są w stanie za nimi nadążyć. W związku z tym, wokół zjawiska sztucznej inteligencji narasta wciąż wiele kwestii spornych. Dla przykładu, jeżeli narzędzie generatywnej sztucznej inteligencji wykorzystuje informacje znalezione w sieci do wytrenowania swojego modelu językowego (LLM), kto jest faktycznym właścicielem danych wyjściowych?
Innym przykładem może być sytuacja, w której LLM udostępniło kod open source, ale krótko po tym fakcie właściciel usunął swoją zgodę na jego przetwarzanie przez to narzędzie. Co się stanie, jeśli zespół programistów zdążył zaimplementować ten kod z generatywnej sztucznej inteligencji? Czy jego członkowie mogą spodziewać się kłopotów?
To jedynie kilka kwestii, które wciąż czekają na rozwiązanie za pośrednictwem aktów prawnych.
Dobrą wiadomością jest to, że Unia Europejska pracuje obecnie nad przepisami o sztucznej inteligencji. Celem prac są regulacje dotyczące jakości danych, zwiększenie przejrzystości w kwestiach własności, a także odpowiedzialności, szczególnie w aspekcie etyczności. Inne kraje i podmioty rządowe prawdopodobnie podążą śladem UE.
Biorąc pod uwagę obecny brak rozwiązań prawnych, przedsiębiorcy muszą dokładnie zapoznać się z rodzajem sztucznej inteligencji, której implementację rozważają. W ten sposób możliwe będzie przewidzenie, w jakich obszarach mogą zostać wprowadzone regulacje w przyszłości.
Postępy w dziedzinie sztucznej inteligencji stanowią przełom w kwestii funkcjonowania w cyberprzestrzeni. Należy jednak pamiętać o tym, by korzystać z tego udogodnienia w sposób odpowiedzialny i świadomy. To z kolei wymaga działań mających na celu ograniczenie wpływu nieświadomych uprzedzeń na AI oraz aktywną edukację w zakresie tworzonych regulacji. Spełnienie tych warunków będzie miało pozytywny wpływ nie tylko na ogólne doświadczenie korzystania ze sztucznej inteligencji, lecz także na poziom etyczności.