INNOWACJETendencyjność i dyskryminacja w świecie sztucznej inteligencji

Tendencyjność i dyskryminacja w świecie sztucznej inteligencji

Tendencyjność i dyskryminacja w świecie sztucznej inteligencji

Tendencyjność jest nieuniknioną cechą życia, wynikiem konieczności ograniczonego spojrzenia na świat, który osiągnąć może każda pojedyncza osoba lub grupa. Lecz społeczna tendencyjność może odzwierciedlać i rozwijać się poprzez sztuczną inteligencję w niebezpieczny sposób, czy to przy podejmowaniu decyzji o tym kto otrzyma kredyt, czy o tym kto zostanie poddany ankiecie.

Dziennik New York Times rozmawiał z trzema wybitnymi kobietami w dziedzinie sztucznej inteligencji, aby usłyszeć, jak one podchodzą do tendencyjności dotyczących tej wpływowej technologii. Daphne  Koller jest współzałożycielem firmy Coursera zajmującej się edukacją internetową, oraz założycielem i dyrektorem generalnym firmy Insitro wykorzystującej uczenie maszynowe do opracowywania nowych leków. Doktor Koller, wykładowca kontraktowy na Wydziale Informatyki na Uniwersytecie Stanforda, przemawiała do tendencyjności przez pryzmat modeli uczenia maszynowego.

Olga Russakovsky jest adiutantem na Wydziale Informatyki na Uniwersytecie Princeton, która specjalizuje się w widzeniu komputerowym i jest współzałożycielem Fundacji AI4ALL, która pracuje dla zwiększenia różnorodności i włączenia w ramach sztucznej inteligencji. Doktor Russakovsky pracuje w celu zredukowania uprzedzeń w modemie ImageNet, który zapoczątkował obecny wzrost w zakresie uczenia maszynowego.

Timnit Gebru jest naukowcem prowadzącym badania dla Google w zakresie grupy etycznej sztucznej inteligencji oraz współzałożycielem Black in AI, która promuje kolorowych w tym obszarze. Doktor Gebru była istotną osobą dla przeniesienia ważnej konferencji międzynarodowej w zakresie sztucznej inteligencji (Międzynarodowej Konferencji na temat Oświadczeń Edukacyjnych) do Etiopii w przyszłym roku po tym, jak ponad połowa mówców Black in AI nie mogła uzyskać wiz do Kanady na konferencję w 2018 roku. Mówiła o podstawowych źródłach uprzedzeń i większym wyzwaniu związanym ze zmianą kultury naukowej.

Algorytm – skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu

Mówiąc o uprzedzeniach można mieć na myśli dyskryminację rasową czy płciową. Przykładowo, szukasz zdjęć prezesa firmy w grafice Google, a pojawia się 50 zdjęć białych mężczyzn i jedno zdjęcie lalki Barbie. To jest jeden z aspektów uprzedzeń.

Kolejnym pojęciem tendencyjności, które jest bardzo istotne dla mojej pracy są sytuacje w których algorytm jest zamykany w kierunku czegoś, co jest mało znaczące i może potencjalnie dać bardzo słabe wyniki. Na przykład sytuacja, kiedy próbujesz przewidzieć złamania ze zdjęć rentgenowskich używając do tego danych z różnych szpitali. Jeśli nie jesteś ostrożny, algorytm nauczy się rozpoznawać, który szpital wygenerował zdjęcie. Niektóre aparaty rentgenowskie mają różne cechy charakterystyczne na zdjęciu niż inne maszyny, a niektóre szpitale mają znacznie większy odsetek złamań niż inne. Tak więc, naprawdę możesz nauczyć się przewidywać złamania całkiem dobrze na zbiorze danych, który otrzymałeś poprzez rozpoznawanie szpitalu, w którym został wykonany skan, bez faktycznego patrzenia na kość. Algorytm robi coś, co wydaje się dobre, ale w rzeczywistości robi to z błędnych przyczyn. Powody są takie same w kontekście tego, w jaki sposób algorytm zamyka się na rzeczach, na których nie powinien opierać się przy prognozowaniu. W celu rozpoznania i rozwiązania tych sytuacji, musisz upewnić się, że testujesz algorytm w systemie podobnym do tego, w jaki sposób będzie on używany w prawdziwym świecie. Tak więc, jeśli algorytm uczenia maszynowego jest wyszkolony w zakresie danych z konkretnego zestawu szpitali i będziesz go używał tylko w tym samym zestawie szpitali, to rozsądne podejście, które może być oparte na tym, w którym szpitalu został wykonany skan. Efektywnie jest pozwolić algorytmowi przyłączyć wcześniejszą wiedzę na temat populacji pacjentów w różnych szpitalach. Problem naprawdę pojawia się, kiedy próbujesz użyć algorytmu w kontekście innego szpitala, który nie był w twoim zbiorze danych od początku. Następnie prosisz algorytm o użycie tej tendencyjności, której nauczył się w szpitalach, gdzie był trenowany, w szpitalu, w którym tendencyjności mogą być całkowicie błędne.

Ogólnie rzecz biorąc, nie ma prawie tak dużego zaawansowania, jaki musi być poziom rygoru, którego potrzebujemy, jeśli chodzi o zastosowanie nauki o danych do danych w świecie rzeczywistym, a zwłaszcza danych biomedycznych.

Olga Russakovsky

Wierzę w to, że są trzy podstawowe przyczyny tendencyjności wśród systemów sztucznej inteligencji. Pierwsza to tendencyjność wśród danych. Ludzie próbują znaleźć metody na dostrzeżenie i złagodzenie tendencyjności wśród danych. Dla kategorii takich jak rasa i płeć rozwiązaniem jest lepsze próbkowanie, aby uzyskać lepszą reprezentację w zestawach danych. Lecz można mieć zrównoważoną reprezentację i ciągle wysyłać bardzo dziwne wiadomości. Na przykład, kobiety-programiści są często przedstawiane siedząc obok mężczyzny przed komputerem lub mężczyzny czuwającego nad ich ramieniem.

Myślę o tendencyjności w bardzo szerokim pojęciu. Z pewnością płeć, rasa i wiek są najłatwiejsze do badania, ale są różne punkty widzenia. Nasz świat nie jest sprawiedliwy. Nie ma czegoś takiego jak zrównoważona reprezentacja świata, a więc dane zawsze będą miały wiele pewnych kategorii i stosunkowo mało innych.

Idąc dalej, kolejną podstawową przyczyną tendencyjności są algorytmy same w sobie. Algorytmy mogą wzmocnić tendencyjność wśród danych, więc trzeba przemyśleć sposób budowania tych systemów.

To przenosi mnie to trzeciej przyczyny-ludzkich uprzedzeń. Badacze naukowi sztucznej inteligencji są w głównej mierze mężczyznami, którzy wywodzą się pewnych grup demograficznych, którzy dorastali w obszarach o wysokim standardzie społeczno-ekonomicznym, głównie osoby bez niepełnosprawności. Jesteśmy raczej homogeniczną populacją, więc jest to trudne, aby myśleć w ogólnych zarysach o kwestiach świata. Jest wiele okazji do dywersyfikacji tej puli, a wraz ze wzrostem różnorodności, systemy sztucznej inteligencji staną się mniej stronnicze.

Pozwól mi przywołać jeden przykład ilustrujący wszystkie te trzy źródła. Zestaw danych ImageSet został opracowany w 2009 roku do rozpoznawania obiektów, zawierających ponad 14 milionów obrazów. Jest kilka rzeczy, które robimy z myślą o przywróceniu równowagi tego zestawu danych, aby w ogóle lepiej odzwierciedlić świat. Póki co, przeszliśmy przez 2200 kategorii, aby usunąć te, które można uznać za obraźliwe. Pracujemy nad zaprojektowaniem interfejsu, który pozwoli społeczności oznaczać dodatkowe kategorie lub obrazy jako obraźliwe, pozwalając wszystkim na zabranie głosu w tym systemie. Pracujemy także nad zrozumieniem wpływu tych zmian na dalsze modele i algorytmy widzenia komputerowego. Myślę, że to niemożliwe, aby posiadać bezstronnego człowieka, więc nie rozumiem, jak mielibyśmy budować bezstronny system sztucznej inteligencji. Lecz z pewnością możemy zrobić o wiele więcej niż robimy.

Timnit Gebru

Wiele razy ludzie mówią o uprzedzeniach w poczuciu wyrównywania wydajności w grupach. Nie zastanawiają się nad fundamentem, czy zadanie w ogóle powinno istnieć, kto je stworzy, kto wdroży to na jakiej populacji, kto jest właścicielem danych i jak to jest używane. Przyczyna tych problemów jest nie tylko technologiczna. Jest społeczna. Używanie technologii w tym fundamencie społecznym często rozwija najgorsze możliwe rzeczy, które się dzieją. Aby technologia tego nie robiła, należy także pracować nad fundamentem. Nie możesz po prostu zamknąć oczu i powiedzieć: “Oh nieważne, jestem naukowcem. Wszystko, co zamierzam zrobić to matematyka.”

Najtrudniejszą rzeczą dla mnie jest zmiana kulturowego podejścia do naukowców. Naukowcy są jednymi z najniebezpieczniejszych ludzi na świecie, ponieważ mamy złudzenie obiektywności-to jest to złudzenie merytokracji i ta iluzja poszukiwania obiektywnej prawdy. Nauka musi być usytuowana w próbach zrozumienia społecznej dynamiki świata, ponieważ najbardziej radykalne zmiany dzieją się na poziomie społecznym.

Musimy zmienić sposób, w jaki edukujemy ludzi w zakresie nauki i technologii. Nauka jest obecnie przedstawiana jako obiektywne spojrzenie znikąd (termin, o którym dowiedziałam się z prac nad studiami feministycznymi), z niczyjego punktu widzenia. Ale powinno być dużo więcej pracy interdyscyplinarnej i należy przemyśleć sposób w jaki ludzie są nauczani.

Ludzie ze zmarginalizowanych grup pracowali bardzo ciężko, aby przynieść to na pierwszy plan, a kiedy już się to stało, inni ludzie z grup nie zmarginalizowanych zaczynają przypisywać sobie zasługi i przelewać pieniądze na “inicjatywy”. Oni nie zamierzają podjąć ryzyka, jakie podejmują ludzie ze zmarginalizowanych grup, ponieważ to nie ich społeczeństwo jest krzywdzone.

Wszystkie te instytucje zachęcają do rozmów o społecznym wpływie sztucznej inteligencji.

Jest kilka rzeczy, które powinny być omówione na arenie światowej, ponadto powinny istnieć porozumienia między krajami. Inne kwestie także winny być omówione lokalnie. Potrzebujemy zasad i standardów, oraz rad administracyjnych, a także ludzi głosujących na rzeczy i sprawdzanych algorytmów, czegoś podobnego do Agencji ds. Żywności i Leków (FDA). Dla mnie nie jest to tak proste, jak tworzenie bardziej zróżnicowanego zestawu danych, po czym wszystko jest załatwione. To tylko jeden element równania.

NAJNOWSZE ARTYKUŁY

- Reklama -Osteopatia Kraków

POLECAMY

lekarz medycyna technologia

Polski rynek ochrony zdrowia na fali wzrostu – EY prognozuje roczny wzrost o 11%...

0
Z analizy firmy EY wynika, że polski rynek świadczenia usług z zakresu opieki zdrowotnej będzie do 2028 roku rósł w tempie - 11 proc. rocznie. Rozwój stymuluje rosnące finansowanie publiczne i prywatne, które jest...