Sztuczna inteligencja łatwo „nasiąka” ludzkimi uprzedzeniami

Prof. Ryszard Tadeusiewicz
Adam JastrzęBowski
Z coraz szerszym używaniem sztucznej inteligencji wiąże się korzystanie z uczenia maszynowego. To bardzo silny mechanizm służący do tworzenia inteligentnych programów przy niewielkim wysiłku. Stwierdzono jednak, że obok licznych zalet metody uczenia maszynowego mają niestety także wady.

Okazało się bowiem, że jeśli ludzie, na których działaniach programy sztucznej inteligencji się wzorują, mają uprzedzenia - to owe inteligentne programy „nasiąkną” tymi uprzedzeniami. W piśmiennictwie fachowym opisano wiele takich przypadków. Ja dla ilustracji przytoczę tylko trzy z nich.

Firma Amazon chcąc zobiektywizować system awansów zastosowała program sztucznej inteligencji do typowania pracowników, którzy powinni zostać przesunięci na wyższe stanowisko. Dbając jednak o ciągłość tradycji firmy, do uczenia algorytmów typowania pracowników do awansu użyto danych personalnych pracowników Amazona, zawierających między innymi informacje, kogo, kiedy i z jakim skutkiem awansowano.

Gdy program uruchomiono, okazało się, że zdecydowanie częściej wskazywał on do awansu mężczyzn niż kobiety, dlatego, że w przeszłości „rekruterzy” chętniej wybierali mężczyzn. Działało powszechne przekonanie, że do prac kierowniczych nadają się oni lepiej niż kobiety. Program sztucznej inteligencji nie otrzymywał wprawdzie informacji o płci kandydata, ale nauczył się, że pewne fakty, dotyczące edukacji, zainteresowań i doświadczeń zawodowych kandydata, silnie preferują go do awansu. Okazało się, że były to fakty zdecydowanie częściej występujące u mężczyzn. W ten sposób uprzedzenia dawniejszych rekruterów „nasączyły” uczący się algorytm sztucznej inteligencji i zaczął on wykazywać analogiczne preferencje!

Inny przykład „zarażenia” sztucznej inteligencji ludzkimi uprzedzeniami ujawnił się w programie COMPAS, który pomagał sędziom w wydawaniu postanowień o wcześniejszym warunkowym zwolnieniu z więzienia skazańców wykazujących się dobrym zachowaniem. W tym przypadku bazą, na której uczono algorytm sugerowania werdyktu „tak” albo „nie”, były wcześniejsze orzeczenia w setkach tysięcy podobnych spraw. Brano pod uwagę sytuację rodzinną i majątkową kandydata do zwolnienia, jego wykształcenie, wykonywany zawód, miejscowość, w której zamieszkiwał, opinie sąsiadów i dawnych współpracowników. Setki czynników! A okazało się, że system (który nie miał żadnych danych rasowych na temat kandydata!) zdecydowanie częściej rekomendował do zwolnienia więźniów białych niż kolorowych.

Zbadanie tego fenomenu przyniosło podobną konstatację, jak w opisanym wyżej przypadku awansów w Amazonie. Po prostu w większości decyzji podejmowanych wcześniej przez ludzi właśnie takie rasowe uprzedzenia wpływały na rozstrzygnięcie - więc sztuczna inteligencja, ucząc się na przykładach, „nasiąkała” tymi uprzedzeniami. Z wiadomym skutkiem...

Podane przykłady zdarzeń miały miejsce w USA. Europa ma jednak także swoją „czarną kartę” w obszarze decyzji podejmowanych przy użyciu programów sztucznej inteligencji nauczonych na przykładach zawierających uprzedzenia ludzi, którzy wcześniej podejmowali owe decyzje.

Holandia w latach 2012-2019 stosowała algorytm sztucznej inteligencji do wykrywania przypadków wyłudzania nienależnej pomocy socjalnej. Osoby wskazane przez komputer były zmuszane do zwrotu pobranych kwot i narażone na wysokie kary. Tymczasem okazało się, że program (wzorując się na wcześniejszych decyzjach urzędników, na bazie których się uczył) typował głównie osoby o obco brzmiących nazwiskach. Sprawą w 2021 roku zajął się rząd Holandii i na odszkodowania dla niesłusznie oskarżonych trzeba było przeznaczyć kwotę 500 mln euro. Zapłacili ludzie, a nie komputer...

od 7 lat
Wideo

META nie da ci zarobić bez pracy - nowe oszustwo

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze 1

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

T
Tomek
GiGo - Garbage In -> Garbage Out :) - mnóstwo takich przytłaczających przykładów kilka lat temu napotkałem w książce "Broń matematycznej zagłady" - wyjście jak i wejście programów, a przede wszystkim symulowane graniczne i błędne przykłady powinny być wymuszane na algorytmach żeby choć trochę było wiadomo jak zadziałają (nawet jak nie wiadomo w jaki sposób podejmują decyzje). Pozdrawiam Pana Profesora - mam nadzieję że spotkamy jeszcze kilkukrotnie w barze mlecznym Żaczek :)
Wróć na i.pl Portal i.pl