Okazało się bowiem, że jeśli ludzie, na których działaniach programy sztucznej inteligencji się wzorują, mają uprzedzenia - to owe inteligentne programy „nasiąkną” tymi uprzedzeniami. W piśmiennictwie fachowym opisano wiele takich przypadków. Ja dla ilustracji przytoczę tylko trzy z nich.
Firma Amazon chcąc zobiektywizować system awansów zastosowała program sztucznej inteligencji do typowania pracowników, którzy powinni zostać przesunięci na wyższe stanowisko. Dbając jednak o ciągłość tradycji firmy, do uczenia algorytmów typowania pracowników do awansu użyto danych personalnych pracowników Amazona, zawierających między innymi informacje, kogo, kiedy i z jakim skutkiem awansowano.
Gdy program uruchomiono, okazało się, że zdecydowanie częściej wskazywał on do awansu mężczyzn niż kobiety, dlatego, że w przeszłości „rekruterzy” chętniej wybierali mężczyzn. Działało powszechne przekonanie, że do prac kierowniczych nadają się oni lepiej niż kobiety. Program sztucznej inteligencji nie otrzymywał wprawdzie informacji o płci kandydata, ale nauczył się, że pewne fakty, dotyczące edukacji, zainteresowań i doświadczeń zawodowych kandydata, silnie preferują go do awansu. Okazało się, że były to fakty zdecydowanie częściej występujące u mężczyzn. W ten sposób uprzedzenia dawniejszych rekruterów „nasączyły” uczący się algorytm sztucznej inteligencji i zaczął on wykazywać analogiczne preferencje!
Inny przykład „zarażenia” sztucznej inteligencji ludzkimi uprzedzeniami ujawnił się w programie COMPAS, który pomagał sędziom w wydawaniu postanowień o wcześniejszym warunkowym zwolnieniu z więzienia skazańców wykazujących się dobrym zachowaniem. W tym przypadku bazą, na której uczono algorytm sugerowania werdyktu „tak” albo „nie”, były wcześniejsze orzeczenia w setkach tysięcy podobnych spraw. Brano pod uwagę sytuację rodzinną i majątkową kandydata do zwolnienia, jego wykształcenie, wykonywany zawód, miejscowość, w której zamieszkiwał, opinie sąsiadów i dawnych współpracowników. Setki czynników! A okazało się, że system (który nie miał żadnych danych rasowych na temat kandydata!) zdecydowanie częściej rekomendował do zwolnienia więźniów białych niż kolorowych.
Zbadanie tego fenomenu przyniosło podobną konstatację, jak w opisanym wyżej przypadku awansów w Amazonie. Po prostu w większości decyzji podejmowanych wcześniej przez ludzi właśnie takie rasowe uprzedzenia wpływały na rozstrzygnięcie - więc sztuczna inteligencja, ucząc się na przykładach, „nasiąkała” tymi uprzedzeniami. Z wiadomym skutkiem...
Podane przykłady zdarzeń miały miejsce w USA. Europa ma jednak także swoją „czarną kartę” w obszarze decyzji podejmowanych przy użyciu programów sztucznej inteligencji nauczonych na przykładach zawierających uprzedzenia ludzi, którzy wcześniej podejmowali owe decyzje.
Holandia w latach 2012-2019 stosowała algorytm sztucznej inteligencji do wykrywania przypadków wyłudzania nienależnej pomocy socjalnej. Osoby wskazane przez komputer były zmuszane do zwrotu pobranych kwot i narażone na wysokie kary. Tymczasem okazało się, że program (wzorując się na wcześniejszych decyzjach urzędników, na bazie których się uczył) typował głównie osoby o obco brzmiących nazwiskach. Sprawą w 2021 roku zajął się rząd Holandii i na odszkodowania dla niesłusznie oskarżonych trzeba było przeznaczyć kwotę 500 mln euro. Zapłacili ludzie, a nie komputer...
