Czy robotom potrzebna jest moralność? Felieton prof. Ryszarda Tadeusiewicza

Prof. Ryszard Tadeusiewicz
Andrzej Banas / Polska Press

Budowane aktualnie maszyny wyposażane są w coraz większe zasoby inteligencji. Niektórych publicystów i polityków komentujących ten rozwój sztucznej inteligencji zaczyna już wręcz niepokoić. Wysuwane są kasandryczne przepowiednie, co nas czeka, gdy ciągle zwiększana inteligencja maszyn wyprzedzi w końcu inteligencję ludzką. Wypowiadałem się kilka razy na ten temat, więc nie będę po raz kolejny powtarzać wszystkich argumentów przeciw takim obawom. Powiem krótko, że choć moment, gdy maszyny staną się od nas mądrzejsze, musi nieuchronnie nadejść (wynika to z szybkości rozwoju sztucznej inteligencji), nie spowoduje to żadnego zagrożenia dla ludzi, bo maszyny nie mają żadnego powodu, żeby nam zagrażać. Nie konkuruje z nami o pożywienie, o mieszkanie albo o majątek - bo ich nie potrzebuje. Fundamentem sztucznej inteligencji jest logika. Czy ktoś może wskazać logiczny powód, dla którego roboty by miały zabijać ludzi?

Chcę natomiast zwrócić Państwa uwagę na zupełnie inny aspekt: robot przyszłości będzie musiał być wyposażony nie tylko w sztuczną inteligencję, ale także w sztuczną moralność.

Rozważmy robota domowego obsługującego osobę niepełnosprawną. W odróżnieniu od pracy w fabryce, gdzie wszystkie czynności podporządkowane są ściśle zdefiniowanemu celowi (produkcji), działań w warunkach domowych nie da się z góry zaplanować i zaprogramować. Oznacza to, że robot będzie musiał działać w dużej mierze jako system autonomiczny, sam podejmując decyzję, jaką czynność ma wykonać. Na pewno powinien wykonywać polecenia ludzi. To jednak nie wystarczy - bo nietrudno sobie wyobrazić sytuację, gdy schorowany, cierpiący człowiek postanowi odebrać sobie życie. Oczywiście nie zażąda, żeby robot go zabił, bo takiego rozkazu robot nie wykona. Ale może wydawać pozornie niegroźne polecenia, które robot powinien wykonywać, a które w efekcie tego człowieka zabiją. Na przykład, może zażądać wielu dawek leku, którego przedawkowanie powoduje śmierć. Czy robot powinien w takim przypadku odmówić?

Tu nie pomoże zaprogramowanie ścisłych reguł, bo niepodobna przewidzieć, co taki człowiek może zrobić. Działanie robota powinno więc wynikać z jego własnej decyzji, opartej na moralności.

I inny przykład, często przywoływany w dyskusjach. Mamy już auta, które mogą jeździć bez kierowcy. To także rodzaj robota, tylko na czterech kołach. Wyobraźmy sobie, że takie całkowicie zautomatyzowane auto pędzi drogą, na którą wbiega niespodziewanie grupa rozbawionych dzieci. Hamowanie nic nie da, bo dzieci są za blisko - komputer ustali to w ułamku sekundy. I robot musi zdecydować, czy „odbić” na lewy pas, powodując śmiertelne zderzenie czołowe z pędzącą po nim ciężarówką, czy wjechać w tę grupę dzieci, zabijając większość z nich. Innymi słowy - czy zabić pasażera kierowanego przez siebie samochodu, czy ludzi na drodze? Trzeciej możliwości nie ma, więc nawet największa inteligencja na nic się tu nie przyda. Pozostaje wybór mniejszego zła, wartościowany w kategoriach moralnych.

Człowiek mógłby działać odruchowo, ale robot musi podjąć decyzję. A w tym celu musi posiadać moralność!

Na marginesie tego ostatniego, dość często w różnych miejscach przywoływanego przykładu, warto dodać informację o ankiecie, jaką przeprowadzono, pytając różnych ludzi, jaką decyzję powinien podjąć robot w opisanej wyżej sytuacji?

Otóż większość pytanych wskazywała, że należy tak zaprogramować robota, żeby ratował dzieci kosztem życia swojego pasażera.

Ale zadano respondentom drugie pytanie:

- Czy chciałbyś jeździć samochodem kierowanym przez automat, który ma zaprogramowane, że w określonej okoliczności będzie musiał cię zabić? Nie było ani jednego chętnego...

od 7 lat
Wideo

Konto Amazon zagrożone? Pismak przeciwko oszustom

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

Nikt jeszcze nie skomentował tego artykułu.
Wróć na i.pl Portal i.pl