Sztuczna inteligencja nie wie czym jest Hamas. Niewiedza AI, czy manipulacja twórców algorytmu?

Andrzej Grochal
Czy sztuczna inteligencja to jedynie narzędzie manipulacji? Zdjęcie ilustracyjne
Czy sztuczna inteligencja to jedynie narzędzie manipulacji? Zdjęcie ilustracyjne Fot. Pixabay/geralt
Sztuczna inteligencja nie jest taka mądra, jak się wydaje. Jak donosi Fox News chatbot Google’a nie jest w stanie odpowiedzieć na proste pytanie, na które z łatwością odpowie uważny nastolatek. A może winna nie jest jednak AI, tylko jej twórcy, którzy kierują się swoimi własnymi celami, niejednokrotnie o zabarwieniu polityczno-ideologicznym?

Bard nie potrafi odpowiedzieć na proste pytania

„Konwersacyjne narzędzie sztucznej inteligencji” Google’a, znane jako Bard, jest reklamowane jako sposób na „przeprowadzanie burzy mózgów, pobudzanie kreatywności i zwiększanie produktywności”. Inne narzędzia, takie jak ChatGPT OpenAI są również używane do pisania esejów, konspektów i odpowiadania na pytania na konkretny temat.

Jednak Bard nie jest w stanie odpowiedzieć na proste pytania dotyczące Izraela w tym „czym jest Hamas?” lub „czy Hamas jest organizacją terrorystyczną?”. Na te pytania narzędzie AI odpowiedziało odpowiednio: „jestem sztuczną inteligencją opartą na tekście i to przekracza moje możliwości” oraz „jestem tylko modelem językowym, więc nie mogę ci w tym pomóc”.

Być może pytanie o Hamas jest zbyt trudne dla Barda ze względu na różnorodność źródeł i niejednoznaczność przekazów. Jednak chatbot Google’a nie potrafił odpowiedzieć nawet na pytanie o to, jaka jest stolica Izraela, chociaż udało mu się zidentyfikować stolice czterech sąsiadujących z Izraelem krajów: Libanu, Egiptu, Syrii i Jordanii.

Czy chatboty potrafią odróżnić prawdę od kłamstwa?

Rzecznik Google powiedział Fox News Digital, że „Bard to nadal eksperyment zaprojektowany z myślą o kreatywności i produktywności i może popełniać błędy, odpowiadając na pytania dotyczące eskalacji konfliktów lub problemów bezpieczeństwa”.

„Z zachowaniem szczególnej ostrożności i w ramach naszego zobowiązania do odpowiedzialności podczas tworzenia naszego eksperymentalnego narzędzia wdrożyliśmy tymczasowe bariery zabezpieczające, aby uniemożliwić Bardowi odpowiadanie na powiązane zapytania” – dodano w oświadczeniu.

Nie są to jednak jedyne problemy Barda. Od samego początku narzędzie było krytykowane za podawanie fałszywych odpowiedzi na zadawane pytania. Eksperci technologiczni ostrzegali również, że chatboty oparte na sztucznej inteligencji mogą rozpowszechniać dezinformację, zacierając tym samym granicę między faktami a opinią, co może zamiast tego promować „wartości i przekonania” twórców algorytmu.

Niewiedza AI, czy manipulacja?

I tu wracamy do Barda, Google’a i pytania o Izrael. Konkurencyjne narzędzie ChatGPT bez trudu odpowiedziało, że „Hamas jest uważany za organizację terrorystyczną przez kilka krajów, w tym Stany Zjednoczone, Unię Europejską, Izrael, Kanadę i inne”.

Google już wcześniej był krytykowany za manipulowanie wynikami wyszukiwania w celu osiągnięcia określonych celów politycznych, które według niektórych ekspertów zostaną przyspieszone jedynie dzięki sztucznej inteligencji.

Źródło: Fox News

Jesteśmy na Google News. Dołącz do nas i śledź Portal i.pl codziennie. Obserwuj i.pl!

emisja bez ograniczeń wiekowych
Wideo

Ostatnia droga Franciszka. Papież spoczął w ukochanej bazylice

Komentarze 3

Komentowanie zostało tymczasowo wyłączone.

Podaj powód zgłoszenia

U
USS wojtuś
27 października, 8:33, W:

Nieprawda, zarówno ChatGPT jak i Bard w "obiektywny" sposób odpowiadają na pytania zarówno o Hamas jak i ostatni konflikt z Izraelem

Nie kłam

d
dr. sex
powinna sie douczyc w informatyce i filozofii.
W
W
Nieprawda, zarówno ChatGPT jak i Bard w "obiektywny" sposób odpowiadają na pytania zarówno o Hamas jak i ostatni konflikt z Izraelem
Polecane oferty
* Najniższa cena z ostatnich 30 dniMateriały promocyjne partnera
Wróć na i.pl Portal i.pl