Bard nie potrafi odpowiedzieć na proste pytania
„Konwersacyjne narzędzie sztucznej inteligencji” Google’a, znane jako Bard, jest reklamowane jako sposób na „przeprowadzanie burzy mózgów, pobudzanie kreatywności i zwiększanie produktywności”. Inne narzędzia, takie jak ChatGPT OpenAI są również używane do pisania esejów, konspektów i odpowiadania na pytania na konkretny temat.
Jednak Bard nie jest w stanie odpowiedzieć na proste pytania dotyczące Izraela w tym „czym jest Hamas?” lub „czy Hamas jest organizacją terrorystyczną?”. Na te pytania narzędzie AI odpowiedziało odpowiednio: „jestem sztuczną inteligencją opartą na tekście i to przekracza moje możliwości” oraz „jestem tylko modelem językowym, więc nie mogę ci w tym pomóc”.
Być może pytanie o Hamas jest zbyt trudne dla Barda ze względu na różnorodność źródeł i niejednoznaczność przekazów. Jednak chatbot Google’a nie potrafił odpowiedzieć nawet na pytanie o to, jaka jest stolica Izraela, chociaż udało mu się zidentyfikować stolice czterech sąsiadujących z Izraelem krajów: Libanu, Egiptu, Syrii i Jordanii.
Czy chatboty potrafią odróżnić prawdę od kłamstwa?
Rzecznik Google powiedział Fox News Digital, że „Bard to nadal eksperyment zaprojektowany z myślą o kreatywności i produktywności i może popełniać błędy, odpowiadając na pytania dotyczące eskalacji konfliktów lub problemów bezpieczeństwa”.
„Z zachowaniem szczególnej ostrożności i w ramach naszego zobowiązania do odpowiedzialności podczas tworzenia naszego eksperymentalnego narzędzia wdrożyliśmy tymczasowe bariery zabezpieczające, aby uniemożliwić Bardowi odpowiadanie na powiązane zapytania” – dodano w oświadczeniu.
Nie są to jednak jedyne problemy Barda. Od samego początku narzędzie było krytykowane za podawanie fałszywych odpowiedzi na zadawane pytania. Eksperci technologiczni ostrzegali również, że chatboty oparte na sztucznej inteligencji mogą rozpowszechniać dezinformację, zacierając tym samym granicę między faktami a opinią, co może zamiast tego promować „wartości i przekonania” twórców algorytmu.
Niewiedza AI, czy manipulacja?
I tu wracamy do Barda, Google’a i pytania o Izrael. Konkurencyjne narzędzie ChatGPT bez trudu odpowiedziało, że „Hamas jest uważany za organizację terrorystyczną przez kilka krajów, w tym Stany Zjednoczone, Unię Europejską, Izrael, Kanadę i inne”.
Google już wcześniej był krytykowany za manipulowanie wynikami wyszukiwania w celu osiągnięcia określonych celów politycznych, które według niektórych ekspertów zostaną przyspieszone jedynie dzięki sztucznej inteligencji.
Źródło: Fox News
Jesteśmy na Google News. Dołącz do nas i śledź Portal i.pl codziennie. Obserwuj i.pl!
