Sztuczny profil w plebiscycie
Efektem sztucznej inteligencji jest też wydarzenie, które wiąże się z plebiscytem na Osobowość Roku "Dziennika Bałtyckiego". Do plebiscytu zgłoszono bowiem, a potem głosowano na osobę, której dane zostały wygenerowane przez SI.
Polska Press Grupa poinformowała, że wyniki konkursu zostały zaktualizowane w związku z ujawnieniem faktu, że nominacja i głosowanie na „kandydatkę" z pierwszego miejsca były wynikiem antyspołecznego happeningu przeprowadzonego przez zgłaszającą ją osobę. Ubolewamy, że w trakcie plebiscytu promującego pożyteczne postawy i działania, podjęto próbę ingerencji w wyniki.
Informujemy, że w związku z zaistniałym zdarzeniem wszelkie regulaminy Polska Press Grupy zostaną zweryfikowane pod kątem pojawiających się zmian technologicznych, które mogłyby prowadzić do popełniania nadużyć, tak jak miało to miejsce w przedmiotowym plebiscycie
Kto pisze, kto gra?
Przykłady kontrowersyjnych sytuacji związanych z kreatywnością SI można mnożyć. Amerykański rynek muzyczny rozgrzała ostatnio debata dotycząca piosenki „Heart on My Sleeve”, napisanej przez SI, która wykorzystała technologię do symulacji muzyki gwiazd muzyki pop Drake'a i The Weeknd. Co ciekawsze system sztucznej inteligencji nie tylko napisał, ale też wykonał ten utwór. Wytwórnia, z którą pracują artyści, Uniwersal Music Group, zażądała usunięcia utworu z platform streamingowych.
Podobne kłopoty z utworami naśladowczymi mieli w ostatnich miesiącach Eminem i Oasis. Ich przedstawiciele protestowali przeciwko naruszaniu praw autorskich.
Nie wierz w nic, co zobaczysz w Internecie
Wpływ SI na naszą rzeczywistość, to nie tylko muzyka, to w jeszcze większym stopniu obrazy. Tysiące sztucznie wymyślonych i sztucznie wygenerowanych obrazów. Niektóre z nich robią prawdziwą „karierę”. Przez kilka dni hitem Internetu było zdjęcie papieża Franciszka w puchowej kurtce, rzekomo firmy Balenciaga. Długa elegancka kurtka wywoływała mieszane reakcje – od pochwał, że biskup Rzymu zmienia wizerunek, po szyderstwa dotyczące wyglądu i ceny stroju. Szybko jednak okazało się, że zdjęcie jest wytworem sztucznej inteligencji.
- SI jako użyteczny asystent „poprawi” też pracę „rzemieślników”, w tym programistów i nauczycieli, i razem z ludźmi zaleje Internet przeciętnymi oraz fałszywymi treściami - przewiduje profesor Jan Kreft, medioznawca, wykładowca m.in. Politechniki Gdańskiej. - Dobrze problem ten ilustruje generowania obrazów generowanych przez np. GPT, Midjourney, Stable Diffusion i DALL-E. Niedawno niemiecki artysta Boris Eldagsen wygrał światowy konkurs Sony, prezentując czarno-biały portret dwóch kobiet wygenerowany przez sztuczną inteligencję, czym rozpalił i tak już buchający płomień debaty nad „końcem twórczości”.
- Postęp jest tak szybki, że niebawem nadejdzie dzień, kiedy nie będzie można uwierzyć w nic, co zobaczymy w Internecie. Jednocześnie ceniona będzie prawdziwa oryginalność artystów, a sztuczna inteligencja będzie realizowała ich niezwykłe wizje – przewiduje ekspert. - Dlatego z pewnością SI zabierze prace dużej części osób zajmujących odtwarzaniem tego, co już istnieje w sieci i, paradoksalnie, zabierze prace części osób… najlepiej zarabiających; bezpieczne są zawody wymagające choćby siły fizycznej.
Sztuczna inteligencja i halucynacje
Jak ocenia profesor Jan Kreft, na razie inteligencja jest daleka od doskonałości. Nie może powielać ludzkiego rozumowania, ale na przykład jest dobra w analizowaniu, podsumowywaniu i odpowiadaniu na złożone pytania dotyczące książki lub artykułu prasowego, choć jest znacznie mniej biegła, jeśli pyta się ją o wydarzenia, które jeszcze się nie wydarzyły.
Popularny już GPT-4 to sieć neuronowa, rodzaj systemu matematycznego, który „uczy się” poprzez analizę danych składających się na książki, artykuły w Wikipedii, czaty i inne informacje publikowane w Internecie. Jest to nauka kosztowna i… masowa: na przykład Stable Diffusion trenowana była na 600 mln opisanych obrazów, a GPT-3 na pół bilionie „słów” – wyjaśnia Jan Kreft. - Taki mechanizm oznacza, że informacje, które przekazuje sztuczna inteligencja, będą tak samo neutralne, jak i stronnicze, jak informacje, na których została przeszkolona, bo jest lustrzanym odbiciem geniusza i wypaczeń zaszytych w Internecie. I pracuje na wielką skalę, co oznacza, że niebawem większość tekstów w sieci będzie (jeśli już nie jest) „autorstwa” maszyny.
Naukowiec z Gdańska wskazuje jeszcze jeden, niebezpieczny aspekt stosowania sztucznej inteligencji. To sytuacje, gdy nie zna ona prawidłowych odpowiedzi na stawiane pytania lub nie potrafi wykonać innych, powierzanych jej zadań.
- Chatboty mają tzw. halucynacje, czyli tworzą treści językowo wiarygodne, ale nonsensowne; chatGPT nie odpowie na pytanie, „mówiąc”, że nie zna odpowiedzi - zamiast tego, jeśli dane, które posiada, nie dostarczają odpowiedzi, po prostu ją wymyśla – wyjaśnia profesor Jan Kreft. - Halucynacje, takie jak błędne odniesienia, treści i stwierdzenia, mogą być przeplatane z prawdziwymi informacjami i przedstawiane w przekonujący sposób, co utrudnia ich identyfikację bez dokładnego inspekcji i starannego sprawdzenia faktów.
