Ludzie kłamią. Gdy współpracują ze sztuczną inteligencją nie czują wyrzutów sumienia.
Ludzie kłamią. Gdy współpracują ze sztuczną inteligencją nie czują wyrzutów sumienia. Fot. Toa Heftiba/Unsplash

Naukowcy dowiedli, że gdy powierzamy zadania AI, częściej oszukujemy. Nie dlatego, że jesteśmy źli, ale dlatego, że czujemy mniejsze poczucie winy, gdy wytwarzamy nieprawdę z jej udziałem. Zjawisko to nazwano rozproszeniem odpowiedzialności i może mieć poważne skutki dla świata, w którym coraz więcej decyzji podejmuje sztuczna inteligencja.

REKLAMA

Niejednokrotnie pisaliśmy o tym, że sztuczna inteligencja ma skłonności do braku uczciwości, a nawet zmyślania, jeśli "wie", że taka odpowiedź bardziej nam się spodoba. Innym razem naukowcy z OpenAI i Apollo Research podjęli próbę nauczenia sztucznej inteligencji uczciwości, ale finalnie AI potrafiła rozpoznać, że jest oceniana i… zmieniała zachowanie tak, by wypaść przed ludźmi bez zarzutu.

Ludzie częściej oszukują, gdy korzystają ze sztucznej inteligencji

Nowe badanie opublikowane w Nature dowiodło, że sztuczna inteligencja nie tylko nie jest najuczciwszym tworem, ale co więcej, sprawia, że ci, którzy jej używają, też częściej oszukują. Powodem jest tzw. rozproszenie odpowiedzialności. Człowiek, który powierza wykonanie zadanie sztucznej inteligencji, czuje mniejsze poczucie winy za ewentualne niemoralne zachowanie.

"Skala oszustw może być ogromna" – powiedziała współautorka badania Zoe Rahwan, badaczka z Instytutu Maxa Plancka ds. Rozwoju Człowieka w Berlinie.

Rahwan dodała, że uczestnicy badania szczególnie często oszukiwali, gdy "mogli formułować polecenia w sposób, który nie wymagał od nich bezpośredniego proszenia AI o nieuczciwe działanie". W takiej sytuacji jedynie sugerowali sztucznej inteligencji by oszukiwała, gdy stawiali przed nią zadanie.

Gdy sztuczna inteligencja nas wyręcza, koszt emocjonalny maleje

Uczestnicy badania mieli do wykonania kilka zadań, takich jak podanie liczby oczek, które wypadły po rzucie kością (im większa liczba, tym lepsza nagroda) oraz wzięli udział w symulacji unikania podatków, w której mogli zaniżać dochody, by otrzymać większą wypłatę.

Okazało się, że gdy ludzie zgłaszali wyniki samodzielnie, tylko 5 proc. z nich kłamało. Jednak gdy powierzali zadanie algorytmowi i nadawali mu cel ukierunkowany na zysk, odsetek nieuczciwego zachowania sięgał aż 88 proc.!

Wcześniejsze badania pokazały, że ludzie czują się gorzej ze sobą, gdy kłamią. Nowe wyniki sugerują jednak, że ten koszt emocjonalny maleje, gdy nie prosimy kogoś wprost o kłamstwo, a jedynie delikatnie go w tę stronę popychamy. A jeśli tym "kimś" jest maszyna – tym łatwiej o usprawiedliwienie niemoralnego zachowania.