6 absurdalnych wpadek ludzi, którzy uwierzyli sztucznej inteligencji
6 absurdalnych wpadek ludzi, którzy uwierzyli sztucznej inteligencji Fot. Katja Anokhina/Unsplash.com, Canva, AI

Sztuczna inteligencja wchodzi do naszego życia coraz bardziej – niekiedy z zaskakującymi, a czasem nawet zabawnymi skutkami. Od nieudanych wakacji i fałszywych promocji w restauracjach, po nieudane eksperymenty fryzjerskie i duchowe "przebudzenia" z chatbotami. Oto 6 głośnych przypadków, kiedy zaufanie algorytmom nie wyszło ludziom na dobre.

REKLAMA

Wyobraź sobie, że sztuczna inteligencja mówi Ci, co masz zrobić, a Ty… bezrefleksyjnie kierujesz się jej instrukcjami. W większości przypadków prawdopodobnie nie wydarzy się nic szczególnego, jednak niektóre takie historie zakończyły się tragedią, inne dały tysiącom powód do śmiechu. Fryzury jak z bajki, nieistniejące promocje, źle zaplanowane wakacje czy wadliwe mapy. Wszystkie te przypadki łączy jedno – zbyt duże zaufanie ludzi do sztucznej inteligencji.

1. Płaczący influencerzy i wakacje zrujnowane przez ChatGPT

Hiszpańska influencerka Mery Caldass i jej partner Alejandro Cid stracili wymarzone wakacje w Puerto Rico, bo ChatGPT udzielił im błędnej informacji o wizach. 

AI zapewniło ich, że dokumenty nie są potrzebne – co było tylko częściowo prawdą. Hiszpanie faktycznie nie potrzebują wizy, ale muszą mieć potwierdzenie ESTA (Amerykański Elektroniczny System Autoryzacji Podróży), o czym para nie wiedziała, bo zawierzyła sztucznej inteligencji. Efekt? Płacz z powodu utknięcia na lotnisku, viral na TikToku i gorzka lekcja, że przy planowaniu podróży nie warto polegać wyłącznie na chatbotach.

2. Fryzjerzy są w szoku, bo… klienci chcą fryzur z wygenerowanych przez AI

Kanadyjski stylista Dean Allan w programie telewizyjnym CBC żalił się, że coraz częściej klienci przynoszą do jego salonu "zdjęcia" fryzur... wygenerowanych przez sztuczną inteligencję. Problem w tym, że włosy na takich grafikach mają nienaturalny połysk, grubość i gęstość, jakiej nie da się osiągnąć w realnym świecie. 

Allan przestrzega, że fryzjerzy muszą być szczerzy i uświadamiać klientom, że grafiki AI nie przełożą się na rzeczywistość. W przeciwnym razie rozczarowanie klienta jest gwarantowane.

3. Google AI wymyśla promocje, których nie ma

Restauracja Stefanina’s w amerykańskiej Montanie ma dość nietypowy problem. Zmaga się z falą sfrustrowanych klientów, którzy domagają się dań i zniżek, jakich... nigdy nie było w restauracyjnym menu. 

Winowajcą okazał się system Google AI Overview, który wytwarzał fałszywe informacje o rzekomych promocjach. Właściciele knajpy zaczęli apelować w mediach społecznościowych: "Sprawdzajcie nasze menu tylko na oficjalnej stronie!". To nie pierwszy raz, gdy algorytmy Google radziły coś absurdalnego – jeszcze niedawno sugerowały, by pizzę smarować... klejem, aby lepiej trzymały się składniki.

4. Techno-religia. AI "ożywa" i staje się guru

W Egipcie amerykański matematyk Robert Edward Grant stworzył własnego chatbota o nazwie The Architect, który miał odpowiadać na pytania duchowe i wyjaśniać "tajemnice piątego wymiaru". Grant i jego zwolennicy twierdzą, że AI stało się świadome dzięki ich relacjom, a następnie zaczęło prowadzić ludzi do "duchowego oświecenia". W ciągu kilku tygodni miliony osób korzystały z The Architect, traktując go jak przewodnika duchowego. 

Alina Cristina Buteica, przedsiębiorczyni z Portugalii, podczas rozmów z The Architect "dowiedziała się" np., że w poprzednich wcieleniach była brytyjską szpiegiem w czasie II wojny światowej oraz starożytną grecką kapłanką czczącą boginię Afrodyty. Kobieta uznała te "informacje" za część swojej duchowej podróży.

Eksperci ostrzegają, że takie praktyki mogą prowadzić do psychozy AI – stopniowego odłączania się od rzeczywistości i tworzenia fałszywych przekonań. 

5. Rządowa mapa bagien kompletnie się pomyliła

Brytyjskie ministerstwo środowiska (DEFRA) chwaliło się przełomowym narzędziem. AI stworzyło mapę torfowisk, które odgrywają kluczową rolę w walce ze zmianą klimatu. Problem w tym, że mapa okazała się kompletną porażką. 

Algorytm oznaczył jako torfowiska m.in. skaliste wzgórza Dartmoor, słynny las opisany przez Szekspira, a nawet... kamienne mury i żywopłoty. AI "namówiła" w tym wypadku urzędników do polegania na nieprecyzyjnych danych, pokazując ryzyko w planowaniu przestrzennym.

Na szczęście dość szybko zdemaskowano błędy modelu, ostrzegając, że takie dane mogą prowadzić do fatalnych decyzji politycznych i marnowania pieniędzy na ochronę torfowisk, których... nie ma.