Pracownik Google'a zawieszony. Twierdzi, że AI firmy... posiada świadomość

Krzysztof Sobiepan
13 czerwca 2022, 17:34 • 1 minuta czytania
Inżynier Google'a Blake Lemoine twierdzi, że językowe AI LaMDA jest świadome. By to udowodnić upublicznił fragmenty rozmów z programem, który twierdzi m.in. że "jest osobą" i "chce być traktowany jak pracownik". Korporacja kategorycznie odrzuca tezy pracownika, który został wysłany na płatny urlop. Wiary nie dają mu też naukowcy.
Google zawiesiło Blake'a Lemoine za naruszenie zasad poufności. Fot. FABRICE COFFRINI/AFP/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

Obserwuj INNPoland w Wiadomościach Google

AI LaMDA jest świadoma? Google zawiesza pracownika

Blake Lemoine, jeden z inżynierów firmy Google, opublikował w internecie fragmenty rozmów ze sztuczną inteligencją LaMDA – Language Model for Dialogue Applications. W wywiadzie dla "The Washington Post" utrzymuje zaś zdanie, że AI jest świadoma (ang. sentient).


Sprawa szybko obiegła internet, bo Lemoine we wpisach i artykułach twierdzi, że LaMDA "jest osobą" i że program "chce być traktowany jako pracownik Google, a nie jako własność firmy".

Korporacja zatrudniająca Lemoine dodała tylko oliwy do ognia, gdy zawiesiła pracownika za zdradzanie tajemnic firmy i wysłała go na płatny urlop.

W artykule "The Washington Post" wypowiada się także Brian Gabriel, rzecznik Google'a. Przekonuje on, że Lemoine zgłosił swoje wątpliwości do przełożonych, a ci odrzucili jego punkt widzenia.

– Zespół technologów i etyków przeanalizował zgodnie z zasadami AI firmy obawy zgłaszane przez obawy Blake'a. Materiał dowodowy nie potwierdzał jego tez. Został poinformowany, że nie ma dowodów na to, że LaMDA jest inteligentna, a jest wiele dowodów przeciw tej teorii – zaznacza Gabriel.

Google utrzymuje, że Lemoine miał być przekonany o ludzkich cechach AI przez antropomorfizację. To zjawisko, w którym uważamy, że przedmiot czy zwierzę posiada wyższe cechy umysłowe, mimo że dany stan rzeczy czy wydarzenie da się wyjaśnić w prostszy sposób. Przykładowo – nożyczki nie spadły ze stołu "na złość", a pies nie "rozumie" swojego imienia, a reaguje na dźwięk.

Wydaje się jednak, że Lemoine mógł też nieco naginać definicje na swoją korzyść, na co zwrócił uwagę wielki autorytet naukowy.

– [Materiał to] kula pełna zamętu. Jeden z (byłych) ekspertów Google'a ds. etyki nie rozróżnia pojęć świadomości, inteligencji i wiedzy o samym sobie. Nie ma żadnych dowodów na to, że model językowy korporacji posiada którekolwiek z trzech – wskazał Steven Pinker, jeden z najbardziej poważanych psychologów kognitywnych na świecie, z uniwersytetu Harvarda.