No to się doigraliśmy. Sztuczna inteligencja od Google nauczyła się być „wysoce agresywna w stresujących sytuacjach"

Wyniki eksperymentu inżynierów Google bywają porównywane do stworzenia SkyNetu, diabolicznego systemu znanego z serii filmów o Terminatorze.
Wyniki eksperymentu inżynierów Google bywają porównywane do stworzenia SkyNetu, diabolicznego systemu znanego z serii filmów o Terminatorze. Fot. 123rf.com
Chodzi o ten sam system, który w ubiegłym roku wsławił się pokonaniem koreańskiego mistrza gry go – znacznie bardziej wyrafinowanej niż szachy, w które grywały wcześniejsze superkomputery. DeepMind AI, jak nazywa się rozwijany przez Google system, od tamtej pory rozwijał umiejętność imitowania ludzkiego głosu oraz wziął udział w niewinnym z pozoru eksperymencie.

Pracujący dla giganta z Mountain View badacze chcieli sprawdzić, jak DeepMind będzie się zachowywał w interakcjach z innymi. Chodziło m.in. o rywalizację w prostej grze Gathering, w której DeepMind konkurował z wirtualnym przeciwnikiem o to, który z tych „graczy” zbierze więcej owoców.



Póki owoców nie brakowało, każdy z systemów skrzętnie zajmował się „własnym podwórkiem”. Ale gdy konfrontacja stała się nieunikniona, przeciwnicy zaczęli samoistnie sięgać po „broń”, jaką była możliwość użycia wiązki lasera. Z użyciem tego lasera nie wiązała się dodatkowa nagroda, po prostu taki „strzał” wyeliminowywał przeciwnika na pewien czas, co pozwalało zebrać dodatkową ilość jabłek.

Dla badaczy Google taki obrót spraw był szokiem: we wcześniejszych przypadkach mniej inteligentne niż DeepMind systemy nie sięgały w tej sytuacji po laser i zwykle gry kończyły się – w przybliżeniu – remisem. Naukowcy z Mountain View stwierdzili, że w działaniach sztucznej inteligencji widać było zadziwiającą skłonność do zachowań, jakie moglibyśmy nazwać „sabotażem”, „chciwością” i „agresją”. Skłonność ta była tym większa, im bardziej wyrafinowany system był badany.

- Ten model pokazuje, że niektóre aspekty zachowania imitującego ludzkie pojawiają się jako produkt przebywania w pewnym środowisku i nauki – skwitował Joel Z. Leibo, jeden z badaczy zaangażowanych w projekt. Pewnym niewielkim pocieszeniem mogą być rezultaty innej prostej gry komputerowej, którą „bawił się” DeepMind – Wolfpack.

W tej grze jest trzech uczestników: dwa wilki i ich ofiara, która jednak sama potrafi być równie niebezpieczna. Dwa superkomputery odpowiedzialne za zachowanie wilków stosunkowo szybko nauczyły się, że współdziałanie wilków sprawia, że oba są nagradzane punktami, podczas gdy polowanie na „ofiarę” na własną rękę wiązało się z większym ryzykiem utraty łupu. Zatem w określonych sytuacjach sztuczna inteligencja jest skłonna do współdziałania. O ile można to traktować jako pocieszenie.

Źródło: ScienceAlert
POLUB NAS NA FACEBOOKU
Trwa ładowanie komentarzy...