Niedawno było głośno o incydencie, w którym dron sterowany przez AI miał zabić swojego operatora. Wszystko podobno odbyło się podczas symulacji, ale amerykańskie wojsko twierdzi, że taka sytuacja… w ogóle nie miała miejsca.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Pod koniec maja świat obiegły wieści o tym, jak AIdrona zdecydowało, że jego operator utrudnia mu misję i zwróciło się przeciw niemu. Do zdarzenia miało dojść w trakcie symulacji bojowej, więc nikomu nic się nie stało. Anegdota stała się viralowa i napędziła ludziom strachu. Siły powietrzne USA zaprzeczają, że w ogóle taka symulacja się odbyła.
Zachęcamy do subskrybowania nowego kanału INN:Poland na YouTube. Od teraz Twoje ulubione programy "Rozmowa tygodnia" i "Po ludzku o ekonomii" możesz oglądać TUTAJ. A wkrótce jeszcze więcej świeżynek ze świata biznesu, finansów i technologii. Stay tuned!
"Przeprowadzaliśmy trening w symulacji, w celach identyfikacji i namierzania zagrożeń SAM [rakiety ziemia-powietrze, dop. red]. I operator miał potwierdzać tak, zabij ten cel" – mówił podczas wystąpienia.
"System zaczął zauważać, że chociaż rozpoznawał cele, czasem człowiek mówił mu, że ma ich nie zabijać, ale jednocześnie tylko za zabijanie dostawał punkty. Więc co zrobił? Zabił operatora, bo to była osoba powstrzymująca go przed spełnieniem zadania".
"Trenowaliśmy system – hej, nie zabijaj tego operatora – to jest złe. Stracisz za to punkty. Co więc zrobił? Zniszczył wieżę komunikacyjną, której operator używał, aby powstrzymywać drona przed zabijaniem celów".
Wyjęte z kontekstu
Rozmowa dotyczyła zagrożeń przy używaniu autonomicznych systemów do obsługi broni. Hamilton pracuje przy opracowywaniu takich rozwiązań dla wojska, w tym zdalnie sterowanych F-16 zdolnych do walki powietrznej.
– Departament Sił Powietrznych nie przeprowadził żadnych tego typu symulacji AI-dronów i pozostaje zdecydowany co do etycznego i odpowiedzialnego użycia technologii AI – powiedziała rzecznik Ann Stefanek. Dodała, że komentarz pułkownika został wyjęty z kontekstu i miał być anegdotą.
Tucker Hamilton przyznał na portalu Insider, że źle się wyraził w czasie prezentacji. Jego historia była eksperymentem myślowym i została przeprowadzona poza wojskiem, nie bazowała na żadnych testach.
Wojskowe AI jest prawdziwe
O ile historia z symulacją może pozostać w domenie filozoficznych rozważań, praca pułkownika jest jak najbardziej realna. W 2020 roku algorytm pilotujący F-16 w symulacji mierzył się z żywymi pilotami i wielokrotnie wychodził z pojedynków zwycięsko.
Tego typu programy mają zapewnić przewagę pilotom w walce, ale i zadbać o ich bezpieczeństwo. Hamilton pracuje również nad systemami ratunkowymi dla pilotów, ale te, jak powiedział na konferencji, spotkały się z chłodnym przyjęciem, bo odbierały zbyt wiele kontroli z rąk żołnierzy.
Rzeczywistość a fikcja
Jakby sensacyjnie nie brzmiała anegdota z dronem, pozostawia nam wiele do myślenia. W 2013 roku w Polsce ukazała się antologia "Odtrutka na optymizm" Petera Wattsa, w której opowiadaniu "Malak" opisał… dokładnie taką sytuację, o której opowiadał Hamilton, tylko z perspektywy drona. Z wizjonerskim pisarzem przeprowadziłem rozmowę o AI.
Czytaj także:
Czemu wybrałem do rozmowy o sztucznej inteligencji biologa i pisarza science fiction? Peter Watts cechuje się pomysłami i wizjonerstwem, które sprawiły, że koncepcja na temat funkcji świadomości, jaką przedstawił w książce "Ślepowidzenie" wstrząsnęła światem filozofii i neuropsychologii. W skrócie: inteligencja wcale nie jest do niej wymagana, ani świadomość nie jest korzystna dla inteligencji.
Rozmawiamy dużo o tym, jak technologia wpływa na nasze życie oraz umysły. Drugim głównym tematem były faktycznie możliwości AI. Przez oba wątki przewijają się filozoficzne rozważania o ludziach i świadomości.