Google rozwija projekt o nazwie AutoML. Jego celem jest zaprojektowanie sztucznej inteligencji do uczenia innych sztucznych inteligencji. Właśnie okazał się ponadprzeciętnie skuteczny w nauce rozpoznawania obrazów. Niesie to zupełnie nowe możliwości, choćby w rozwoju autonomicznych samochodów czy robotów.
Prace nad AutoML rozpoczęły się w maju 2017 roku. Naukowcy z Google Brain zdecydowali się właśnie ogłosić, że ich sztuczna inteligencja stworzyła swój młodszy odpowiednik i w ekspresowym tempie nauczyła go rozpoznawania obrazów szybciej. Człowiek okazał się gorszym nauczycielem.
Naukowcy zautomatyzowali proces maszynowego uczenia się, stosując metody jego wzmocnienia. AutoML działa jak neuronowy sterownik, każąc maszynie uczyć się konkretnego zadania. Nowa sztuczna inteligencja została nazwana NASNet i jej zadaniem jest rozpoznawanie obiektów - ludzi, samochodów, świateł ulicznych, torebek, plecaków itp. – na materiałach wideo w czasie rzeczywistym.
W efekcie procesu uczenia się, NASNet prześcignął wszystkie inne systemy wizyjne komputerów. Według naukowców z Google’a podczas testu osiągnął 82,7 procent dokładności w prognozowaniu obrazów. To o kilka procent lepiej, niż maszyny uczone bezpośrednio przez ludzi.
Uczenie maszynowe zapewnia wielu systemom sztucznej inteligencji zdolność wykonywania określonych zadań. Koncepcja jest prosta, ale sam proces wymaga czasu i wysiłku. Okazuje się, że to zadanie można zlecić innej sztucznej inteligencji, która zrobi to szybko i precyzyjnie.
Nie przypadkiem naukowcy wzięli na tapetę technologie rozpoznawania obrazów. Są one bardzo poszukiwane, bo można je wykorzystać do tworzenia zaawansowanych robotów z obsługą sztucznej inteligencji lub do pomocy osobom niedowidzącym. Pomagają też rozwijać motoryzację – im szybciej autonomiczny pojazd rozpoznaje obiekty na swojej drodze, tym szybciej może na nie zareagować, zwiększając w ten sposób bezpieczeństwo na drodze.
Mimo wszystko naukowcy podchodzą do swojej pracy bardzo ostrożnie. Z jednej strony rozwijają technologię, a jej źródło będzie otwarte dla innych badaczy. Z drugiej zastanawiają się jak zapobiec temu, by technologia nie przekazywała błędów czy własnych uprzedzeń, swojemu „dziecku” oraz jak kontrolować rozwój sztucznej inteligencji, by nie wyrwała się spod opieki.