Wstrząsające badanie. Autonomiczne auta nie wszystkich przechodniów traktują jednakowo

Mariusz Janik
Teoretycznie, dla automatycznego pojazdu pieszy to pieszy. Jednak naukowcy z Georgia Institute of Technology postanowili sprawdzić reakcje wyrafinowanych technologii odpowiedzialnych za rozpoznawanie przechodniów na ulicy – i doszli do bulwersujących wniosków.
Autonomiczne auto Waymo. Systemy detekcji pieszych w takich autach mają większy kłopot ze zidentyfikowaniem osób o ciemnej karnacji. Fot. YouTube / azcentral.com and The Arizona Republic
Okazuje się, że systemy instalowane w autonomicznych autach mają kłopot z uznaniem osób o ciemniejszej karnacji za ludzi. Błędy systemu potęgują się tym bardziej, im ciemniejszą skórę ma dana osoba – donosi „Technology Review”.

Testowano osiem inteligentnych systemów rozpoznawania postaci, z których każdy „szkolił się” na standardowym zestawie danych. Przedstawiono im spory zestaw zdjęć przedstawiających przechodniów, których podzielono na dwie grupy – tych z jaśniejszą, i tych z ciemniejszą karnacją, zgodnie ze skalą fototypów skóry Thomasa B. Fitzpatricka.


Zbyt mało danych, zbyt mało nauki
Wynik zaskoczył amerykańskich badaczy: trafność wykrycia na zdjęciu przechodnia był średnio o 5 proc. niższy dla grupy osób o ciemniejszym kolorze skóry – i ta różnica przejawiała się bez względu na porę dnia, podczas której zrobiono zdjęcie, czy też bez względu na zakłócenia obrazu.

Badacze sugerują, że standardowy zestaw danych, jakim karmione są systemy detekcji, zawiera zbyt mało próbek zdjęć osób o ciemnej karnacji lub niewystarczająco się z nich uczy – w obu przypadkach jest to stosunkowo łatwa do usunięcia wada.