Teoretycznie, dla automatycznego pojazdu pieszy to pieszy. Jednak naukowcy z Georgia Institute of Technology postanowili sprawdzić reakcje wyrafinowanych technologii odpowiedzialnych za rozpoznawanie przechodniów na ulicy – i doszli do bulwersujących wniosków.
Okazuje się, że systemy instalowane w autonomicznych autach mają kłopot z uznaniem osób o ciemniejszej karnacji za ludzi. Błędy systemu potęgują się tym bardziej, im ciemniejszą skórę ma dana osoba – donosi „Technology Review”.
Testowano osiem inteligentnych systemów rozpoznawania postaci, z których każdy „szkolił się” na standardowym zestawie danych. Przedstawiono im spory zestaw zdjęć przedstawiających przechodniów, których podzielono na dwie grupy – tych z jaśniejszą, i tych z ciemniejszą karnacją, zgodnie ze skalą fototypów skóry Thomasa B. Fitzpatricka.
Zbyt mało danych, zbyt mało nauki
Wynik zaskoczył amerykańskich badaczy: trafność wykrycia na zdjęciu przechodnia był średnio o 5 proc. niższy dla grupy osób o ciemniejszym kolorze skóry – i ta różnica przejawiała się bez względu na porę dnia, podczas której zrobiono zdjęcie, czy też bez względu na zakłócenia obrazu.
Badacze sugerują, że standardowy zestaw danych, jakim karmione są systemy detekcji, zawiera zbyt mało próbek zdjęć osób o ciemnej karnacji lub niewystarczająco się z nich uczy – w obu przypadkach jest to stosunkowo łatwa do usunięcia wada.