Reklama.
Dla przeciętnego człowieka może to wydawać się nieco wydumany „apel” ACM o uczciwość w informatyce. Przyzwyczailiśmy się do tego, że jak coś w ogóle działa na komputerze, to życie staje się prostsze. Mało kto będzie przecież sprawdzał czy komputer dobrze liczy. Problem w tym, że każdy komputer robił, robi i będzie robił to, co ktoś mu kazał. Dlatego możemy być pewni, że jeszcze nie raz "2 + 2" wcale nie będzie równe 4, albo 4,0. Nawet jeśli ktoś nam powie, że to jest sztuczna inteligencja, albo algorytm uczący się, to możemy być pewni że zawiera błędy. Jeśli są one wynikiem przypadku, niedopatrzenia, czyli po prostu niezamierzone, to pół biedy. Problemy zaczynają się wtedy, gdy są wynikiem ignorancji, uprzedzeń albo celowych manipulacji.
Ignorancja
Niestety jak się okazuje, wraz z postępem nauki i technologii, zwiększa się dostępność ignorantów do "zaawansowanych" algorytmów z dziedziny uczenia maszynowego, sztucznej inteligencji czy przetwarzania języka naturalnego. W zasadzie te algorytmy nigdy nie były jakoś szczególnie niedostępne. Jednak kilka lat temu ich użycie wymagało większego wysiłku, wiedzy i często wiązało się z dostępem do drogiego sprzętu. Dzisiaj, dzięki rozwojowi oprogramowania do analizy danych, wiele obliczeń - dawniej czasochłonnych - można wykonać nawet nie wiedząc ile dzieje się "pod spodem". Co więcej, gotowe pakiety wykorzystujące ww algorytmy są dostępne, udokumentowane i aktualizowane za darmo. Przykładowo, dopasowanie modelu regresji z wieloma zmiennymi objaśniającymi np. do celów predykcji w pakiecie statystycznym R składa się kilku prostych poleceń. Cały proces - nie wliczając przygotowania danych wejściowych - trwa kilka sekund. W ten sposób, przeciętny zjadacz chleba może dość łatwo zastosować takie rozwiązanie nawet nie rozumiejąc co robi. A już na pewno nie wiedząc, jak otrzymane wyniki ocenić pod kątem wartości i rzetelności naukowej.
Frenologia maszynowa
Efektem beztroski w stosowaniu zaawansowanych algorytmów do różnych rzeczy są "kwiatki" takie jak wspomniany wcześniej projekt z pogranicza uczenia maszynowego i frenologi, którego efektem jest wytwór algorytmiczny klasyfikujący azjatyckie twarze ustalający czy ich właściciele są przestępcami czy nie. Albo - co już naprawdę jest zabawne - konkurs piękności beauty.ai, w którym urodę ocenia sztuczna inteligencja. Algorytm wykorzystujący tzw. głębokie uczenie (ang. Deep Learning) z założenia miał "oceniać" obiektywnie symetrię, kształt twarzy itp. Problem w tym, że wśród najpiękniejszych wyraźnie dominował jasny odcień skóry. Ostatecznie okazało się, że zbiory uczące składały się głównie z wizerunków białych osób. Dlatego też osoby wytypowane przez sztuczną inteligencję musiały także należeć do tej grupy. W zasadzie prosty błąd, ale jeśli ktoś bierze się za uczenie maszynowe, to dobór tzw. zbiorów uczącego i testowego jest fundamentalny. Te algorytmy są i były dobre. Zawiedli ludzie. Na szczęście organizatorzy beauty.ai zorientowali się w czym problem i następne edycje mają być lepiej zorganizowane.
Błąd jest tak oczywisty, że można się zastanawiać czy to nie było celowe i obliczone na wzbudzenie zainteresowania większego grona odbiorców informacji. Mam wątpliwości o co konkretnie chodziło organizatorom, ale jedną rzecz udało im się osiągnąć. Zwrócili uwagę wielu osób na jedną rzecz: rozsądek jest czymś więcej niż myślenie. Zatem, chyba nadeszła pora na rozpoczęcie badań nad sztucznym rozsądkiem. Jeszcze nie jest za późno...