Popularnonaukowy komiks ma pomóc w misjach kosmicznych? Tak! Jego celem jest opisanie procesu budowy bezpiecznych i transparentnych modeli AI.
Jednym ze współautorów programu jest Politechnika Warszawska.
Projekt PINEBERRY
Projekt PINEBERRY to wspólne dzieło Politechniki Warszawskiej, Europejskiej Agencji Kosmicznej (ESA), Europejskiego Centrum Operacji Kosmicznych (ESOC), Europejskiego Centrum Badań i Technologii Kosmicznych (ESTEC) oraz KP Labs, polskiej spółki sektora kosmicznego.
Celem jest stworzenie dwóch dokumentów o tym jak budować bezpieczne i wyjaśnialne, czyli zrozumiałe i transparentne, modele AI do celów misji kosmicznych. Czyli jak uzyskać godne zaufania i precyzyjne narzędzia, którym można powierzyć zebrane dane.
Oba dokumenty wystąpią w dwóch wariantach. Pierwszy to typowa wersja techniczna, wyczerpująco szczegółowa. Drugi to komiks.
"Wydawać by się mogło, że forma komiksowa to nie jest istotne osiągnięcie naukowe, ale w tym projekcie kluczowe jest przekazanie trudnych metod w sposób przystępny operatorom misji kosmicznych, czyli bardzo zajętym ludziom. Lżejsza forma fabularna była do tego bardzo przydatna" – wyjaśnił w informacji prasowej prof. Przemysław Biecek, kierujący pracami zespołu MI2.AI z Politechniki Warszawskiej.
Komiks dla naukowców
Historycznie mieliśmy już dowody, że w tej formie można przekazać kluczowe i skomplikowane informacje - w czasie II Wojny Światowej wojska USA korzystały z umiejętności rysowników komiksowych do tworzenia instrukcji obsługi dla sprzętu wojskowego, w tym pojazdów. Do takiej roli we współpracy z artystami wyznaczono m.in. znanego z Marvela Stana Lee.
Wtedy ilustracje pomagały przyswoić informacje nawet osobom niewykwalifikowanym. Mówimy jednak o naukowcach. Ci w zadaniach kosmicznych zajmują się ogromną ilością danych, a lektura obszernej dokumentacji może pochłaniać za dużo czasu.
A do tego taka bardziej atrakcyjna forma komiksu ma zachęcić ich do korzystania z AI.
Ze strony Politechniki Warszawskiej w projekt zaangażowani są przedstawiciele Wydziału Matematyki i Nauk Informacyjnych oraz Wydziału Elektroniki i Technik Informacyjnych.
O czym traktuje dokumentacja?
Politechnika Warszawska podaje, że zespół bezpiecznego AI opracował katalog 9 najczęstszych podatności modeli AI – słabości, które może wykorzystać nieuprawniona osoba. A do każdej opracowano techniki zabezpieczające.
prof. Przemysław Biecek
kierujący zespołem MI2.AI z Politechniki Warszawskiej.
Do tego dochodzi przygotowanie narzędzi AI do różnych zadań przydatnych dla naukowców, np. lepszych odczytów parametrów gleby pod kątem zastosowań w rolnictwie na bazie odczytów hiperspektralnych z satelit.
Prace są na ostatnim etapie i projekt ma być gotowy do udostępnienia w kwietniu. Największym wyzwaniem dla zespołu była różnorodność zastosowań sztucznej inteligencji, technologii rozwijającej się bardzo szybko.
Zobacz także
Oprócz współpracy z KP Labs, w kwestiach związanych z kosmosem, zespół pracuje także nad zastosowaniami zdrowotnymi w radiologii czy onkologii i jest otwarty na kolejnych partnerów.