Polka tworzy aplikację ułatwiająca życie osób z zaburzeniami mowy. "Chcę pomóc im w codziennym życiu"
Dawid Wojtowicz
25 października 2015, 07:04·7 minut czytania
Publikacja artykułu: 25 października 2015, 07:04
W trzecim odcinku cyklu "Milionerzy Polskiej Nauki", w którym opisujemy dokonania polskich innowatorów - laureatów konkursu Lider organizowanego przez Narodowe Centrum Badań i Rozwoju - prezentujemy sylwetkę Agnieszki Bętkowskiej Cavalcante, która połączyła pracę naukową z praktycznym wsparciem osób dotkniętych niepełnosprawnością.
Reklama.
Dr Bętkowska z wykształcenia jest informatykiem. Jako absolwentka Uniwersytetu Adama Mickiewicza (UAM) w Poznaniu karierę naukową rozwijała w Niemczech (FZI w Karlsruhe), a następnie w Japonii, gdzie pracowała w zespole prof. Furui – światowej klasy specjalisty w dziedzinie rozpoznawania mowy. Z obronionym na Politechnice Tokijskiej (Tokyo Institute of Technology) doktoratem wróciła na stałe do Polski. Jako pasjonatka tematów związanych ze sztuczną inteligencją koncentruje się nad zastosowaniem efektów swoich badań w dziedzinie tzw. e-Zdrowia.
Prywatnie szczęśliwa mama trójki dzieci. Swego męża, Brazylijczyka, poznała podczas pobytu w Japonii, gdy obydwoje robili doktorat. Serwisowi INNPoland wyjawia, jak doszła do tego sukcesu, co zainspirowało ją do pracy nad wyróżnionym projektem mPAS i jakie ma jeszcze pomysły, które mogą wesprzeć ludzi z ograniczeniami zdrowotnymi.
Pani Doktor, jak wyglądało Pani życie zawodowe przed sukcesem w programie Lider?
Już w czasie studiów magisterskich interesowałam się technologią automatycznego rozpoznawania mowy, co zaowocowało współpracą z Panią Profesor Anną Preis z Instytutu Akustyki na Uniwersytecie Adama Mickiewicza. Dzięki jej wsparciu udało mi się otrzymać prestiżowe stypendium Monbusho oferowane przez rząd Japonii i umożliwiające młodym i zdolnym naukowcom dwuletni staż badawczo-naukowy, a następnie studia doktoranckie na japońskich uczelniach. W ten sposób trafiłam do grupy profesora Furui – w skali światowej jednego z najbardziej prężnie działających ośrodków rozpoznawania mowy.
Czego się Pani nauczyła pod okiem tego światowej sławy specjalisty?
Pod jego kierunkiem prowadziłam badania mające na celu umożliwienie robotom osobistym rozumienie otaczających ich sygnałów dźwiękowych. Przykładowo, robot powinien rozpoznawać komendy skierowane do niego, ale ignorować rozmowy prowadzone przez domowników. Po ukończeniu doktoratu brałam też udział w japońskim projekcie METI, w ramach którego współpracowano z największymi firmami japońskimi, takimi jak Hitachi, Mitsubishi, NEC, czy Toshiba. Celem projektu było utworzenie szybkiego i niezawodnego systemu rozpoznawania mowy miedzy innymi dla nawigacji samochodowych i systemów automatyki domowej.
Jak potoczyły się wydarzenia po powrocie do Polski?
Po powrocie do ojczyzny pracowałam w polskiej filii znanej amerykańskiej firmy Telcordia. Zdobyłam tam doświadczenie związane z ubieganiem się o europejskie i polskie granty – m.in. kierowałam pracami nad przygotowaniem wniosków składanych przez międzynarodowe konsorcja na projekty o budżetach kilku milionów euro przy współpracy z największymi europejskimi firmami technologicznymi, takimi jak Ericsson, SAP, Daimler. Te umiejętności i wiedza pomogły mi potem w składaniu wniosku o projekt Lider.
Co spowodowało, że postanowiła Pani być aktywna również w świecie biznesu?
Wspomniane doświadczenia pozwoliły mi na zrozumienie specyfiki badań naukowo- rozwojowych w krajach europejskich, oraz dały impuls do prowadzenia własnej firmy, Gido Labs, którą obecnie zarządzam razem z dwiema wspólniczkami. Naszą intencją jest, aby działalność ta była swego rodzaju pomostem pomiędzy teoretycznymi badaniami, a praktycznymi potrzebami rynku oraz zwykłych ludzi.
Jak przeczytałem, projekt mPAS ma właśnie wychodzić naprzeciw tym ludzkim potrzebom. Jaka historia stoi u zarania jego powstania?
Pewnego dnia prowadziłam wykład dotyczący systemów rozpoznawania mowy na UAM. Na moje zajęcia uczęszczał student, który miał silne zaburzenie mowy. Pomimo wielu trudności był zdeterminowany, by ukończyć studia. Rozmowy z nim były dla mnie bardzo inspirujące i skłoniły mnie do zajęcia się tematyką rozpoznawania mowy zaburzonej. W efekcie nawiązałam kontakt z nauczycielami i uczniami z Ośrodka Szkolno-Wychowawczego dla Dzieci i Młodzieży Niepełnosprawnej im. Zbigniewa Tylewicza w Poznaniu. Rozmowy z nimi były dla mnie dalszym źródłem pomysłów, a sam projekt mPAS jest próbą odpowiedzenia na konkretne potrzeby niepełnosprawnych użytkowników.
Jak potoczyły się losy tego studenta, który był dla Pani źródłem inspiracji?
Jest to bardzo interesująca historia. Otóż student ten napisał wyróżniającą się pracę magisterską, a obecnie pracuje w naszym projekcie – jest nie tylko programistą, ale także pomaga nam rozwijać technologię mPAS w sposób odpowiadający na niestandardowe potrzeby osób niepełnosprawnych, z zaburzeniami mowy.
Czy ta konkretna osoba uświadomiła Pani znacznie szerszy problem społeczny?
Nie inaczej. Obserwując wspomnianego wyżej studenta oraz trudności, jakie napotyka każdego dnia realizując swoje ambitne plany i cele, zdałam sobie sprawę jak wielu ludzi codziennie pokonuje liczne przeszkody wynikające z tego, że nie są oni rozumiani przez otoczenie. Często zdarza się też, że nie mogąc ich przezwyciężyć rezygnują z wychodzenia z domu, udziału w wydarzeniach towarzyskich czy sportowych. Ponadto, często zaburzenie mowy powiązane jest z zaburzeniami motorycznymi.
Jak w związku z tym można by było im ulżyć w tej niedoli?
W codziennym życiu mogłyby wspomóc ich systemy rozpoznające ich mowę. Przykładowo, umożliwiałyby głosowe sterowanie urządzeniami domowymi, otwierać drzwi, itp. Stąd pojawił się pomysł na system automatycznego rozpoznawania mowy zaburzonej, który mógłby pomóc osobom z mową niewyraźną i niezrozumiałą dla otoczenia. Grant badawczy z programu LIDER był świetną okazją do realizacji pomysłu stworzenia platformy umożliwiającej osobie „nie-technicznej” budowę i trening osobistego asystenta mowy.
Jaka ma być rola tego „asystenta”?
Asystent taki będzie rozumiał mowę swojego „twórcy” i na tej podstawie będzie wspierał proces komunikacji werbalnej osoby z zaburzeniem mowy. Mówiąc prościej: przenosimy proces budowy takiego systemu z laboratorium do domu, gdzie każdy będzie mógł stworzyć swojego asystenta mowy i dostosować go do swojej wady i potrzeb. Utworzony w ten sposób asystent będzie mógł być następnie wykorzystany w różnego rodzaju aplikacjach korzystających z funkcji rozpoznawania mowy – wspomagających dyktowanie, sterowanie automatyką domową, pomagających w komunikacji w trakcie wizyty np. u lekarza czy w restauracji i wielu, wielu innych.
Jak długo trwały prace nad tą technologią? Jakie trudności wystąpiły w czasie prac na nią?
Projekt trwa już drugi rok. Pierwszym problemem, z jakim musieliśmy się zmierzyć było nagrywanie próbek mowy do wstępnych testów zaproponowanych rozwiązań, ponieważ osoby z zaburzeniami mowy często mają również inne niepełnosprawności utrudniające im sprawne funkcjonowanie w życiu codziennym. Osoby te często szybko się męczą, tracą koncentrację, w związku z tym trudno było uzyskać wystarczającą liczbę danych. Innym problemem jest automatyczna detekcja sygnału mowy: wykrycie momentu w którym się rozpoczyna, a w którym się kończy mowa wraz z odróżnieniem czy mamy do czynienia z mową czy też z szumem tła bądź innymi dźwiękami z otoczenia.
W opisie projektu wspomniano o współpracy z naukowcami za granicy. Czy mogłaby Pani rozwinąć ten wątek?
W czasie trwania projektu nawiązaliśmy kontakt z naukowcami z Niemiec (Humboldt University w Berlinie), którzy prowadzą badania nad prozodią mowy szeptanej. Prozodia to brzmieniowe właściwości mowy (takie jak akcent, czy intonacja) umożliwiające lepsze zrozumienie wypowiadanych treści. Współpraca ta zaowocowała wspólnym złożeniem wniosku o “ERC Consolidator Grant” t.j. grant przyznawany najwybitniejszym europejskim naukowcom. Potencjalne zastosowanie tego projektu jest bardzo szerokie, może między innymi wspomóc komunikację werbalną osób, które mogą się porozumiewać tylko za pomocą szeptu (np. osoby po wycięciu krtani).
Na jakich zasadach funkcjonuje założona niedawno spółka, w której rozwijany jest mPAS?
Gido Labs jest tworem dość nietypowym, gdyż jest zarówno spółką z o.o. jak i jednostką naukową. W związku z tym możemy m.in. realizować u siebie projekty z programu Lider, a także inne, w których prace badawcze wspierają rozwój innowacyjnych produktów przedsiębiorców. Jeśli chodzi natomiast o kwestie bieżącej organizacji pracy, mamy dość elastyczne podejście. Nie ma u nas sztywnych godzin pracy, jest natomiast ścisła, bieżąca współpraca nad konkretnymi zadaniami. Nie stanowi dla nas przeszkody to, że nie wszyscy członkowie zespołu są na stałe obecni w biurze. Wykorzystując najnowsze technologie nasze „wirtualne” miejsce pracy jest dla wszystkich zawsze pod ręką – dzięki temu łatwiej nam tworzyć jeden zgrany zespół.
Jak zamierza Pani wykorzystać fundusze pozyskane z NCBR?
Niedługo zacznie się trzeci rok projektu, dlatego powoli wchodzimy w fazę testowania prototypu platformy oraz jej udoskonalania i coraz lepszego dostosowania do potrzeb osób niepełnosprawnych. Jednocześnie w przyszłym roku chcemy utworzyć trzy aplikacje na urządzenia mobilne wykorzystujące osobistego asystenta mowy.
Jakie funkcje mają spełniać te aplikacje?
Pierwsza to aplikacja pozwalająca na sterowanie telefonem i wykorzystująca asystenta mowy do komunikowania się z innymi, np. poprzez wysyłanie podyktowanej wiadomości SMS albo e-mail. Kolejna to gry edukacyjne sterowane głosowo poprzez osobistego asystenta mowy. Gry te będą miały na celu prowadzenie terapii osób z zaburzeniami mowy. Ostatnia to osobisty asystent mowy dla osób bardzo słabo mówiących. Za pomocą kilku – kilkunastu dźwięków będą one mogły sterować kursorem i wybierać wyrazy lub obrazki z przygotowanej wcześniej listy.
Jakie są najbliższe plany związane z projektem mPAS?
Obecnie dysponujemy już prototypem aplikacji webowej pozwalającej na tworzenie osobistego asystenta mowy. Planujemy, że z początkiem przyszłego roku pierwsi testerzy zaczną tworzyć swoich asystentów, a uzyskane od nich opinie pozwolą nam udoskonalić technologię. W dalszych etapach testować będziemy działanie asystenta z kilkoma zaproponowanymi przez nas aplikacjami.Chcielibyśmy też nawiązać współpracę z firmami produkującymi innowacyjne systemy ułatwiające codzienne życie osób z niepełnosprawnością i różnego typu zaburzeniami.