Artykuł Rosaling Picard o emocjach w informatyce zainspirował do prac badawczych Ranę el Kaliouby, naukowczynię z MIT, dyrektor ds. naukowych w start-upie Affectiva i zarazem bohaterkę artykułu w „The New Yorker”. – Myślę, że za dziesięć lat nie będziemy nawet pamiętać czasów, gdy nie mogliśmy po prostu zmarszczyć brwi patrząc na ekran, a nasze urządzenie powiedziałoby: „oj, chyba ci się to nie spodobało, prawda?” – mówi Kaliouby cytowana w artykule Raffiego Khatchadouriana.
Gdy w 2008 roku MindReader został udostępniony korporacyjnym sponsorom do testów, stał się najczęściej ściąganym produktem z Media Lab MIT.
Pepsi ciekawiło potencjalne zastosowanie w celu poznania preferencji klientów, Bank of America chciał przetestować je w bankomatach, Toyota myślała o sposobie na zrozumienie zachowań kierowców. Pytania przychodziły również od Microsoftu, HP, Yamahy, Hondy, Gibsona, Hallmark, NASA, Nokii.
Coraz więcej firm zajmuje się skanowaniem ludzkiej mimiki i ruchów ciała. Verizon pracuje nad konsolą, która wykorzystuje kamera termograficzną, podczerwień i mikrofon. Po sprawdzeniu pomieszczenia może wyświetlić na ekranie telewizora bardzo konkretnie spersonalizowane reklamy, kłócąca się para zobaczy na przykład reklamę poradni małżeńskiej. Smartfony, gadżety do noszenia, czujniki w domu stale podłączone do sieci – na naszych oczach tworzy się system komercyjnej inwigilacji.
W stronę podobną do Affectivy poszedł gdański start-up Quantum Lab, który tworzy aplikacje mobilne do mierzenia emocji, a od niedawna koncentruje swoje działania na opracowaniu technologii rozpoznawania emocji za pomocą kamer w urządzeniach elektronicznych. Mówił o tym m.in. Bartosz Rychlicki, prezes Quantum Lab, w rozmowie z portalem biznes.trojmiasto.pl.
Zajmujemy się rozpoznawaniem emocji z twarzy, co pozwala agencjom badawczym, czy firmom marketingowym przewidzieć, w jaki sposób i jak bardzo dany produkt spodoba się potencjalnemu odbiorcy. W styczniu odbędzie się premiera naszego nowego produktu - Ellen. Pozwala on w bardzo łatwy sposób reklamę lub dowolny kontent wyświetlić na ekranie komputera w domach klientów. Później analizujemy za pomocą Ellen reakcje ludzi i dostarczamy wyniki klientowi, czyli informacje, jaki jest odbiór danej reklamy czy jak ona wypada na tle konkurencji.
Rozpoznawanie mimiki, a także mowy ciała wykorzystano także w systemie monitoringu w Bytomiu. Nad projektem pracowała międzynarodowa grupa naukowców pod nadzorem konsorcjum założonego przez Polsko-Japońską Wyższą Szkołę Technik Komputerowych oraz firmę TKP SA. System jest w stanie ocenić stan emocjonalny na podstawie mimiki i gestów lub rozpoznać osobę kulejącą np. na lewą nogę. Założeniem nowoczesnego monitoringu jest wczesne wykrywanie osób, które potencjalnie sprawiają zagrożenie.
Nad społecznym włączaniem dzieci ze stanami spektrum autyzmu pracował z kolei międzynarodowy zespół w projekcie ASC-Inclusion. W skład grupy badawczej wchodziła między innymi dr Agnieszka Rymkiewicz. ASC-Inclusion opracowywany w Niemczech to internetowa platforma, która pomaga dzieciom w rozpoznawaniu, rozumieniu i reagowaniu na mimikę twarzy, intonację głosy i mowę ciała innych osób, a także rozumieniu i wyrażaniu własnych emocji. Narzędzie analizuje mimikę, mowę ciała i intonację i uczy dzieci rozpoznawania sygnałów za pomocą gier.