Korzystanie z empatycznych asystentów pozwala firmom jeszcze skuteczniej wpływać na nasze decyzje. Jakie zagrożenia niesie za sobą rozwój sztucznej inteligencji? Czy automatyzacja wykluczy niektórych z nas ze społeczeństwa? Zapytaliśmy o to Magdalenę Kasiewicz, customer success lead i członkinię zarządu polskiego oddziału Microsoft.
Co czeka nas w przyszłości?
Kiedy spojrzymy wstecz, to chociażby z perspektywy filmów z lat 60-tych czy 70-tych, dzisiejszy świat wyglądał dużo bardziej futurystycznie niż jest w rzeczywistości. Wiele z przedstawionych tam wizji nie sprawdziło się. Często ludzie wierzą, że postęp nastąpi dużo szybciej niż to naprawdę ma miejsce.
W ostatnich latach wbrew pozorom w informatyce nie było wielu innowacyjnych odkryć, wciąż uczymy się korzystać z narzędzi i wiedzy, którą posiadamy od lat. To co zmieniło się w ostatnich latach, to powszechna dostępność technologii i zjawisko skali.
Jaka więc czeka nas przyszłość? Taka, jaką sami sobie stworzymy. Pojawia się coraz więcej czynników zmieniających nasze priorytety i wartości. Dziś produktywność i aspekty ekonomiczne nie są jedynymi czynnikami wpływającymi na innowację. Stoimy u progu poważnego kryzysu ekologicznego, który zmienia nasze postrzeganie świata i wykorzystanie technologii.
Drugim istotnym trendem związanym z rozwojem jest człowiek i jego miejsce w nowoczesnym świecie. Microsoft sporo inwestuje w badania dotyczące funkcjonowania człowieka będącego w centrum technologii. Aby pomóc mu w odnalezieniu najprzyjaźniejszych metod pracy, sprawdzamy nie tylko jego produktywność, ale również zachowania. Wnioski z takich badań wykorzystujemy z kolei do ulepszania analitycznych narzędzi, które pozwolą człowiekowi odnaleźć się w szybko zmieniającej się rzeczywistości.
Ta nowa rzeczywistość to chociażby sztuczna inteligencja. Jakie zagrożenia niesie rozwój tej technologii?
Jako Microsoft jesteśmy dostawcą platformy, która umożliwia korzystanie z narzędzi sztucznej inteligencji. Naszą rolą - a także innych firm technologicznych - jest jednak rozważanie aspektów etycznych i dobre zrozumienie celów prowadzonych działań.
W Microsoft oznacza to, że AI musi spełniać sześć pryncypiów – uczciwość, niezawodność i bezpieczeństwo, ochrona prywatności, inkluzywność, transparentność i odpowiedzialność. Zagrożenia mogą zrodzić się wtedy, kiedy te podstawowa zasady nie będą przestrzegane w tworzeniu najnowszych rozwiązań opartych o sztuczną inteligencję. Stosowanie tych wytycznych pozwoli nie zapędzić się w automatyzacji, która z założenia ma ułatwić nam życie i pracę w tych obszarach, które są powtarzalne i żmudne zamiast w obszarach, które definiują człowieka. Osobiście widzę sporo zagrożeń w takich jak opieka nad dziećmi, zwierzętami czy seks. Tego typu działania dotyczą przecież budowania relacji, które są istotą naszego istnienia.
Czy automatyzacja wykluczy niektórych ludzi ze społeczeństwa?
Automatyzacja postępuje, ale nawet, jeżeli część zawodów zniknie, w ich miejsce pojawi się wiele nowych, o których być może nawet jeszcze nie wiemy. I dzieje się tak od lat – kiedyś pracowników używających do kopania łopat zastąpiły koparki, dzisiaj pracodawcy poszukują ekspertów od nowych technologii. W Polsce wyzwania z obsadzaniem miejsc pracy nowymi pracownikami IT zgłasza 81 proc. pracodawców. Jeszcze raz chciałabym podkreślić, że to również jest kwestia pryncypiów, które przyjmiemy na drodze rozwoju najnowszych technologii.
Zadaniem, jakie przed nami stoi, jest więc zadbać o to, abyśmy zajmowali się sprawami istotnymi i żeby każdy miał szansę zostać włączony w ten mechanizm. Ludzkość musi zadbać, aby nikt nie był wykluczony - zarówno pod względem ekonomicznym, jak i mentalnym. I ma to sens, bo przecież na świecie jest tak wiele rzeczy do zrobienia.
Technologia jest już inteligentna, a wkrótce ma być empatyczna, o czym mówiłaś na konferencji Masters & Robots. Powinniśmy się cieszyć czy obawiać?
Jedno i drugie. Zdecydowanie powinniśmy się cieszyć rozwojem technologii, która może przynieść wiele dobrego, ale też powinniśmy się obawiać zagrożeń z tym związanych i ta obawa jest zupełnie zdrowa. Wykorzystywana w technologii empatia nie ma zastępować tej ludzkiej, lecz ma być wykorzystywana w celach szybszej i sprawniejszej obsługi człowieka.
Zachowania robotów powinny być jak najbardziej zbliżone do ludzkich, tak aby nie wzbudzały niechęci, złości czy strachu. W tym ma pomóc sztuczna empatia, która przecież nie jest prawdziwą empatią, lecz tylko rozpoznaniem pewnych schematów i sentymentów, które pomagają nam jednocześnie bez negatywnego wpływu na nasz nastrój.
Do czego zdolni są empatyczni asystenci już w tym momencie?
Empatyczni asystenci w tej chwili mają już możliwość skutecznego odczytywania naszego samopoczucia, dzięki czemu lepiej odpowiadają na nasze reakcje i potrzeby. Mogą chociażby skutecznie odczytywać mimikę twarzy i rozpoznawać nasze nastroje. Badania potwierdzają przecież, że gdy widzimy u kogoś pozytywną mimikę twarzy, lepiej się czujemy.
Bardzo fajnie pokazał to David Hudson, twórca Sophii, pierwszego humanoidalnego robota będącego połączeniem inteligencji emocjonalnej i sztucznej, który uzyskał nawet obywatelstwo Arabii Saudyjskiej. Robot ten potrafi rozpoznać i wykonać ponad 60 wyrazów twarzy.
Empatyczny asystent powinien pomagać człowiekowi. Podkreślam: przy budowaniu nowych rozwiązań niezmiernie ważna jest intencja. Niewątpliwie spoczywa na nas duża odpowiedzialność, szczególnie w zakresie tego, jak nowoczesne narzędzia są wykorzystywane.
Kto ma decydować o tym, co jest etyczne?
Dylemat regulacji i instytucji, która normalizuje, czy coś jest prawdą jest z nami od lat. Pojawił się w momencie centralizacji internetu i powszechnego dostępu do niego. Wciąż nie mamy na to odpowiedzi. Nie spodziewam się jednak etycznej katastrofy, ponieważ dyskusja światowa na ten temat już trwa i jest poruszana przez największych graczy na tym rynku. Poza tym z badań wynika, że człowiek, chociaż zachowuje się różnie w zależności od sytuacji, w gruncie rzeczy - statystycznie - działa ku dobru społecznemu.
Sporo rzeczy - mimo braku odpowiednich regulacji - weryfikujemy we własnym zakresie. Samodzielnie sprawdzamy treści w internecie i jeśli spostrzeżemy, że ktoś postępuje nieetycznie, środowisko internetowe zaraz to wyłapuje i napiętnuje. Firmy technologiczne biorą coraz większą odpowiedzialność, nie tylko za kreowanie przyszłości, ale za jej etyczne aspekty.
I tak na przykład Microsoft jest zaangażowany w rozwój i wykorzystanie AI w oparciu o zasady, które stawiają ludzi na pierwszym miejscu i przynoszą korzyści społeczeństwu. Wdrażamy te zasady w całej firmie, przyjmując różne perspektywy, promując ciągłe uczenie się i aktywnie reagując na rozwój technologii AI.
Odpowiedzialna AI to tak naprawdę kwestia tego, jak: jak projektować, rozwijać i wdrażać systemy, które są sprawiedliwe, niezawodne, bezpieczne i godne zaufania. Aby to osiągnąć, musimy myśleć o tym, jako o zestawie problemów socjotechnicznych. Musimy wyjść poza doskonalenie danych i modeli, a pomyśleć o ludziach, którzy ostatecznie będą wchodzić w interakcje z tymi systemami.
Odpowiedzią na wyzwania przyszłości jest debata, otwartość i podniesienie priorytetu w zakresie etycznego projektowania rozwiązań. I oczywiście zasady etyczne są inne w każdym kraju i zależą też od czasu. Zawsze tak było, więc nigdy nie powstanie książka mówiąca, co jest dobre a co złe. Ważne jest, że etyka jest na bieżąco rozważana i brana pod uwagę w budowaniu nowych rozwiązań.
Mija rok, od kiedy wróciłaś do Microsoftu. Co było największym wyzwaniem przechodząc z głównej siedziby w Redmond do warszawskiego oddziału?
Nie postrzegałam tego jako wyzwania, lecz jak przygodę. Powrót do Polski sprawił mi wiele radości, był dla mnie ważny zarówno osobiście, jak i biznesowo, bo wierzę, że jesteśmy krajem niezwykłych możliwości. Mamy się czym pochwalić jako Polska, skąd pochodzi wiele innowacyjnych pomysłów. Mamy ogromny potencjał intelektualny, nasi eksperci pracują w korporacjach na całym świecie.
W Stanach Zjednoczonych miałam okazję obserwować duże firmy, jak się rozwijają. Mimo tego że realizowały one duże projekty, pod względem jakości innowacje te niewiele różniły się od naszych i od tego, co robi się na świecie. Istotną różnicę stanowi tu skala projektu - o mniejszych po prostu się nie słyszy, ponieważ nie mają takiej siły przebicia.
Wracając do Polski wiele radości sprawiło mi bycie blisko klientów, bo jednak praca z wielkimi klientami nie pozwala na tak bliskie relacje.
W USA - podobnie jak w Polsce - zajmowałaś się dostarczaniem rozwiązań w zakresie DevOps, czyli metodyką odpowiadającą za koordynowanie pracy zespołów zajmujących się kompleksowo tworzeniem aplikacji. Co to w praktyce oznacza?
DevOps ma szerokie znaczenie. W moim i Microsoftu rozumieniu oznacza taki sposób pracy, w którym wszyscy pracownicy doskonale wiedzą, jaki jest ich cel biznesowy i wspólnie go realizują wykorzystując do tego technologię. Ponieważ praktyki DevOps skoncentrowane są na ciągłej poprawie, znacząco różnią się od tradycyjnego podejścia projektowego, gdzie zdefiniowany zakres jest ważniejszy niż cel biznesowe i KPI. W koncepcji DevOps w idealnym świecie produkt powinien żyć, w nieskończoność i ewoluować w taki sposób, by dostosowywał się do potrzeb klienta końcowego.
Istotne jest więc, aby zespół rozumiał projekt, ale też klienta i badał jego zachowanie, reakcje na produkt, zbierał feedback i udoskonalał produkt. To jest DevOps i zarazem moja pasja.
Europejski konsument różni się od tego w Stanach Zjednoczonych?
Różni się, chociaż nie fundamentalnie. Różnice wynikają w dużej mierze z tego, że w Stanach Zjednoczonych nie istnieje prawo ochrony konsumenta. To na konsumencie spoczywa obowiązek weryfikacji i wyegzekwowania rekompensaty, jeśli dany produkt nie spełnia jego oczekiwań. Dlatego też amerykański konsument ma więcej cierpliwości i zarazem niższe oczekiwania dotyczące jakości usług.
Nasze oczekiwania w Polsce są wysokie, ponieważ mamy regulacje chroniące prawa konsumentów i je egzekwujemy.
Odpowiadasz za przyspieszenie adopcji chmury Microsoft Azure wśród klientów Microsoftu. Polscy konsumenci są otwarci na rozwiązania chmurowe?
Odpowiadam za obsługę klientów korporacyjnych. Większość z nich przekonała się do chmury, ale podchodzą do tego z dużą odpowiedzialnością. Co istotne, firmy zaczynają rozumieć, że przeprowadzenie transformacji cyfrowej to zadanie dla całej organizacji, a nie tylko dyrektora do spraw informatyki. Wymaga to dużej uwagi zarządów. Jest to pierwszy rok, kiedy zarządy zaczynają rozumieć, że muszą być częścią tej zmiany. Mamy tu w Polsce niezwykłą szansę, aby tworzyć rozwiązania znane na całym świecie. Potrzebujemy jedynie więcej pewności siebie.
To ilu już przybyło klientów chmury w ostatnim roku?
Nie wskażę konkretnej liczby, ale powiedziałabym, że w ciągu ostatnich dwóch lat większość zdecydowała się już na rozwiązania chmurowe. Wprawdzie mamy jeszcze przypadki klientów, którzy wymagają wciąż edukacji, w szczególności w zakresie bezpieczeństwa chmury, ale zdecydowana większość decyduje się już dziś na to rozwiązanie. Wygląda to bardzo obiecująco.
Większość klientów zrobiła duży postęp w adopcji chmury. Firmy podejmowały odważne decyzje przenosząc często całe swoje środowisko do chmury, co dawało im wysoką skalowalność niemal natychmiast. Apetyt i gotowość na rozwiązania chmurowe w polskich przedsiębiorstwach, ale także spółkach Skarbu Państwa i administracji publicznej rośnie. Wzrasta również zaufanie do bezpieczeństwa, jakie gwarantują światowi dostawcy rozwiązań chmurowych. Dodatkowo widzimy, że zmieniają się także regulacje, co powoduje odblokowanie w sektorach takich, jak bankowość czy energetyka.