Chociaż ChatGPT zadebiutował w listopadzie 2022 roku, to następujący po nim rok był zdecydowanie spod znaku dwóch literek: AI. Prędkość, z jaką rozwija się ta technologia, tworzy wiele spekulacji o jej przyszłości, często sensacyjnych. Polscy eksperci zaznaczają cztery trendy, osadzone w rzeczywistości.
Reklama.
Pod koniec roku wydarzenia związane z zatrudnieniem prezesa OpenAI, Sama Altmana, wstrząsnęły siecią i światem technologii. Spekulacje związane z tymi okolicznościami zaogniły rozmowy o AGI, czyli nowej generacji uniwersalnej sztucznej inteligencji, która mogłaby być takim przełomem, jakim był debiut ChatGPT.
Czy czeka nas to już w 2024 roku? Ciężko to przewidzieć, ale są obszary rozwoju AI, które zdaniem czterech ekspertów z IDEAS NCBR są pewne i warte uwagi przedsiębiorców.
Zachęcamy do subskrybowania kanału INN:Poland na YouTube. Od teraz Twoje ulubione programy "Rozmowa tygodnia", "Po ludzku o ekonomii" i "Koszyka Bagińskiego" możesz oglądać TUTAJ.
Robotyka
Krzysztof Walas, lider zespołu badawczego "Robotyka interakcji fizycznej", prognozuje, że 2024 rok upłynie na integracji robotyki ze sztuczną inteligencją. Czy humanoidalne roboty mogłyby nam pomagać z codziennych obowiązkach? Być może na to jeszcze poczekamy, ale w Polsce mamy w końcu robota-honorowego profesora i prezesa firmy.
Tak samo łatwiejsza staje się integracja AI z chmurą, co budzi pytania o wyzwania związane z obszarem cyberbezpieczeństwa. Jest to jeden z kierunków obranych przez specjalistów Google, a rozmowę o tym, jak gigant podchodzi do tej problematyki, możecie przeczytać tutaj.
AI w edukacji
Odkąd pojawił się ChatGPT, zauważono jego wpływ na edukację. Nie tylko z powodów uczniów, oddających mu do przetworzenia swoje prace domowe, ale także jako potencjał na asystenta dla żywego człowieka.
– W tym momencie widać już ogromną zmianę, dzięki której sztuczna inteligencja staje się nauką w pełni interdyscyplinarną. Jeżeli nie zbudujemy silnego ośrodka badawczego w tej dziedzinie w Polsce i nie wyprzedzimy tych światowych trendów, to także w innych dziedzinach badaczom w naszym kraju będzie coraz trudniej nadążyć za światem – opowiada Piotr Sankowski, prezes IDEAS NCBR, lider grupy badawczej "Inteligentne algorytmy i struktury danych".
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Modele językowe w medycynie
Piotr Miłoś, lider zespołu badawczego "Sekwencyjne podejmowanie decyzji", zajmuje się zwiększaniem możliwości modeli językowych, tak, aby te lepiej radziły sobie z analizą długich dokumentów.
Jego zdaniem to szczególnie atrakcyjne do celów medycznych. Rozwój w tym kierunku pozwoli AI na analizę danych z diagnostyki pacjentów oraz danych naukowych, aby mogło wystawić np. celną diagnozę.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
– Wkrótce pacjenci, zamiast zgłaszać się do lekarzy z diagnozą od "doktora Google", będą przychodzić z diagnozą od "doktora AI". Rodzi to oczywiście wiele dylematów i wyzwań, ale też wiele możliwości – mówi Piotr Miłoś.
Efektywność i zapotrzebowanie na moc obliczeniową
Zgodnie z teorią wykładniczego rozwoju technologii, wszystko, co nowe z czasem staje się powszechniejsze, zminiaturyzowane i zużywa mniej energii. Nie inaczej jest z AI, które trafia już nawet np. na smartwatche pod postacią chatbota, który dobierze nam jeszcze muzykę do snu.
Tomasz Trzciński, lider grupy badawczej "Uczenie maszynowe zero-waste w wizji komputerowej", dyrektor ELLIS Unit Warsaw, zwraca uwagę, że rośnie popularność urządzeń wykorzystujących AI o niskich zasobach obliczeniowych. Jeśli zaś chodzi o duże modele językowe, czekają je wyzwania związane z zużyciem energii i możliwości działania z rosnącymi bazami danych. Może nawet inspirowanie rozwoju AI w oparciu o biologię.
AI zużywa dużo energii
Problemem jest ilość energii potrzebnej, aby powiększać możliwości sztucznej inteligencji. O tym zagadnieniu pisaliśmy na INNPoland - systemy sztucznej inteligencji obecnie zużywają 4,3 gigawatów mocy na całym świecie. To odpowiednik zużycia energii w małym państwie. Dla porównania w Polsce do września 2023 roku zużyliśmy 13,3 GW mocy, więc rozwijanie dużych modeli językowych i innych technologii AI kosztuje świat jedną trzecią Polski.
Z raportu firmy Schneider Electric wynika, że 20 proc. tego zużycia energii przeznaczone jest na szkolenie modeli językowych.