Pod koniec roku wydarzenia związane z zatrudnieniem prezesa OpenAI, Sama Altmana, wstrząsnęły siecią i światem technologii. Spekulacje związane z tymi okolicznościami zaogniły rozmowy o AGI, czyli nowej generacji uniwersalnej sztucznej inteligencji, która mogłaby być takim przełomem, jakim był debiut ChatGPT.
Czy czeka nas to już w 2024 roku? Ciężko to przewidzieć, ale są obszary rozwoju AI, które zdaniem czterech ekspertów z IDEAS NCBR są pewne i warte uwagi przedsiębiorców.
Robotyka
Krzysztof Walas, lider zespołu badawczego "Robotyka interakcji fizycznej", prognozuje, że 2024 rok upłynie na integracji robotyki ze sztuczną inteligencją. Czy humanoidalne roboty mogłyby nam pomagać z codziennych obowiązkach? Być może na to jeszcze poczekamy, ale w Polsce mamy w końcu robota-honorowego profesora i prezesa firmy.
Tak samo łatwiejsza staje się integracja AI z chmurą, co budzi pytania o wyzwania związane z obszarem cyberbezpieczeństwa. Jest to jeden z kierunków obranych przez specjalistów Google, a rozmowę o tym, jak gigant podchodzi do tej problematyki, możecie przeczytać tutaj.
Zobacz także
AI w edukacji
Odkąd pojawił się ChatGPT, zauważono jego wpływ na edukację. Nie tylko z powodów uczniów, oddających mu do przetworzenia swoje prace domowe, ale także jako potencjał na asystenta dla żywego człowieka.
– W tym momencie widać już ogromną zmianę, dzięki której sztuczna inteligencja staje się nauką w pełni interdyscyplinarną. Jeżeli nie zbudujemy silnego ośrodka badawczego w tej dziedzinie w Polsce i nie wyprzedzimy tych światowych trendów, to także w innych dziedzinach badaczom w naszym kraju będzie coraz trudniej nadążyć za światem – opowiada Piotr Sankowski, prezes IDEAS NCBR, lider grupy badawczej "Inteligentne algorytmy i struktury danych".
Modele językowe w medycynie
Piotr Miłoś, lider zespołu badawczego "Sekwencyjne podejmowanie decyzji", zajmuje się zwiększaniem możliwości modeli językowych, tak, aby te lepiej radziły sobie z analizą długich dokumentów.
Jego zdaniem to szczególnie atrakcyjne do celów medycznych. Rozwój w tym kierunku pozwoli AI na analizę danych z diagnostyki pacjentów oraz danych naukowych, aby mogło wystawić np. celną diagnozę.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.

– Wkrótce pacjenci, zamiast zgłaszać się do lekarzy z diagnozą od "doktora Google", będą przychodzić z diagnozą od "doktora AI". Rodzi to oczywiście wiele dylematów i wyzwań, ale też wiele możliwości – mówi Piotr Miłoś.
Efektywność i zapotrzebowanie na moc obliczeniową
Zgodnie z teorią wykładniczego rozwoju technologii, wszystko, co nowe z czasem staje się powszechniejsze, zminiaturyzowane i zużywa mniej energii. Nie inaczej jest z AI, które trafia już nawet np. na smartwatche pod postacią chatbota, który dobierze nam jeszcze muzykę do snu.
Tomasz Trzciński, lider grupy badawczej "Uczenie maszynowe zero-waste w wizji komputerowej", dyrektor ELLIS Unit Warsaw, zwraca uwagę, że rośnie popularność urządzeń wykorzystujących AI o niskich zasobach obliczeniowych. Jeśli zaś chodzi o duże modele językowe, czekają je wyzwania związane z zużyciem energii i możliwości działania z rosnącymi bazami danych. Może nawet inspirowanie rozwoju AI w oparciu o biologię.
AI zużywa dużo energii
Problemem jest ilość energii potrzebnej, aby powiększać możliwości sztucznej inteligencji. O tym zagadnieniu pisaliśmy na INNPoland - systemy sztucznej inteligencji obecnie zużywają 4,3 gigawatów mocy na całym świecie. To odpowiednik zużycia energii w małym państwie. Dla porównania w Polsce do września 2023 roku zużyliśmy 13,3 GW mocy, więc rozwijanie dużych modeli językowych i innych technologii AI kosztuje świat jedną trzecią Polski.
Z raportu firmy Schneider Electric wynika, że 20 proc. tego zużycia energii przeznaczone jest na szkolenie modeli językowych.