INNPoland_avatar

Jaka będzie przyszłość AI? Polscy eksperci wskazują na te cztery trendy

Sebastian Luc-Lepianka

18 grudnia 2023, 13:04 · 3 minuty czytania
Chociaż ChatGPT zadebiutował w listopadzie 2022 roku, to następujący po nim rok był zdecydowanie spod znaku dwóch literek: AI. Prędkość, z jaką rozwija się ta technologia, tworzy wiele spekulacji o jej przyszłości, często sensacyjnych. Polscy eksperci zaznaczają cztery trendy, osadzone w rzeczywistości.


Jaka będzie przyszłość AI? Polscy eksperci wskazują na te cztery trendy

Sebastian Luc-Lepianka
18 grudnia 2023, 13:04 • 1 minuta czytania
Chociaż ChatGPT zadebiutował w listopadzie 2022 roku, to następujący po nim rok był zdecydowanie spod znaku dwóch literek: AI. Prędkość, z jaką rozwija się ta technologia, tworzy wiele spekulacji o jej przyszłości, często sensacyjnych. Polscy eksperci zaznaczają cztery trendy, osadzone w rzeczywistości.
Robotyka oraz edukacja to jedne z prognozowanych trendów. Fot. MAGO/Imago Stock and People/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

Pod koniec roku wydarzenia związane z zatrudnieniem prezesa OpenAI, Sama Altmana, wstrząsnęły siecią i światem technologii. Spekulacje związane z tymi okolicznościami zaogniły rozmowy o AGI, czyli nowej generacji uniwersalnej sztucznej inteligencji, która mogłaby być takim przełomem, jakim był debiut ChatGPT. 


Czy czeka nas to już w 2024 roku? Ciężko to przewidzieć, ale są obszary rozwoju AI, które zdaniem czterech ekspertów z IDEAS NCBR są pewne i warte uwagi przedsiębiorców.

Robotyka

Krzysztof Walas, lider zespołu badawczego "Robotyka interakcji fizycznej", prognozuje, że 2024 rok upłynie na integracji robotyki ze sztuczną inteligencją. Czy humanoidalne roboty mogłyby nam pomagać z codziennych obowiązkach? Być może na to jeszcze poczekamy, ale w Polsce mamy w końcu robota-honorowego profesora i prezesa firmy.

Tak samo łatwiejsza staje się integracja AI z chmurą, co budzi pytania o wyzwania związane z obszarem cyberbezpieczeństwa. Jest to jeden z kierunków obranych przez specjalistów Google, a rozmowę o tym, jak gigant podchodzi do tej problematyki, możecie przeczytać tutaj.

AI w edukacji

Odkąd pojawił się ChatGPT, zauważono jego wpływ na edukację. Nie tylko z powodów uczniów, oddających mu do przetworzenia swoje prace domowe, ale także jako potencjał na asystenta dla żywego człowieka.

– W tym momencie widać już ogromną zmianę, dzięki której sztuczna inteligencja staje się nauką w pełni interdyscyplinarną. Jeżeli nie zbudujemy silnego ośrodka badawczego w tej dziedzinie w Polsce i nie wyprzedzimy tych światowych trendów, to także w innych dziedzinach badaczom w naszym kraju będzie coraz trudniej nadążyć za światem – opowiada Piotr Sankowski, prezes IDEAS NCBR, lider grupy badawczej "Inteligentne algorytmy i struktury danych".  

Modele językowe w medycynie

Piotr Miłoś, lider zespołu badawczego "Sekwencyjne podejmowanie decyzji", zajmuje się zwiększaniem możliwości modeli językowych, tak, aby te lepiej radziły sobie z analizą długich dokumentów. 

Jego zdaniem to szczególnie atrakcyjne do celów medycznych. Rozwój w tym kierunku pozwoli AI na analizę danych z diagnostyki pacjentów oraz danych naukowych, aby mogło wystawić np. celną diagnozę.

– Wkrótce pacjenci, zamiast zgłaszać się do lekarzy z diagnozą od "doktora Google", będą przychodzić z diagnozą od "doktora AI". Rodzi to oczywiście wiele dylematów i wyzwań, ale też wiele możliwości – mówi Piotr Miłoś.

Efektywność i zapotrzebowanie na moc obliczeniową

Zgodnie z teorią wykładniczego rozwoju technologii, wszystko, co nowe z czasem staje się powszechniejsze, zminiaturyzowane i zużywa mniej energii. Nie inaczej jest z AI, które trafia już nawet np. na smartwatche pod postacią chatbota, który dobierze nam jeszcze muzykę do snu.

Tomasz Trzciński, lider grupy badawczej "Uczenie maszynowe zero-waste w wizji komputerowej", dyrektor ELLIS Unit Warsaw, zwraca uwagę, że rośnie popularność urządzeń wykorzystujących AI o niskich zasobach obliczeniowych. Jeśli zaś chodzi o duże modele językowe, czekają je wyzwania związane z zużyciem energii i możliwości działania z rosnącymi bazami danych. Może nawet inspirowanie rozwoju AI w oparciu o biologię.

AI zużywa dużo energii

Problemem jest ilość energii potrzebnej, aby powiększać możliwości sztucznej inteligencji. O tym zagadnieniu pisaliśmy na INNPoland - systemy sztucznej inteligencji obecnie zużywają 4,3 gigawatów mocy na całym świecie. To odpowiednik zużycia energii w małym państwie. Dla porównania w Polsce do września 2023 roku zużyliśmy 13,3 GW mocy, więc rozwijanie dużych modeli językowych i innych technologii AI kosztuje świat jedną trzecią Polski.

Z raportu firmy Schneider Electric wynika, że 20 proc. tego zużycia energii przeznaczone jest na szkolenie modeli językowych.

Czytaj także: https://innpoland.pl/200470,ile-kosztuje-tworzenie-ai-zuzycie-energetyczne-sztucznej-inteligencji