
System wykrył krytyczny błąd w module "rozwój AI w Polsce". Przyczyna: chroniczne niedofinansowanie nauki, brak skalowania modeli AI, niespójne zarządzanie danymi i nieefektywny system grantowy. Status: stagnacja. Rekomendacja: pilna aktualizacja strategii państwa i zwiększenie mocy obliczeniowej.
Polska sztuczna inteligencja nie przegrywa przez brak talentu ani kompetencji. Przegrywa przez środowisko, w którym próbuje się rozwijać. I właśnie ten systemowy problem najmocniej wybrzmiewa w analizach dr hab. Aleksandry Przegalińskiej, ekspertki AI i członkini Rady Przyszłości.
Przegalińska: nauka bez pieniędzy i brak zasad blokuje rozwój AI. System, który dławi, zamiast wspierać
Polska nauka działa dziś jak silnik na rezerwie. Potencjał jest, ale brakuje paliwa.
"Po pierwsze: skrajne niedofinansowanie nauki w Polsce, zwłaszcza w strategicznych obszarach. Po drugie: brak dobrych rozstrzygnięć dotyczących własności intelektualnej. Znak zapytania wciąż wisi nad tym, jakie prawa zostają przy naukowcu, który chciałby przekuć swoje badania w produkt" – mówi Aleksandra Przegalińska w wywiadzie dla dziennika "Rzeczpospolita".
Do tego dochodzi strukturalny chaos. System grantowy jest rozproszony, często nieprzewidywalny, a zasady własności intelektualnej pozostają niejasne. Innowatorzy, zamiast skalować modele AI i rozwijać produkty, poruszają się w gąszczu procedur. Efekt? Polska AI nie ma warunków, by przejść z fazy eksperymentu do realnego wdrożenia.
Zobacz także
Bielik i PLLum w cieniu gigantów. Polska AI przegrywa skalą, nie pomysłem
Najlepiej widać to na przykładzie modeli językowych takich jak Bielik i PLLuM. Wyniki polskich LLM na teście dla AI zorganizowanym przez firmę Oxido (20 zadan z 10 kategorii) nie były niestety zadowalające. Bielik i PLLuM znalazły się na szarym końcu, a zwyciężyło narzędzie Google.
W praktycznych zastosowaniach, takich jak generowanie tekstów, analiza danych czy obsługa użytkownika ustąpiły modelom globalnym. Powód jest dosyć prosty: mniejsza skala treningu, ograniczona infrastruktura i brak dostępu do ogromnych zbiorów danych, którymi dysponują giganci jak Google czy Meta.
Bielik, rozwijany przez społeczność SpeakLeash, to model trenowany na polskich danych, zaprojektowany z myślą o języku i kontekście kulturowym. Ma ok. 7-11 miliardów parametrów i w testach wielojęzycznych potrafił konkurować z większymi modelami.
PLLuM to z kolei projekt bardziej systemowy, rozwijany z myślą o administracji publicznej. Jego celem jest stworzenie polskiego modelu AI do obsługi urzędów, dokumentów i usług cyfrowych. Ma wspierać e-administrację, automatyzować procesy i działać lokalnie, z naciskiem na bezpieczeństwo danych.
Problem polega na tym, że oba modele funkcjonują w ograniczonym ekosystemie. Globalne systemy AI rozwijają się na ogromnych klastrach obliczeniowych, z miliardowymi budżetami i ciągłym dostępem do danych. W Polsce AI działa na znacznie mniejszej skali, co przekłada się na wydajność, jakość i tempo rozwoju.
Polska AI bez strategii. Świat przyspiesza, my dryfujemy
Największym zagrożeniem nie jest obecna strata technologiczna, ale brak długofalowej strategii. Przegalińska ostrzega w Rzeczpospolitej: "Tania i dobrze wykwalifikowana siła robocza już nas nie poniesie (…) czeka nas dryf".
Jeśli Polska nie zwiększy inwestycji w AI, nie uprości systemu i nie stworzy warunków do skalowania technologii, straci nie tylko pozycję, ale i ludzi.
Talenty technologiczne już dziś wybierają rynki, gdzie mogą rozwijać projekty szybciej i na większą skalę. Sztuczna inteligencja to nie tylko technologia, ale fundament przyszłej gospodarki. Dziś Polska wciąż stoi na starcie, podczas gdy reszta świata przyspiesza. I jeśli system się nie zmieni, różnica będzie już tylko rosnąć.
Źródło: Rzeczpospolita.
