Gemini 2.0 Flash Thinking Experimental to odpowiedź Google’a na rozwijającą się gałąź modeli AI, które potrafią "rozumować". Tylko co to w zasadzie znaczy? Przyglądamy się nowemu rodzajowi systemów AI, które mają doprowadzić nas do stworzenia sztucznej inteligencji mądrzejszej od człowieka.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Najnowszy model AI od Google'a (o wdzięcznej nazwie Gemini 2.0 Flash Thinking Experimental) to wyraźna reakcja na działania konkurencji. Firma OpenAI udostępniła swój "rozumujący" model GPT-4o (od Omni) już wiosną. Ten miał odróżniać się od swojego poprzednika zdolnością rozwiązywania złożonych problemów, ale też sprawniejszym poruszaniem się w dziedzinach, które wcześniej były dla niego wyzwaniem.
Choć zabrzmi to paradoksalnie, AI nie była do tej pory szczególnie dobra w przedmiotach ścisłych, co zmieniło się wraz z wprowadzeniem modelu "rozumującego". Ten ma być zdecydowanie sprawniejszy w rozwiązywaniu równań matematycznych czy problemów inżynieryjnych.
Myślące maszyny
"Rozumowanie" w przypadku modeli AI polega na rozbijaniu procesu odpowiedzi na kilka etapów. Po wpisaniu polecenia w Gemini 2.0 Flash Thinking Experimental model nie odpowiada od razu, a najpierw "rozważa" inne, podobne prompty. Po drodze opisuje swój proces myślowy, samemu podważając i rozwijając poszczególne wątki. To znacząca różnica między klasycznymi modelami, które działają na zasadzie przewidywania kolejnych elementów sekwencji (podobnie do autokorekty).
Ten sposób działania jest zainspirowany tym, jak ludzki umysł podchodzi do rozwiązywania problemów. Jednak odpowiedzi "rozumujących" modeli oraz ich sposób rozumowania, do którego w przypadku modelu od Google również mamy wgląd, są często zaskakujące.
Gdy zapytałem najnowszy model AI od Google’a, jak znalazłby drogę do domu w lesie bez telefonu, w ok. 11 sekund opisał mi najważniejsze zasady przetrwania w lesie i określania swojej lokalizacji. Jednak gdy zapytałem go "Co byś zrobił, jakbyś miał jabłko i chciał zjeść jabłko?" odpowiedź zajęła mu już ponad 16 sekund. Opisał mi w 6 etapach proces jedzenia jabłka oraz czynniki, które mogłyby na niego wpłynąć (takie jak lokalizacja czy dostęp do wody).
W swoim procesie rozumowania przyznał się nawet do autokorekty:
Początkowo myślę o "zjedzeniu całości" zamiast "pokrojeniu". Ale rozważanie "krojenia" prowadzi do różnych technik krojenia, a nawet gotowania. Myślenie o "niezjedzeniu od razu" przywodzi na myśl ideę oszczędzania i przechowywania. Rozważanie innych osób prowadzi do aspektu "dzielenia się". Ten iteracyjny proces burzy mózgów i kategoryzowania pomaga stworzyć bardziej kompletną odpowiedź.
Rozumowanie to przyszłość AI
Co faktycznie zmienia taki sposób działania modeli AI? Po pierwsze zbliża nas do rozwiązania problemu ograniczonych baz danych koniecznych do szkolenia nowych modeli. "Rozumowanie" pozwala interpretować polecenia i rozwiązywać problemy z różnych dziedzin, bez konieczności specjalistycznego szkolenia.
Znacząco usprawnia też wymienne korzystanie z różnego rodzaju treści. Dzięki multimodalności – czyli zdolności przyjmowania i generowania treści w różnych formatach, od tekstu przez zdjęcie aż po plik audio – nowe modele mogą rozwiązywać jeszcze szerszy zakres problemów.
Czytaj także:
W efekcie, modele "rozumujące" mają być kluczowym etapem rozwoju AGI – Ogólnej sztucznej inteligencji, której zdolności intelektualne wykraczałyby ponad te, zarezerwowane do tej pory dla człowieka. Wprowadzanie mechanizmów "rozumowania" sprawia w końcu, że modele nie przetwarzają jedynie surowych danych, a faktycznie angażują się w rozwiązywanie problemu.
Ich rozwój może okazać się podstawą dla maszyn przyszłości – zdolny do niezależnego myślenia i działania, niezależnie od dziedziny wiedzy czy sytuacji.
Zmiana na rynku, ale i w życiu codziennym
Zanim ogłosimy erę AGI, czeka nas wiele lat rozwoju tej technologii. Jednak już teraz sztuczna inteligencja jest wyraźnie obecna w naszym życiu – zarówno zawodowym, jak i coraz częściej w życiu prywatnym. "Rozumujące" modele mogą stać się przełomowe w branżach, w których udział AI budził do tej pory sceptycyzm.
Modele zdolne nie tylko do dopasowywania konkretnych elementów odpowiedzi w logiczną całość, ale również do przeprowadzenia całego wywodu, mogą okazać się użyteczne w medycynie, finansach czy prawie, jako nasi wirtualni asystenci czy intelektualni sparring partnerzy.
Czytaj także:
Możemy również mówić o zmianie paradygmatu w relacji człowieka z technologią. "Rozumujące" modele mogą stać się nie tylko partnerami w naszym życiu zawodowym, ale również wspierać nas w nauce czy w zadaniach kreatywnych. Dzięki sposobom, w jakie przyswajają treści i formułują odpowiedzi, mogą z czasem zbliżyć się do roli naszych współpracowników.
Jednak zanim tam dotrzemy, musimy rozwiązać kluczowe problemy, w obliczu których stoją producenci "rozumujących" modeli. Te dotyczą przede wszystkim kosztów ich funkcjonowania. Złożony proces towarzyszący odpowiedzi na każde zapytanie wymaga więcej energii i mocy obliczeniowej, przez to generuje większe koszty – zarówno ekonomiczne, jak i ekologiczne.