Modele rozumujące – Reasoning Models
Ale chwila chwila, miało być o nowościach 2025 roku, a ja tu wyjeżdżam z czymś, co OpenAI zaprezentowało nam już w 2024 w modelu o1. Zgoda, ale to nie to samo. Dopiero osiągi modeli z rodziny o3 i o4 pokazały nam, że rozwój w kierunku „myślących” (bez cudzysłowu również byłoby według mnie poprawnie) modeli językowych. Już nie bezpośrednia odpowiedź wypluwana z prędkością karabinu maszynowego bez namysłu, a wielosekundowe, a nawet wielominutowe zastanawianie się nad odpowiedziami.
Modele o3 osiągnęły wyniki, które wcześniej wydawały się być poza zasięgiem dla modeli językowych. W benchmarkach programistycznych, np. Codeforces czy matematycznych, np. AIME, czyli zadań na poziomie olimpijskim, modele językowe już na dobre wyprzedziły przeciętnego człowieka. Również o3 wprowadził nową jakość w „rozumowaniu wizualnym”. Model ten nie tylko rozpoznaje obiekty na zdjęciach, ale potrafi analizować skomplikowane wykresy, schematy inżynieryjne i odręczne notatki naukowe, wyciągając z nich wnioski logiczne, a nie tylko opisowe.
Osiągi modeli rozumujących robiły wrażenie, ale jedna rzecz potrafiła nas nieźle zmęczyć – liczba jednocześnie dostępnych modeli na jednej platformi. Zwykły, zwykły w wersji mini, zwykły rozumujący, rozumujący mini, stara wersja zwykłego modelu – idzie się w tym wszystkim pogubić. W 2025 roku OpenAI kontynuowało także rozwój swojej głównej linii modeli GPT. W sierpniu ukazał się GPT-5, a w grudniu GPT-5.2.
„Piątka” od razu stała się domyślnym modelem. Jego główną przewagą stało się to, że sama decyduje, kiedy opłaca się użyć „szybkiego myślenia”, a kiedy trzeba się nad danym problemem dłużej zastanowić. Czy wersja ta jednak przyniosła osiągi, które wielu internetowych plotkarzy zapowiadało? Zdecydowanie nie. Jest coraz lepiej, ale nie łudźmy się, to nie żadne „AGI”, czyli ogólna sztuczna inteligencja, która miałaby w każdym aspekcie dorównywać człowiekowi.
Mistrzowie programowania
Z amerykańskiej stajni AI imponującymi osiągami może się także pochwalić Anthropic. Użytkownicy na X (ex-Twitter) cały czas nie mogą wyjść z podziwu, jakie możliwości oferuje najnowszy Opus 4.5. I nie ma w tym cienia przesady. Ten model naprawdę świetnie radzi sobie w skomplikowanych zadaniach nie tyle algorytmicznych, ale całej inżynierii oprogramowania, budując bez problemów wieloplikowe aplikacje w różnych językach programowania.
Nie będzie przesadą stwierdzenie, że już teraz da się stworzyć sensowny program na własny użytek z zerową znajomością programowania. Jak na moje, to jeszcze trochę i pożegnamy zwykłe „klepanie kodu” jako źródło utrzymania. Czy przesadzam? Spójrzcie tylko jak „to” szybko idzie – gdzie byliśmy rok, dwa lata temu, a gdzie jesteśmy teraz. Dzień do nocy. Zresztą przy każdym obecnie dostępnym narzędziu, pierwsze wersje ogólnodostępnych modeli językowych, np. GPT-4, wyglądają jak zabawki, a nie niegdyś pełnoprawne produkty.
Kolejna sprawa to Claude Code – agent AI do programowania. Różnica polega na tym, że Claude Code nie jest „czatem z edytorem”, tylko pełnoprawnym agentem AI. Widzi strukturę projektu, zależności między plikami, potrafi śledzić stan aplikacji w czasie, uruchamiać testy, poprawiać błędy i iterować na wyniku. To nie jest jak kiedyś, gdy wrzucaliśmy prompta co chcemy osiągnąć w danych paru linijkach, wklejaliśmy, a jeśli otrzymaliśmy błąd, to błąd trafiał do prompta. Nie, tutaj agent widzi wszystko w czasie rzeczywistym i od razu reaguje, gdy wychwyci błąd.
Google wybudziło się z „zimowego” snu
Wielu postawiło już na gigancie z Mountain View krzyżyk, wieszcząc, że przegrał wyścig AI, ale rok 2025 pokazał, jak wielka była to pomyłka. To już nie czasy nieudolnego, wręcz koszmarnego według mnie Barda. Tak, Barda, nie pomyliłem się. Przed nazwą „Gemini”, model językowy od Google’a nosił taką nazwę.
Gemini 3 Pro to dobry, wszechstronny produkt, który nawiązuje walkę lub przewyższa swoją konkurencję z OpenAI czy Anthropic. Udziały Google’a w rynku AI rosną, a spadają tych, którzy niegdyś wydawali się nietykalni – twórcy ChataGPT. Google ma wspaniałe warunki do tego, aby pchnąć rozwój modeli AI w kierunku nieosiągalnym dla innych firm. To wszystko za sprawą szeroko rozbudowanego ekosystemu aplikacji. Kolejne usługi są wyposażane w czatbota Gemini.
Google poczyniło więc w tym roku postęp większy niż inni. W rodzinie Google’a mamy jeszcze fantastyczny NotebookLM, który ułatwia pracę nad własnymi materiałami w sposób jakiego nigdy wcześniej nie widzieliśmy. Ten „inteligentny notatnik” to platforma do analizy i organizacji treści wgrywanych przez nas (np. z Google Drive). Jej zadanie jest proste – zbudować bazę wiedzy i umożliwić korzystanie z niej w jak najprzyjemniejszy sposób. Prezentacje, fiszki, podsumowania audio, tabelki – jak najbardziej godny polecenia do nauki.
I jeszcze jedno, generator obrazów, który jeszcze kilka tygodni temu dzień w dzień zalewał internet. Mowa oczywiście o Nano Banana Pro, który wzniósł jakość generowanych przez AI na wyższy poziom. Łatwa obsługa, wysoka jakość, dość wierne oddawanie realiów historycznych czy geograficznych generowanego obrazu. Nic dziwnego, że furorę robiły grafiki wygenerowane przez prompta zawierającego informację o współrzędnych geograficznych. Przyznam się, że sam byłem taką osobą.
Co przyniesie następny rok? Ja nawet nie próbuję fantazjować, bo i tak prawdopodobnie nie wpadnę na to, co rzeczywiście się stanie. AI jako gałąź informatyki w ostatnich latach rozrosła się na tyle, że niemożliwe jest efektywne śledzenie wszystkich nowości ze świata biznesu i nauki. Te czasy bezpowrotnie minęły. Jeśli chcemy być specjalistami, to w coraz węższej dziedzinie.