OpenAI zapowiedziało nowy model sztucznej inteligencji. Tak, znowu. Dosłownie „przed chwilą” zaprezentowano model o1, a na horyzoncie widać już o3. Nie, to nie błąd – modelu o2 nie będzie. Jeśli jest to spowodowane osiągniętymi postępami, to jest to w pełni uzasadnione. Tu nie chodzi o kolejne straszenie utratą pracy czy wyparciu gatunku ludzkiego przez AI. Kończy się 2024 rok – sprawdźmy jak rozwój AI wpłynie na nas w 2025.
Przełomowy rok
Tradycją staje się, że każdy kolejny rok okazuje się być przełomowym dla sztucznej inteligencji. W maju światło dzienne ujrzał model GPT-4o. Już wtedy robił wrażenie – szybszy i tańszy w obsłudze niż jego poprzednik, GPT-4. Przyniósł znaczący postęp w przetwarzaniu i generowaniu nie tylko tekstu, ale także dźwięku i obrazu.
To był jednak przedsmak tego, co przygotowało OpenAI. We wrześniu trafiła do nas wersja o1-preview. Model inny niż jego poprzednicy. Wyróżnia się tym, że przed udzieleniem odpowiedzi, spędzał czas na „myśleniu” nad odpowiedzią. To właśnie dlatego sztucznej inteligencji udało się uczynić znaczące postępy w naukach ścisłych. Wersja o1-preview osiągała wyniki na poziomie doktoratów z fizyki, biologii czy chemii. Znalazł się także w gronie 11% najlepszych użytkowników Codeforces, serwisu z zadaniami programistycznymi.
Osiągnął także znacznie lepsze wyniki w renomowanym benchmarku ARC-AGI. Mierzy on zdolność AI do nabywania nowych umiejętności na nieznanych wcześniej zadaniach. W skrócie – porównuje sztuczną inteligencję z ludzką.
Dopiero co wypuszczono ChatGPT o1, a już nadchodzi wersja o3.
Co warto wiedzieć?
Jeszcze lepsza, jeszcze bardziej zaawansowana, jeszcze bardziej ludzka.
Już o1 zachwycał swoim działaniem. Spójrzmy, jak wypada o3 – "progres" np. w benchmarku ARC-AGI to mało powiedziane. pic.twitter.com/JR1vVTGWTS
— Jakub Bilski (@volnoscioviec) December 20, 2024
5 grudnia wersję o1-preview zastąpiła pełnoprawna wersja o1. W najlepszym wypadku, w teście ARC-AGI osiągała wynik 32%. Dla porównania – wynik wersji GPT-4o oscylował wokół 5%. Co lepsze, w 2020 roku niedostępna nigdy publicznie wersja GPT-3 osiągnęła wynik na poziomie… 0%. Bardzo szybko to wszystko idzie. Robi wrażenie? Zapnijcie pasy, bo to nadal nie wszystko, co przygotowało OpenAI.
Silna sztuczna inteligencja
Co jeśli sztuczna inteligencja osiągnie wynik 100% w ARC-AGI? W końcu za skrótem „AGI” kryje się nazwa Artificial General Intelligence, którą można przetłumaczyć na „ogólna sztuczna inteligencja” lub „silna sztuczna inteligencja”. Silna sztuczna inteligencja to taka, która rozumie, uczy się i stosuje wiedzę w ogólny sposób – na wzór ludzi. AGI ma mieć zdolność do wykonywania dowolnych zadań intelektualnych, które są w stanie wykonywać ludzie.
Korzystając z platform streamingowych, treści są nam polecane na podstawie systemów rekomendacji. Systemy te, to nic innego jak “ANI”, czyli artificial narrow intelligence. To sztuczna inteligencja, która jest wyspecjalizowana w wąsko określonych zadaniach. Słowo „wąsko” oznacza tu mniej więcej tyle, co niezdolność do rozumowania i adaptacji poza zakresem, do którego została stworzona. ChatGPT od OpenAI, Claude od Anthropic czy Gemini od Google’a to coś pomiędzy ANI a AGI. Zrobią wiele rzeczy, od policzenia zadań matematycznych, analizę lub napisanie tekstu, po wygenerowanie obrazu, ale nadal nie posiadają pełnej zdolności adaptacji do rzeczy, na których ich wcześniej nie wyuczono.
Jeśli ktoś twierdzi, że Chat GPT o3 to AGI (Silna Sztuczna Inteligencja), to po prostu kłamie i szuka taniej sensacji.
Model o3 to duży postęp, ale nie aż taki.
Nadal znajdujemy się na etapie ANI. pic.twitter.com/6nDpge6Jqa
— Jakub Bilski (@volnoscioviec) December 20, 2024
Zapowiedziany przez OpenAI model o3 w swojej najlepszej, „podkręconej” wersji ma osiągać wynik na poziomie 87,6%. Ponad 60 pp. wzrostu na przestrzeni zaledwie trzech miesięcy! Czy to znak, że zbliżamy się do AGI? Twórca benchmarku jednoznacznie temu zaprzecza – najnowsze dzieło OpenAI nadal nie radzi sobie z częścią prostych dla człowieka zadań. Co najważniejsze – wynik na poziomie 100% nie jest tożsamy z osiągnięciem AGI. Twórcy zapowiedzieli już ARC-AGI-2, gdzie o3 ma mieć o wiele twardszy orzech do zgryzienia.
So, is this AGI?
While the new model is very impressive and represents a big milestone on the way towards AGI, I don't believe this is AGI — there's still a fair number of very easy ARC-AGI-1 tasks that o3 can't solve, and we have early indications that ARC-AGI-2 will remain…
— François Chollet (@fchollet) December 20, 2024
Pogromca programistów i profesorów?
Twórcy o3 chwalą się także jego osiągami w innych testach. Ponownie sprawdzono osiągi na platformie Codeforces. Tutaj również odnotowano znaczący postęp. Model o3 z wynikiem 2727 wyprzedził 99,95% użytkowników serwisu. Jest na 175. miejscu. Jedną z ciekawostek jest fakt, iż przeskoczył m.in. Jakuba Pachockiego, który pracuje Chief Scientist w OpenAI.
Programowanie to nie jedyna dziedzina, której warto się przyjrzeć. W benchmarku FrontierMath, który składa się z dziesiątek niezwykle trudnych zadań matematycznych, o3 osiągnął wynik na poziomie 25%. Imponujący postęp. Dla porównania – GPT-4 i Gemini rozwiązały mniej niż 2% zadań.
Model o3 rozwiązał trochę ponad 25% problemów ze zbioru EpochAI Frontier Math (https://t.co/9Yvl9bo8n3). Warto wspomnieć, że zadania są:
– trudne i każdy problem wymaga godzin pracy od ekspertów matematyków;
– nigdy wcześniej nie opublikowane, tzn. model nie mógł się ich nauczyć,… pic.twitter.com/awC47EBmyI— Piotr Sankowski (@piotrsankowski) December 20, 2024
Jak widać, niedawna predykcja prof. Piotra Sankowskiego o tym, że matematyka będzie pierwszą dziedziną, gdzie AI z sukcesem zastąpi człowieka, realizuje się na naszych oczach. Co ciekawe, jeden z twórców benchmarku nazwał zadania „ekstremalnie wymagającymi, z którymi AI będzie musiała zmagać się wiele lat. Patrząc na tempo postępu modeli OpenAI, nie byłbym tego taki pewien. Mówienie w obecnych czasach „nie da się” lub „nie będzie” to niezbyt opłacalna droga.
Z uśmiechem na twarzy przeglądałem ostatnio zagraniczne artykuły wieszczące jeszcze w 2019 roku śmierć Deep Learningu. Jest to dziedzina AI, bez której ChatGPT i inne chatboty nie ujrzałyby światła dziennego w takiej formie, w jakiej ich znamy. Głębokie uczenie koncentruje się na algorytmach inspirowanych strukturą i funkcjonowaniem ludzkiego mózgu – wykorzystuje do tego sztuczne sieci neuronowe. To właśnie dzięki Deep Learningowi AI potrafi rozpoznawać obrazy, dźwięki – po prostu stawać się bardziej ludzka. Żadnej śmierci Deep Learningu zatem nie było i nie będzie. To dopiero początek.
Wnioski?
Jak to już bywa wraz z rozwojem AI, ludzie lubią szukać taniej sensacji. Jedną z nich jest fakt, iż model o3 jest już AGI. To oczywiście kłamstwo. To jednak nie jedyne głosy, które wyhaczyłem przeglądając reakcje internautów. Tradycją staje się namawianie studentów kierunków ścisłych, w szczególności informatycznych, do porzucenia studiów. Spokojna głowa, jest jeszcze tyle rzeczy do zrobienia, że warto się uczyć i pasjonować przysłowiowymi komputerami. Czy w osiągnięciu tych celów pomoże nam AI? Z pewnością. Czy zastąpi? Nie wiem, ale jest sposób zmniejszenia szans na to, aby zastąpiła – ludzie muszą rozwijać swoją kreatywność. Nie jest to mój wymysł, ale oficjalne wyniki badań, o których przeczytasz tutaj.
99.99% of people cannot comprehend how insane FrontierMath is.
The problems are crafted by Math profs and not in any training data.
Math legend Terry Tao said "These are extremely challenging. I think they will resist AIs for several years at least."
OpenAI o3 did 25% on THIS. pic.twitter.com/Cur2uOKFVL
— Deedy (@deedydas) December 21, 2024
Rozwój badań naukowych – w szczególności z dziedziny matematyki. Skoro o3 potrafi rozwiązywać trudne, oryginalne zadania, to dlaczego nie może pójść o krok dalej? Kto wie, może wersja o4, o5 (lub jakkolwiek inaczej będzie się nazywać) pomoże naukowcom w rozwiązaniu jednego z problemów milenijnych? Co jeśli sztuczna inteligencja odkryje coś nowego w zakresie liczb pierwszych, a w konsekwencji wywróci do góry nogami dotychczas znaną nam kryptografię? Pamiętajmy, że żyjemy w zbyt ciekawych czasach, aby mówić „nie da się” lub „nie będzie”.