Dlaczego tak się stało?
No właśnie, co tak naprawdę spowodowało, że np. akcje Nvidii spadły 27 stycznia aż o 17%? To przecież wyparowanie prawie 600 miliardów dolarów. Nic dziwnego, że wiele osób zastanawiało się „co to będzie”. Niektórzy chcieli już ogłaszać porażkę Stanów Zjednoczonych w wyścigu technologicznym z Chinami. Także wtedy coraz poważniej zaczęto mówić, że kiedyś ta „bańka AI” pęknie. Jak się okazało, był to tylko chwilowy dołek. Wzrosty giełdy w następnych miesiącach oraz nowe, amerykańskie produkty sprawiły, że trochę o DeepSeeku zapomniano.
A przecież według oficjalnych danych twórców, model ten powstał przy śmiesznie niskich wydatkach jak na branżę AI – 5,6 miliona dolarów. Dla porównania, OpenAI wydało na samo szkolenie modelu GPT-4 ponad 100 milionów dolarów. A to tylko mała część, bo nie tylko mamy już GPT-5, ale pzez branżę przetaczają się każdego tygodnia kolejne grube miliardy na utrzymanie infrastruktury, pracowników, prowadzenie badań i inne koszty napędzające całą machinę AI.
Przy tak niskich kosztach DeepSeek-R1 potrafił nawiązać walkę, a często nawet przewyższał amerykańską konkurencję w najpopularniejszych testach modeli językowych. Matematyka, inżynieria oprogramowania, łamigłówki – a to wszystko za ułamek ceny. Korzystanie z API DeepSeeka było ok. 20-30 razy tańsze od ChataGPT.
Trzecia, i chyba najważniejsza przyczyna giełdowej paniki dotyczyła przyszłości procesorów GPU, które są fundamentem budowy kolejnych, bardziej rozbudowanych modeli językowych. To właśnie dlatego Nvidia tak to odczuła – jest ona niekwestionowanym liderem w tym sektorze technologicznym. Skoro Chińczycy potrafili wytworzyć taki sam produkt za ułamek kwoty i na ułamku sprzętu, to czy przypadkiem amerykańskie big-techy nie idą złą, przepłaconą ścieżką?
Spokój
W następnych miesiącach chińska myśl technologiczna straciła jednak na popularności. Nie tylko dlatego, że pojawiły się lepsze, amerykańskie alternatywy. Zainteresowanie DeepSeek-R1 momentami bywało tak duże, że po prostu nie dało się go używać. To było odrzucające, ludzie zostawali przy „starym, dobrym” ChacieGPT.
Drugim problemem była kwestia cenzury i bezpieczeństwa danych. Szybko okazało się, że DeepSeek nie będzie odpowiadać na pytania związane z Tiananmen, prawami człowieka czy krytyką Komunistycznej Partii Chin. Dla przykładu, Australia zabroniła DeepSeeka na wszystkich urządzeniach rządowych.
Po trzecie, pojawił się problem wiarygodności kosztów. Już w lutym 2025 roku raport firmy analitycznej SemiAnalysis podważył twierdzenia DeepSeek o kosztach treningu. Oszacowano wtedy, że rzeczywisty koszt wynosił co najmniej… 1,3 miliarda dolarów. Oj tam, ponad 5 milionów a ponad miliard – różnica trudna do zobaczenia gołym okiem.
Historia lubi się powtarzać?
Ostatnio pomyślałem, że dawno nie było głośno o DeepSeek. Bo rzeczywiście było coś cicho. W ciągu całego roku niejednokrotnie wybierano już nowego „króla” modeli językowych. Raz jest to ChatGPT, innym razem Claude, czasami Grok, a ostatnio Gemini. Aż prosi się o jakąś niespodziewaną bombę, bo robi się nudno. W poniedziałek Chińczycy postanowili, że przypomną o sobie jeszcze raz – tym razem na koniec roku. Jeśli wierzyć oficjalnym danym twórców, to liczby znów są szokujące.
Specjalna wersja, DeepSeek-V3.2-Speciale miała osiągnąć w teście AIME 2025 (American Invitational Mathematics Examination) wynik na poziomie 96%, przeskakując tym samym modele GPT-5-High, Claude-4.5 Sonnet czy Gemini 3 Pro. Nowy model zdobył również najlepszy wynik na platformie Codeforces – 2701. Dla pocieszenia, obecny światowy lider, użytkownik ‘tourist’ z Białorusi, ma wynik na poziomie 3757.
Jedno jest pewne – to obecnie najlepszy dostępny model językowy w wersji open-source. W końcu jak dobrze wiemy, np. ChatGPT-5 od firmy o nazwie OpenAI, nie jest oprogramowaniem open-source. Z jednej strony tani przytyk, ale z drugiej strony rozumiem taką politykę. W szczególności w takich czasach. Nie wiemy, co będzie w przyszłości. Może za chwilę amerykańskie spółki sturlają się znów w dół. Może Chińczycy odpalą nam za niedługo kolejny model, aby zrobić kolejne zamieszanie. Kto wie, może jeszcze doczekamy się amerykańskiej odpowiedzi przed Bożym Narodzeniem.
Pamiętajmy, że amerykańska giełda nie zareagowała na premierę DeepSeek-R1 20 stycznia, a dopiero tydzień później. To się jeszcze musi wszystko „na spokojnie” rozejść po sieci, ludzie muszą dowiedzieć się, co ten model potrafi. Mam jednak takie wrażenie, że coraz trudniej zrobić efekt „wow” w kwestii modeli językowych. Nie zdziwię się, jeśli żadnej giełdowej zadyszki nie będzie.