Imponujące jest obserwowanie, jak z roku na rok rozwijają się modele językowe. Niegdyś nieporadne, wykładające się przy najprostszych zapytaniach, niepotrafiące liczyć i programować najprostszych algorytmów. Tak wspominam ChatGPT na początku 2023 roku. Dwa lata później chatbot jest już w zupełnie innym miejscu. Coraz lepiej radzi sobie w mniej ścisłych dziedzinach, gdzie potrzebne jest przede wszystkim rozumienie tekstu, czyli np. przepisów prawa.
Z roku na rok coraz lepiej
Trzeci rok z rzędu dr Łukasz Szoszkiewicz z Zakładu Prawa Konstytucyjnego na UAM na swoim profilu na X (ex-Twitter) sprawdza, jak radzą sobie modele językowe w pojedynku z kazusami. Trudność zadań odpowiada temu, czym zajmują się studenci prawa I i II roku.
W 2023 roku, gdy modele językowe były bardzo świeżym produktem na rynku, nie poradziły sobie zbyt dobrze. Zresztą nie miały kluczowych funkcji, które odpowiadają za coraz lepsze wyniki. Model GPT-3.5 powstał w 2022 roku i był trenowany na danych pochodzących maksymalnie z czerwca 2021 roku. Tak, to są jeszcze te czasy, kiedy chatboty nie miały dostępu do internetu i polegały wyłącznie na danych, na których zostały wytrenowane.
https://twitter.com/lszoszk/status/1770071342320099771
14 marca 2023 roku światło dzienne ujrzał GPT-4, który co prawda był wytrenowany na świeższych danych, ale na starcie nie miał dostępu do internetu. Tym bardziej musimy pamiętać o tym, że zdecydowanie największa ilość danych treningowych kolejnych modeli GPT jest w języku angielskim. Stąd też jej nieporadność, gdy pytaliśmy się o zagadnienia wyjęte prosto z polskiego prawa.
Jak wskazywał dr Szoszkiewicz rok temu, rozwiązywanie kazusów przebiegało zdecydowanie sprawniej, gdy dostarczyliśmy modelowi treść Konstytucji RP. Bez tego, model nie potrafił się na nic powołać – bo po prostu o tym nie wiedział. Z dostępem do odpowiednich danych, modele potrafiły wydobyć potrzebne dane do rozwiązania zadań.
Rewolucja DeepResearch
Kolejne modele wprowadzają moduły odpowiadające za „głębokie przeszukanie”. Zasada działania jest prosta – zadajemy pytanie, model dopytuje się dokładnie, co chcemy znaleźć, odpowiadamy, a on przez kilka(naście) następnych minut przeszukuje internet w celu znalezienia interesujących nas informacji. Powołuje się na dziesiątki, jak nie setki stron. Jest to prawdziwy przełom w kwestii zdobywania informacji za pomocą sztucznej inteligencji. Jeszcze dwa lata temu było to działanie co najmniej kontrowersyjne, rozważane jedynie w kategoriach eksperymentów. Dzisiaj staję się istotną częścią robienia researchu na dany temat. Przyznam się, że sam jestem dumnym użytkownikiem – istotnie przyspiesza czas pracy nad artykułami, znajduje dokładnie to, co potrzebuję, a nawet więcej. Olbrzymią zaletą jest to, że bezpośrednio pokazuje nam odnośniki do stron, na które się powołał. To bardzo ważne – pomimo tego, że odpowiedzi deep research są bardzo precyzyjne, to nie może nas to zwolnić z krytycznego myślenia.
https://twitter.com/lszoszk/status/1922725205522178355
W tym roku dr Szuszkiewicz sprawdził sprawność właśnie tego „głębokiego przeszukania”. Dostęp do internetu i dłuższy czas na znalezienie, przemyślenie i skonstruowanie odpowiedzi sprawił, że AI nie ma już problemów z odwoływaniem się do ustaw. Co więcej, jest w stanie znaleźć nawet konkretne orzeczenia i stanowiska, które mogą być użyteczne w rozwiązaniu kazusa.
Wszechstronność modeli językowych to największe piękno tego wynalazku. Wystarczy tylko napisać, co chcemy, a nasz „kolega” nam coś zaprogramuje, zinterpretuje przepisy prawne, wygeneruje obrazek, przetłumaczy nam tekst i ułoży plan podróży. Będzie coraz lepiej, będziemy coraz częściej zaskakiwani. Nasza rola będzie coraz częściej sprowadzać się do roli kontrolera treści wygenerowanych przez sztuczną inteligencję. Coś, co kiedyś robiliśmy godzinami, teraz chatbot znajdzie i przedstawi nam w kilka sekund lub minut.