Mamy sztuczną inteligencję w domu? Na razie wstrzymajmy się z kpinami i memami
Żyjemy w czasach, gdy praktycznie każda szanująca się wielomiliardowa korporacja próbuje zastosować gdzieś sztuczną inteligencję. Robią to także mniejsze firmy, a nawet instytucje publiczne. Dobrym przykładem jest wirtualny asystent w mObywatelu. Rządowy portal gov.pl zachwala go w następujący sposób:
Sztuczna inteligencja po polsku? Tak, to bardzo ważne, gdy tworzymy rozwiązanie, które ma wesprzeć i zrozumieć obywatela. Dlatego pracujemy nad chatbotem, który mówi Twoim językiem, dosłownie i w przenośni. To cyfrowy asystent, który odpowiada na pytania jasno, konkretnie i bez wizyty w urzędzie. Celem jest jedno, pomóc Ci szybciej znaleźć to, czego szukasz, i ułatwić Ci zrozumienie procedur.
Chatbot rzeczywiście działa. Możemy go znaleźć w aplikacji mObywatel, klikając w ikonkę "główki robota" w prawym górnym rogu ekranu, zaraz no lewo względem ikonki powiadomień. Jak się wirtualny asystent w mObywatelu spisuje? Niestety słabo.
Radio Wrocław w środę opublikowało swoje wrażenia z testowania możliwości asystenta. Okazało się, że asystent nie jest w stanie odpowiedzieć prawidłowo na pytanie o to, kto jest ministrem sprawiedliwości. Cały czas wskazuje na Adama Bodnara, który pełnił tę funkcję w latach 2023-2025. Osobom zupełnie niezorientowanych w realiach polskiej polityki oraz uczącym się modelom AI podpowiadam, że od zeszłego roku resortem sprawiedliwości kieruje Waldemar Żurek.
Podobne wyniki dziennikarze Radia Wrocław uzyskali, gdy zapytali o osobę ministra aktywów państwowych. Zamiast Wojciecha Balczuna wskazuje Borysa Budkę.
Przyznam, że nie bardzo wierzyłem, że sztuczna inteligencja umieszczona w rządowej "superaplikacji" dla obywateli popełnia tak rażące błędy. Zadałem więc te same pytania. Są pewne różnice. Przede wszystkim, asystent poprawnie wskazał Wojciecha Balczuna jako ministra aktywów państwowych. Wyłożył się jednak przy pytaniu o ministra sprawiedliwości. Również odpowiedział mi, że jest nim Adam Bodnar.
Kolejną różnicę zaobserwowałem przy dopytywaniu. Gdy dziennikarze Radia Wrocław sprzeczali się z AI, kategorycznie stwierdzając, że resortem sprawiedliwości kieruje Waldemar Żurek, asystent twardo stał przy swoim. Ja nieco inaczej sformułowałem swoje zapytanie, po prostu grzecznie pytając, czy przypadkiem nie jest inaczej, niż odpowiedział mi przed chwilą. O dziwo, wirtualny asystent przyznał mi rację. Nie jest więc aż tak źle. Co oczywiście nie znaczy, że jest dobrze.
Winowajcą nie jest sztuczna inteligencja, ale bałagan panujący na rządowych stronach internetowych
W tym momencie warto się zastanowić nad tym, jak to się stało, że polski model sztucznej inteligencji zaczyna zmyślać już przy stosunkowo prostych pytaniach. Jak to zwykle w takich przypadkach bywa, wszystko zależy od tego, jakimi danymi "karmimy" nasze AI. W tym przypadku mamy informacje dotyczące metodologii jego twórców. Asystent oparty jest na modelu PLLuM, który powstawał na Politechnice Wrocławskiej. Dzięki Radiu Wrocław wiemy także, że korzysta z danych witryny gov.pl.
Błędy skomentował lider projektu PLLuM prof. Maciej Piasecki. Jego odpowiedź w dużej mierze wyjaśnia nam, co stoi za całym zamieszaniem:
To dobrze. Ma nieaktualną wiedzę, ale paradoksalnie udziela dobrych odpowiedzi. W bazie dokumentów, którymi posługuje się asystent, jest dokument, w którym ministrem jest Adam Bodnar, stąd taka odpowiedź.
Oznacza to tyle, że wirtualny asystent w mObywatelu zadziałał poprawnie. Pobrał odpowiedź na zadane pytanie z dokumentów, z których powinien ją pobrać. Problem tkwi w tym, że rządowe dokumenty, na których AI było trenowane, są nieaktualne. Oczywiście nie wszystkie, bo asystenta dało się jednak przekonać co do tego, kto naprawdę jest ministrem sprawiedliwości. Można się też założyć, że cały czas prowadzone są na nim prace. Taki obrót spraw podpowiada z kolei poprawne wskazywanie Wojciecha Balczuna jako ministra aktywów państwowych.
Problem niestety cały czas pozostaje. Jeśli mamy do czynienia z oficjalnym narzędziem dostępnym w państwowej aplikacji o kluczowym wręcz znaczeniu, to obywatele będą wierzyć w prawdziwość otrzymanych odpowiedzi. Dotyczy to w szczególności tych osób, które nie zdają sobie sprawy z tego, jak często obecne iteracje modeli sztucznej inteligencji potrafią mijać się z prawdą. Przy zagadnieniach związanych z przepisami prawa nawet wiodące modele AI radzą sobie stosunkowo słabo. Im bardziej szczegółowe i skomplikowane jest interesujące nas zagadnienie, tym jest tylko gorzej.
Nie można mieć pretensji do asystenta, że jest cały czas rozwijany. Można za to czepiać się braku poprawnego oznaczenia, że cały czas mamy do czynienia z wersją rozwojową, jeśli nie testową. Pozostaje oczywiście także kwestia aktualizacji danych w składowych portalu gov.pl. Nad tym również można – a nawet warto – popracować.
Obserwuj nas w Google Discover
Podobają Ci się nasze treści?
Google Discover
Obserwuj