Kalkulator lepszy od eksperta z dyplomem
Tradycyjne metody oceny kredytowej opierają się na subiektywnej ocenie ludzkich analityków, co zwiększa ryzyko błędów, niespójności i stronniczości. Dlaczego? Bo analitycy są zmęczeni, mają swoje uprzedzenia, źle się czują w poniedziałki, a w piątki chcą już iść do domu. Czasem po prostu nie lubią czyjegoś wyglądu lub sposobu mówienia.
Większość banków ma wskaźnik automatycznego przetwarzania (straight-through processing) poniżej 50% przy tradycyjnych metodach a to oznacza, że ponad połowa wniosków wymaga ręcznej interwencji, co generuje opóźnienia i dodatkowe koszty.
Agentic AI, te systemy sztucznej inteligencji, które samodzielnie analizują dane i podejmują decyzje finansowe nie mają tych problemów. Nie chorują, nie mają złych dni, nie dyskryminują kogoś, bo akurat jest w złym humorze. Analizują dziesiątki tysięcy zmiennych w sekundę, waszą historię kredytową, wzorce wydatków, stabilność dochodów, a nawet trendy makroekonomiczne.
Efekt? Hybrydowe modele AI łączące uczenie maszynowe z ludzkim nadzorem osiągają dokładność między 90-97%, przewyższając zarówno tradycyjne metody, jak i czysto maszynowe uczenie. To oznacza szybsze decyzje, niższe koszty obsługi (co teoretycznie przekłada się na tańsze kredyty), a przede wszystkim demokratyzację dostępu. Osoby, które wcześniej musiałyby czekać tygodniami na rozmowę z analitykiem, teraz dostają odpowiedź w kilka minut.
Ale szybsze decyzje oznaczają również szybsze odmowy z powodu wysokiego ryzyka..
Ale kto nauczył tego bota, że jestem ryzykowny?
No właśnie. I tutaj zaczyna się problem, który psuje całą tę piękną opowieść o obiektywnym AI. Bo te systemy uczą się na danych historycznych. A historia finansów to nie jest akurat najbardziej egalitarna opowieść ludzkości. Wręcz przeciwnie.
AI w takich przypadkach szkolone jest na danych kredytowych na przykład z ostatnich dwudziestu lat. W tych danych kobiety statystycznie rzadziej otrzymywały wysokie kredyty, oczywiście nie dlatego, że były mniej wiarygodne, ale dlatego, że zarabiały mniej lub miały przerwy w karierze związane z macierzyństwem. System nauczy się więc, że kobiety to wyższe ryzyko. I będzie im odmawiał, nawet gdy ich sytuacja finansowa jest identyczna jak mężczyzn.
To nie jest teoria spiskowa. Algorytmy kredytowe w USA, Wielkiej Brytanii czy Skandynawii wielokrotnie przyłapano na dyskryminacji ze względu na płeć, rasę czy kod pocztowy. Nie dlatego, że ktoś złośliwie zaprogramował system, żeby dyskryminował tylko dlatego, że system wiernie odtworzył ludzkie uprzedzenia zakodowane w historycznych danych.
Paradoks jest więc taki, że AI jest obiektywniejsze od człowieka, ale tylko tak obiektywne, jak dane, na których się uczyło. A te dane noszą w sobie wszystkie nasze społeczne niesprawiedliwości.
Kowalski kontra algorytm
Weźmy hipotetyczny przykład, Pan Kowalski, czterdziestolatek z dwudziestoletnim stażem, bez długów, właściciel mieszkania, aplikuje o kredyt konsumpcyjny na 50 tysięcy. System analizuje: dochody - w porządku, historia spłat - bez zarzutu, stabilność zatrudnienia - idealna. Ale algorytm zauważa coś jeszcze. Pan Kowalski ostatnio częściej wypłaca gotówkę. Jego wydatki na rozrywkę wzrosły o 15%. Kod pocztowy, pod którym mieszka, skorelował się w danych z wyższym ryzykiem niewypłacalności.
Odmowa.
Czy system miał rację? Może. Statystycznie takie wzorce rzeczywiście mogą wskazywać na problemy finansowe. Ale może Pan Kowalski po prostu zaczął chodzić do nowej restauracji, która przyjmuje tylko gotówkę? Może wydaje więcej na rozrywkę, bo w końcu pozwolił sobie na hobby po latach oszczędzania? Może mieszka w ryzykownym kodzie pocztowym, bo po prostu lubi swoją dzielnicę?
Człowiek - analityk kredytowy - mógłby zadać te pytania. Porozmawiać. Zrozumieć kontekst. AI nie pyta. AI analizuje dane i podejmuje decyzję. Szybko, sprawnie, matematycznie.
I tu więc pojawia się pytanie czy chcemy żyć w świecie, gdzie wszystko jest statystyką, a kontekst nie ma znaczenia?
Kto zapłaci, gdy bot się pomyli?
Bo pomyłki się zdarzają. Nawet najlepszym algorytmom. I tu pojawia się pytanie fundamentalne, kto ponosi odpowiedzialność?
Załóżmy, że system AI odmówił komuś kredytu hipotecznego na podstawie biasu danych albo halucynacji. Ta osoba nie kupiła mieszkania, straciła okazję życia, może nawet musiała przeprowadzić się do innego miasta. Kto odpowiada? Programista? Bank? Firma, która stworzyła algorytm? Może samo AI które przecież nauczyło się samodzielnie?
Unia Europejska wprowadza AI Act, próbę uporządkowania tej dziedziny. Systemy wysokiego ryzyka (a kredytowanie to właśnie to) mają być "transparentne" i "weryfikowalne". W teorii brzmi świetnie. W praktyce? Nikt tak naprawdę nie wie, co to oznacza. Czy bank ma pokazać wam kod źródłowy? Czy algorytm ma wysłać maila: "Hej, odrzuciłem twój wniosek, bo twój profil zakupowy przypomina mi kogoś z 2019 roku, który nie spłacił kredytu"?
Prawo ledwo nadąża. A tymczasem te systemy już zarządzają pieniędzmi wartymi miliardy dolarów globalnie.
Inwestycje i zakupy na autopilocie
Autonomiczne AI już zarządza inwestycjami wartymi miliardy i powoli wkracza w obszar codziennych zakupów. Systemy, które same kupują akcje, sprzedają obligacje, zawierają kontrakty. I często są lepsze od ludzi bo nie panikują w kryzysie, nie zachłystują się w hossie, analizują tysiące zmiennych jednocześnie.
Ale działają w oparciu o wzorce z przeszłości. A rynki mają tę niefortunną cechę, że przyszłość nie zawsze wygląda jak przeszłość.
Wtedy okazuje się, że gdzieś w chmurze bot sprzedał wasze bezpieczne obligacje i zainwestował w ryzykowne akcje, które nazajutrz spadły o 40%.
Kolejny krok to już nie tylko zarządzanie portfelem, ale autonomiczne decyzje zakupowe. Wyobraźcie sobie AI, które analizując wasze finanse, plany życiowe wychwycone z kalendarza i maili, trendy na rynku nieruchomości oraz prognozy ekonomiczne sam zdecyduje, że teraz jest idealny moment na zakup mieszkania. I kupi je. Za wasze pieniądze.
Pierwsze takie systemy są już testowane w ograniczonym zakresie bo na razie przy drobnych, automatycznych zakupach. Ale kierunek jest jasny - coraz więcej decyzji ma być podejmowanych za was, nie przez was.
Mądrzejsi, ale czy lepsi?
Ta rewolucja już trwa i ma swoje zalety jak szybkość, skalowalność, demokratyzację dostępu do finansów. Dla milionów ludzi te systemy to lepszy dostęp do kredytów i tańsze inwestowanie. Ale tworzymy też infrastrukturę, której nikt do końca nie rozumie. Może więc pytanie brzmi nie "czy AI jest lepsze od człowieka?", ale "jak sprawić, żeby AI było lepsze dla człowieka?". Bo stworzyliśmy narzędzie, które przewyższa nas w ocenie ryzyka finansowego. Tylko że zapomnieliśmy nauczyć je jednej rzeczy, w której ludzie - nawet ci zmęczeni i pełni uprzedzeń - wciąż są mistrzami: empatii i zrozumienia, że za każdą cyferką w systemie kryje się człowiek z własną historią.
Obserwuj nas w Google Discover
Podobają Ci się nasze treści?
Google Discover
Obserwuj