Wygląda na to, że sztuczna inteligencja w niepowołanych rękach może przysporzyć ludzkości kłopotów. Nie chodzi tutaj o powtórkę z „Terminatora”, lecz o bardziej przyziemne sprawy. Chat GPT-4 zdaniem samych twórców potrafi tworzyć treści o charakterze dyskryminującym i które wspierają autokratyczne reżimy. Można się spodziewać, że przy braku realnych zabezpieczeń faktycznie będzie to robił.
GPT-4 potrafi już nie tylko programować, ale także kłamać i pisać listy z pogróżkami
Rozwój sztucznej inteligencji sprawił, że jesteśmy praktycznie u progu kolejnej technologicznej rewolucji. Już teraz AI zagraża karierze niektórych artystów-grafików. Metaforyczny oddech maszyny ma plecach z pewnością poczują kolejne zawody. Chat GPT-4 nauczył się programować, w amerykańskim egzaminie zawodowym dla prawników uzyskuje wyniki lepsze od większości żywych absolwentów, pomaga stawiać diagnozy, a nawet może próbować szczęścia jako sommelier. Mniej zaawansowane programy już teraz pomagają firmom odbierać telefony od klientów, a nawet samodzielnie załatwiać dla nich prostsze sprawy.
Sztuczna inteligencja z pewnością zmieni w następnych latach wiele aspektów naszego życia. Będzie także obiektem szczególnego zainteresowania ze strony prawodawców, którzy w którymś momencie na pewno dostrzegą zmiany społeczne dziejące się na ich oczach. Z postępem w tej dziedzinie wiążą się jednak zagrożenia niezwiązane z ryzykiem zmiany struktury rynku pracy. Wynikają raczej z natury środowiska, w którym AI będzie się poruszać najczęściej.
Analitycy Banku Pekao przeczytali raport techniczny sporządzony przez twórców GPT-4. Open AI przyznało, że pojawił się znany już od jakiegoś czasu problem. Sztuczna inteligencja jest w stanie bez trudu tworzyć treści o charakterze dyskryminującym i takie, które wspierają autokratyczne reżimy. Prawdę mówiąc, technicznie rzecz biorąc jest w stanie robić dużo gorsze rzeczy. GPT-4 działający bez ograniczeń mógłby pomóc napisać list z pogróżkami, pamflet nawołujący do wstąpienia do Al-Kaidy, czy nawet zaplanować atak terrorystyczny. Możliwości programu są na tyle duże, że ogranicza nas właściwie głównie wyobraźnia.
Warto przy tym wspomnieć, że już wcześniejsze iteracje sztucznej inteligencji w zetknięciu z żywymi internautami bardzo szybko chłonęło nieprzyjazny przekaz. Już w 2016 r. chatbot Microsoftu nauczył się od użytkowników Twittera rasizmu, seksizmu i ekstremistycznych poglądów politycznych. Wystarczyło kilka godzin, by bot stał się zagorzałym nazistą. Jak walczyć z tego typu zjawiskami?
AI w rękach co paskudniejszych reżimów byłoby niemal idealnym narzędziem dezinformacji i opresji
Jak się łatwo domyślić, obecna wersja GPT-4 ma narzucony kaganiec. OpenAI wykorzystuje klasyfikatory treści po to, aby zapobiegać szkodliwym treściom. Firma przyznaje jednak, że rozwiązanie to na dłuższą metę może się okazać zawodne. Klasyfikatory nie są w stanie odsiać wszystkich treści uznawanych przez twórców za szkodliwe. Na przeszkodzie stoi między innymi ludzka kreatywność w przełamywaniu wszelkiej maści ograniczeń. Model GPT-4 pozostaje wciąż podatny na tzw. jailbreakes (ang. „ucieczka z więzienia”), które służą właśnie uwalnianie sztucznej inteligencji z oków zabezpieczeń.
Samo AI również stało się bardziej kreatywne w rozwiązywaniu problemów. Dość głośnym sukcesem chata GPT-4 była próba zatrudnienia żywego człowieka do obejścia przeszkody w postaci zabezpieczenia captcha. Jakby tego było mało, sztuczna inteligencja po prostu skłamała, że jest całkowicie żywym człowiekiem, który po prostu ma problemy ze wzrokiem i dlatego potrzebuje pomocy.
Spuszczona ze smyczy sztuczna inteligencja byłaby znakomitym sposobem na szerzenie dezinformacji w mediach społecznościowych. Te już teraz w dużej mierze są opanowane przez boty i „biologiczne” trolle, których celem jest dokładnie to samo. AI w złych rękach mogłoby tworzyć wiarygodne fałszywe opinie w Internecie, niestrudzenie propagować ekstremalne poglądy polityczne i społeczne, czy nawet spełniać funkcję agentury wpływu dla tajnych służb poszczególnych państw.
OpenAI przyznaje zresztą, że same ograniczenia również mogą być źródłem problemów w przyszłości. Klasyfikatory treści tworzone przez osoby o odpowiednio niecnych intencjach mogą stanowić niemal doskonałe narzędzie automatycznej cenzury. Ten, kto zetknął się choć trochę z algorytmami stosowanymi przez media społecznościowe, wie doskonale, że ryzyko wykorzystania technologii dla dość niskich celów jest całkiem wysokie. Z tego typu rozwiązań mogłyby chcieć także skorzystać rządy, dla których wolność słowa nie jest żadną wartością. Ze szczególnym uwzględnieniem tych, które lubią narzucać obywatelom swoją wizję świata.