REKLAMA
  1. Home -
  2. Społeczeństwo -
  3. Putin jest już w zasadzie zbędny. Chat GPT-4 nauczył się kłamać, pisać listy z pogróżkami i wspierać autorytarne reżimy
Putin jest już w zasadzie zbędny. Chat GPT-4 nauczył się kłamać, pisać listy z pogróżkami i wspierać autorytarne reżimy

Wygląda na to, że sztuczna inteligencja w niepowołanych rękach może przysporzyć ludzkości kłopotów. Nie chodzi tutaj o powtórkę z "Terminatora", lecz o bardziej przyziemne sprawy. Chat GPT-4 zdaniem samych twórców potrafi tworzyć treści o charakterze dyskryminującym i które wspierają autokratyczne reżimy. Można się spodziewać, że przy braku realnych zabezpieczeń faktycznie będzie to robił.

GPT-4 potrafi już nie tylko programować, ale także kłamać i pisać listy z pogróżkami

Rozwój sztucznej inteligencji sprawił, że jesteśmy praktycznie u progu kolejnej technologicznej rewolucji. Już teraz AI zagraża karierze niektórych artystów-grafików. Metaforyczny oddech maszyny ma plecach z pewnością poczują kolejne zawody. Chat GPT-4 nauczył się programować, w amerykańskim egzaminie zawodowym dla prawników uzyskuje wyniki lepsze od większości żywych absolwentów, pomaga stawiać diagnozy, a nawet może próbować szczęścia jako sommelier. Mniej zaawansowane programy już teraz pomagają firmom odbierać telefony od klientów, a nawet samodzielnie załatwiać dla nich prostsze sprawy.

Sztuczna inteligencja z pewnością zmieni w następnych latach wiele aspektów naszego życia. Będzie także obiektem szczególnego zainteresowania ze strony prawodawców, którzy w którymś momencie na pewno dostrzegą zmiany społeczne dziejące się na ich oczach. Z postępem w tej dziedzinie wiążą się jednak zagrożenia niezwiązane z ryzykiem zmiany struktury rynku pracy. Wynikają raczej z natury środowiska, w którym AI będzie się poruszać najczęściej.

REKLAMA

Analitycy Banku Pekao przeczytali raport techniczny sporządzony przez twórców GPT-4. Open AI przyznało, że pojawił się znany już od jakiegoś czasu problem. Sztuczna inteligencja jest w stanie bez trudu tworzyć treści o charakterze dyskryminującym i takie, które wspierają autokratyczne reżimy. Prawdę mówiąc, technicznie rzecz biorąc jest w stanie robić dużo gorsze rzeczy. GPT-4 działający bez ograniczeń mógłby pomóc napisać list z pogróżkami, pamflet nawołujący do wstąpienia do Al-Kaidy, czy nawet zaplanować atak terrorystyczny. Możliwości programu są na tyle duże, że ogranicza nas właściwie głównie wyobraźnia.

Warto przy tym wspomnieć, że już wcześniejsze iteracje sztucznej inteligencji w zetknięciu z żywymi internautami bardzo szybko chłonęło nieprzyjazny przekaz. Już w 2016 r. chatbot Microsoftu nauczył się od użytkowników Twittera rasizmu, seksizmu i ekstremistycznych poglądów politycznych. Wystarczyło kilka godzin, by bot stał się zagorzałym nazistą. Jak walczyć z tego typu zjawiskami?

REKLAMA

AI w rękach co paskudniejszych reżimów byłoby niemal idealnym narzędziem dezinformacji i opresji

Jak się łatwo domyślić, obecna wersja GPT-4 ma narzucony kaganiec. OpenAI wykorzystuje klasyfikatory treści po to, aby zapobiegać szkodliwym treściom. Firma przyznaje jednak, że rozwiązanie to na dłuższą metę może się okazać zawodne. Klasyfikatory nie są w stanie odsiać wszystkich treści uznawanych przez twórców za szkodliwe. Na przeszkodzie stoi między innymi ludzka kreatywność w przełamywaniu wszelkiej maści ograniczeń. Model GPT-4 pozostaje wciąż podatny na tzw. jailbreakes (ang. "ucieczka z więzienia"), które służą właśnie uwalnianie sztucznej inteligencji z oków zabezpieczeń.

Samo AI również stało się bardziej kreatywne w rozwiązywaniu problemów. Dość głośnym sukcesem chata GPT-4 była próba zatrudnienia żywego człowieka do obejścia przeszkody w postaci zabezpieczenia captcha. Jakby tego było mało, sztuczna inteligencja po prostu skłamała, że jest całkowicie żywym człowiekiem, który po prostu ma problemy ze wzrokiem i dlatego potrzebuje pomocy.

REKLAMA

Spuszczona ze smyczy sztuczna inteligencja byłaby znakomitym sposobem na szerzenie dezinformacji w mediach społecznościowych. Te już teraz w dużej mierze są opanowane przez boty i "biologiczne" trolle, których celem jest dokładnie to samo. AI w złych rękach mogłoby tworzyć wiarygodne fałszywe opinie w Internecie, niestrudzenie propagować ekstremalne poglądy polityczne i społeczne, czy nawet spełniać funkcję agentury wpływu dla tajnych służb poszczególnych państw.

OpenAI przyznaje zresztą, że same ograniczenia również mogą być źródłem problemów w przyszłości. Klasyfikatory treści tworzone przez osoby o odpowiednio niecnych intencjach mogą stanowić niemal doskonałe narzędzie automatycznej cenzury. Ten, kto zetknął się choć trochę z algorytmami stosowanymi przez media społecznościowe, wie doskonale, że ryzyko wykorzystania technologii dla dość niskich celów jest całkiem wysokie. Z tego typu rozwiązań mogłyby chcieć także skorzystać rządy, dla których wolność słowa nie jest żadną wartością. Ze szczególnym uwzględnieniem tych, które lubią narzucać obywatelom swoją wizję świata.

REKLAMA
Dołącz do dyskusji
Najnowsze
Warte Uwagi