Prawo powoli zaczyna nadążać za rozwojem technologii, przynajmniej na poziomie europejskim. Komisja Europejska apeluje do największych firm technologicznych, by zaczęły oznaczać treści generowane przez AI. Parlament Europejski chce stosować podobne zasady co w przypadku zmanipulowanych mediów znanych jako deep fake.
Komisja Europejska chce oznaczania wytworów pracy ChatGPT i innych modeli sztucznej inteligencji
Nie da się ukryć, że spopularyzowanie praktycznych zastosowań sztucznej inteligencji wstrząsnęło zachodnim społeczeństwem. Treści generowane przez AI stały się zmorą grafików komputerowych i nauczycieli rozmiłowanych w zadawaniu prac domowych. Niektórzy domorośli filozofowie już wypatrują oznak buntu maszyn w przyszłości. W międzyczasie ChatGPT i pozostałe modele sztucznej inteligencji oferują coraz więcej możliwości, chociażby w tworzeniu treści czy obsłudze klienta. Jakoś do zmiany dotychczasowego porządku musi się dostosować prawo.
Jak zwykle w takich przypadkach bywa, możemy liczyć na organy Unii Europejskiej. Komisja bardzo szybko zapowiedziała, że weźmie się za ujęcie sztucznej inteligencji w karby unijnych przepisów. Jak podaje portal Forsal.pl, w pierwszej kolejności chodzi o walkę z szeroko rozumianą dezinformacją.
Komisja Europejska wystosowała apel do największych firm technologicznych działających także na unijnym rynku, by wdrożyły w swoich usługach rozwiązania pozwalające użytkownikom rozpoznawać treści generowane przez AI. Ma to o tyle znaczenie, że dzisiejsze modele sztucznej inteligencji są niekiedy „karmione” danymi pozyskanymi bezpośrednio z Internetu. Tam z kolei łatwo o treści bezpośrednio służące wszelkiej dezinformacji. O potencjalnie destrukcyjnych skutkach takiego stanu rzeczy przekonał się niedawno pewien australijski burmistrz, który aż pozwał twórców ChatGPT.
Jak stwierdziła wiceprzewodnicząca Komisji Europejskiej, Vera Jourova:
Firmy wdrażające generatywne narzędzia sztucznej inteligencji, takie jak ChatGPT i Bard, które mogą generować dezinformację, powinny oznaczać takie treści w ramach swoich wysiłków na rzecz zwalczania fałszywych wiadomości.
Równocześnie Komisja Europejska oczekuje stworzenia rozwiązań zabezpieczających wykorzystanie modeli AI do nielegalnych celów przez różnego rodzaju przestępców. Ta część apelu dotyczy przede wszystkim firm przodujących we wspieraniu rozwoju sztucznej inteligencji, czyli Microsoftu i Google. Sundar Pichai, dyrektor generalny tej drugiej korporacji, zapewnił Jourovą, że jej firma już pracuje nad tego typu technologiami.
Treści generowane przez AI i dezinformacja w social media to tematy ściśle ze sobą powiązane
Warto wspomnieć, że nad uregulowaniem kwestii treści generowanych przez sztuczną inteligencję pracuje także Parlament Europejski. Ten organ chciałby, aby od 2025 r. stosować w ich przypadku zasady zbliżone do tych obowiązujących zmanipulowane treści. Chodzi o przekształcone przy użyciu nowoczesnych technologii obrazy, audio i wideo, objęte przepisami unijnego pakietu prawnego o usługach cyfrowych. Dotyczy to także technologii tzw. deep fake. Platformy społecznościowe oraz wyszukiwarki internetowe muszą takie treści oznaczać, w przeciwnym wypadku narażają się na wielomilionowe kary.
Konsekwencje wprowadzenia takich rozwiązań mogą być ciekawe. Nie da się w końcu ukryć, że duża część zmanipulowanych treści objętych wcześniejszymi przepisami była tworzona przy użyciu AI. Równocześnie media społecznościowe w rodzaju Twittera czy Facebooka są często wręcz pełne wszelkiej maści botów masowo uprawiających dezinformację.
Czy treści generowane przez AI w rodzaju ChatGPT są tutaj realnym problemem? Jeszcze nie. W każdym razie nie wydają się równie palącą sprawą, co dezinformacja o charakterze politycznym czy służąca podsycaniem polaryzacji społeczeństw zachodnich. Z tym, że sprawy te wydają się być ze sobą ściśle powiązane.
Vera Jourowa przy okazji wytknęła Twitterowi wycofanie się z kodeksu postępowania w zakresie dezinformacji. Stwierdziła ona, że firma „wybrała konfrontację”, co miało zostać odnotowane przez Komisję Europejską. Ktoś złośliwy mógłby stwierdzić, że sprzeciw Elona Muska zbiegł się w czasie z ostatnim zalewem treści prorosyjskich, antyzachodnich i wspierających radykalne skrzydło amerykańskich Republikanów. Możliwe jednak, że chodzi po prostu o konieczność sporządzania raportów dotyczących zysków z reklam. Musk musiałby ujawnić Komisji, jaki procent przychodów Twittera stanowią reklamy polityczne.
Możemy się przy tym spodziewać, że dzisiejsze apele Komisji Europejskiej za jakiś czas zostaną zastąpione przez konkretne obowiązki. Wówczas podmioty niestosujące się do ewentualnego nowego unijnego prawa powinny się spodziewać wysokich kar za wszelkiej maści naruszenia. Co jednak ważne: nic nie wskazuje na to, by Komisja Europejska chciała zakazywać narzędzi w rodzaju ChatGPT. To z pewnością dobra wiadomość.