Przyrównanie osób czarnoskórych do małp jest niewątpliwie przejawem rasizmu, którego — jak niegdyś Google — dopuścił się Facebook. Oczywiście nieświadomie, bo niepożądany efekt związany jest z nie do końca odpowiednim działaniem sztucznej inteligencji. Co na to prawo?
Rasizm a sztuczna inteligencja
Facebook odnotował — delikatnie mówiąc — wpadkę z dyskryminacją rasową w tle. Jak donosi „NY Times”, pod jednym z nagrań opublikowanych na Facebooku przez „Daily Mail”, przedstawiających walkę osób czarnoskórych z policjantami, system wyświetlił komunikat
Czy chcesz nadal oglądać filmy o naczelnych (primates)?
Facebook szybko przeprosił i nazwał sytuację „niedopuszczalną”. Społecznościowy gigant obiecał ponadto, że przyjrzy się działaniu sztucznej inteligencji, która automatycznie taguje materiały wideo, aby podobne zdarzenie nigdy się nie powtórzyło.
Jest to drugi tego rodzaju — w tym sensie, że dosyć medialny — przypadek w historii. Pierwszy miał miejsce w odniesieniu do funkcjonowania platformy Google Photos. Kilka lat temu czarnoskóry mężczyzna, Jacky Alcine, opublikował na Twitterze zrzut ekranu z galerii zdjęć Google Photos, w której fotografie jego oraz jego przyjaciółki oznaczono jako „goryle”.
Wówczas reakcja Google’a także była błyskawiczna, a także od razu przystąpiono do wprowadzenia zmian w algorytmach po to, by do podobnych sytuacji nie dochodziło w przyszłości. Czy powyższe sytuacje są błahe?
Bynajmniej — i to z wielu względów. Tematyka negatywnych skutków związanych z nieodpowiednią działalnością systemów rozpoznawania twarzy opartych o sztuczną inteligencję nie odnosi się jedynie do swego rodzaju „poniżenia” za pomocą błędnego otagowania zdjęcia. Warto w tym miejscu wspomnieć m.in. przypadek niesłusznych aresztowań, które miały miejsce w Detroit.
Niedyskryminacja w świetle SI to wyzwanie przyszłości
W ujęciu globalnym brakuje regulacji — w pozytywistycznym, tradycyjnym znaczeniu — dotyczących przeciwdziałania rasizmowi, a nawet odpowiedzialności za niepożądane skutki działania SI. Można wprawdzie wyłuskać pewne fundamentalne prawa zawiadujące rozwojem sztucznej inteligencji (m.in. Asilomar, czy zaproponowane przez Google), w których w mniej lub bardziej oczywisty sposób pojawia się postulat niedyskryminacji.
Wyjątkowo sprawnie działa legislacja unijna (jeszcze na poziomie soft law, czyli miękkiego prawa). Między innymi w Białej Księdze dotyczącej SI (ale nie tylko) pojawia się zasada niedyskryminacji jako jedna z tych fundamentalnych — i to zarówno w zakresie tworzenia oraz rozwoju SI (niedyskryminacja w zakresie zespołów badawczych/twórczych), jak i jej wykorzystania.
Problem oczywiście stanowi odpowiedzialność. Tutaj koncepcje są różne (odsyłam do coraz częściej poruszanej problematyki odpowiedzialności cywilnej za szkody wywołane przez ruch pojazdów autonomicznych), które przerzucają ciężar odpowiedzialności za administratora sztucznej inteligencji (w rzeczonym przypadku na Facebooka), ale i czasem na twórcę.
Jakkolwiek opisywane w pierwszym akapicie historie nie wydawałyby się błahe (choć w mojej ocenie takie nie są), problematyka rasizmu związanego ze sztuczną inteligencją to wyzwanie przyszłości. Może w niewielkim stopniu dzisiaj, gdy chodzi o tagowanie zdjęć, ale w dalekiej perspektywie — wiązać się może nawet z istnieniem lub nieistnieniem praw jednostki. Stąd konieczność wymuszania na twórcach i osobach wykorzystujących SI, by stosowały się one bezwzględnie do fundamentów rozwoju tej technologii.