AI ocenia, czy uważasz na spotkaniu. Unia Europejska mówi: to nielegalne
Zdalne spotkanie, można popracować w domowym zaciszu, w spokoju… No właśnie, w spokoju. Ale jak można być spokojnym, kiedy w obecnym świecie powstają kolejne narzędzia AI, które niekoniecznie są skoncentrowane na ułatwieniu nam pracy, a nadzorowaniu naszej pracy? Brzmi jak science fiction, ale mam dla was dobrą wiadomość – mieszkamy w Unii Europejskiej.

Jak AI analizuje twarz podczas spotkania online
Siedzimy na spotkaniu, a „gdzieś" po drugiej stronie program nakłada na obraz z naszej kamery zarys kilkudziesięciu kluczowych punktów na naszej twarzy – obrys brwi, oczu, kąciki ust, linia żuchwy, czoło. Odpowiednia interpretacja takich kilkudziesięciu punktów na twarzy potrafi nam dać informację nt. mniej lub bardziej złożonych ekspresji. Bez problemów wykryje uśmiech lub jego brak, otwarte lub zamknięte oczy. Z łatwością oszacuje, czy patrzymy w ekran, czy nasza głowa jest skierowana do kamery.
Na podstawie tego może też aproksymować stopień naszego zaangażowania, skupienia podczas spotkania. Takie możliwości daje nam gałąź sztucznej inteligencji, jaką jest widzenie komputerowe (Computer Vision – CV). Jest z nią jednak jeden, konkretny problem. To nadal obliczenia, wręcz pomiar ekspresyjności twarzy. W bardzo łatwy sposób osoba skupiona, spokojna, może dostać niski wynik. Z kolei osoba ożywiona, ale myśląca o czymś innym – wysoki.
Mimika to nie emocje – co mówi nauka
Zresztą w badaniu Emotional Expressions Reconsired z książki Psychological Science in the Public Interest z 2019 roku, stwierdzono, że ta sama konfiguracja mimiczna może oznaczać różne emocje – i odwrotnie. Systemy oparte na samej wizji twarzy nie są w stanie w każdym przypadku poprawnie odczytać emocji. One mierzą ruchy mięśni, a nie to, co dzieje się w naszej głowie. Temat wspomagania się AI w pracy budzi coraz więcej kontrowersji – i nie chodzi tu tylko o pisanie maili przez ChatGPT, ale właśnie o takie systemy nadzoru.
Dlaczego taki system może być wysokiego ryzyka albo wręcz zakazany
Słynny już zbiór przepisów dot. działania sztucznej inteligencji na terenie Unii Europejskiej, czyli AI Act, jest cały czas wdrażany. Nadal nie wszystkie przepisy weszły w życie, wszystko pojawia się stopniowo. Jednak jednym z fundamentów AI Act jest podział narzędzi AI na cztery kategorie ryzyka: minimalne ryzyko (filtry spamu, AI w grach), ograniczone ryzyko (chatboty), wysokie ryzyko (procesy rekrutacyjne, edukacja, infrastruktura krytyczna, ocena pracowników) oraz niedopuszczalne ryzyko (manipulacja zachowaniem, social scoring, niektóre zastosowania biometrii). I teraz pytanie, czy prawo unijne klasyfikuje taki system jako zakazany czy o wysokim ryzyku?
AI Act zabrania rozpoznawania emocji w pracy
Z jednej strony ocena pracowników, czyli dozwolone, ale przecież przy użyciu naszej twarzy, „obliczonych" emocji, czyli biometrii, więc możliwe, że zakazane. Na szczęście, AI Act staje po naszej stronie. W Art. 5 czytamy, że wśród zakazanych praktyk w zakresie AI jest m. in. „wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa".
Kary za złamanie zakazu – nawet 35 mln euro
Kara za złamanie tego zakazu może sięgnąć 35 milionów euro lub 7% globalnego rocznego obrotu firmy – w zależności od tego, która kwota jest wyższa. Dla porównania: kary za nieprzestrzeganie RODO wynoszą do 4% obrotu, a i tak potrafią być dotkliwe.
RODO i Kodeks pracy zabezpieczają nas dodatkowo
Wiemy już, że ocenianie naszego zaangażowania podczas spotkania na Teamsie zdecydowanie względem medycznym ani bezpieczeństwa nie jest. W ramach AI Act to zatem nie przejdzie. Chciałbym jeszcze zerknąć na to, jak zabezpieczają nas pozostałe zapisy prawne.
RODO traktuje analizę układu punktów na twarzy jako dane biometryczne – czyli kategorię, których przetwarzanie jest co do zasady zakazane. Warto wiedzieć, że ewidencja czasu pracy przy użyciu danych biometrycznych pracownika też budzi poważne wątpliwości prawne. Pracodawca mógłby próbować co prawda uzyskać zgodę pracownika, ale Europejska Rada Ochrony Danych stwierdziła kiedyś, że wyrażane przez pracownika zdanie jest w pełni dobrowolne tylko wtedy, gdy nie ryzykuje on konsekwencji zawodowych. Czy jest tak i w tej sytuacji? No śmiem wątpić.
Monitoring wizyjny w Kodeksie pracy ma ścisłe ramy
Polski Kodeks pracy dopuszcza co prawda monitoring wizyjny, ale tylko w ściśle określonych celach: bezpieczeństwo, ochrona mienia, kontrola produkcji, ochrona tajemnic firmy. Nie ma w tym zestawie oceny zaangażowania pracownika. To ważne rozróżnienie, bo monitorowanie pracowników ma swoje granice, a skanowanie twarzy AI zdecydowanie je przekracza. Szeroko pojęta prywatność pracownika jest chroniona nie tylko przez RODO, ale również przez przepisy krajowe.
Co zrobić, gdy pracodawca stosuje AI do oceny emocji
Jeśli podejrzewamy zatem, że nasz pracodawca stosuje w pracy taki napędzany AI system, mamy kilka konkretnych ścieżek. UODO, Państwowa Inspekcja Pracy oraz prawo do ochrony dóbr osobistych przed sądem cywilnym.
23.03.2026 12:04, Aleksandra Smusz
23.03.2026 11:21, Jakub Bilski
23.03.2026 10:12, Jerzy Wilczek
23.03.2026 9:30, Mariusz Lewandowski
23.03.2026 9:07, Mariusz Lewandowski
23.03.2026 8:25, Mariusz Lewandowski

2000 euro rocznie za bycie katoliczką — zrezygnowała i straciła wszystko. Ale Trybunał stanął po jej stronie
23.03.2026 7:43, Mariusz Lewandowski
23.03.2026 7:03, Mariusz Lewandowski

Ty dajesz monterowi swój podpis na tablecie. Play wybiera sobie, na jaką i jak drogą umowę go nałoży
22.03.2026 19:58, Jerzy Wilczek
22.03.2026 19:16, Rafał Chabasiński
22.03.2026 14:30, Aleksandra Smusz
22.03.2026 12:11, Rafał Chabasiński
22.03.2026 11:05, Aleksandra Smusz
22.03.2026 9:45, Mateusz Krakowski
22.03.2026 8:45, Mariusz Lewandowski

Podwyżka 9 proc. od kwietnia to medialna ściema. Dotyczy tylko niektórych i nie chcecie być na ich miejscu
22.03.2026 7:54, Mariusz Lewandowski
22.03.2026 7:27, Mariusz Lewandowski
21.03.2026 20:41, Mariusz Lewandowski
21.03.2026 14:10, Marcin Szermański
21.03.2026 12:27, Marcin Szermański
21.03.2026 11:36, Mariusz Lewandowski
21.03.2026 10:43, Piotr Janus

Student po trzecim roku będzie czytać twoje akta sądowe. To nie jest rozwiązanie problemu - to nowy problem
21.03.2026 9:34, Igor Czabaj
21.03.2026 8:16, Marcin Szermański

























