1. Home -
  2. Praca -
  3. AI ocenia, czy uważasz na spotkaniu. Unia Europejska mówi: to nielegalne

AI ocenia, czy uważasz na spotkaniu. Unia Europejska mówi: to nielegalne

Zdalne spotkanie, można popracować w domowym zaciszu, w spokoju… No właśnie, w spokoju. Ale jak można być spokojnym, kiedy w obecnym świecie powstają kolejne narzędzia AI, które niekoniecznie są skoncentrowane na ułatwieniu nam pracy, a nadzorowaniu naszej pracy? Brzmi jak science fiction, ale mam dla was dobrą wiadomość – mieszkamy w Unii Europejskiej.

Jakub Bilski23.03.2026 11:21
Praca

Jak AI analizuje twarz podczas spotkania online

Siedzimy na spotkaniu, a „gdzieś" po drugiej stronie program nakłada na obraz z naszej kamery zarys kilkudziesięciu kluczowych punktów na naszej twarzy – obrys brwi, oczu, kąciki ust, linia żuchwy, czoło. Odpowiednia interpretacja takich kilkudziesięciu punktów na twarzy potrafi nam dać informację nt. mniej lub bardziej złożonych ekspresji. Bez problemów wykryje uśmiech lub jego brak, otwarte lub zamknięte oczy. Z łatwością oszacuje, czy patrzymy w ekran, czy nasza głowa jest skierowana do kamery.

Na podstawie tego może też aproksymować stopień naszego zaangażowania, skupienia podczas spotkania. Takie możliwości daje nam gałąź sztucznej inteligencji, jaką jest widzenie komputerowe (Computer Vision – CV). Jest z nią jednak jeden, konkretny problem. To nadal obliczenia, wręcz pomiar ekspresyjności twarzy. W bardzo łatwy sposób osoba skupiona, spokojna, może dostać niski wynik. Z kolei osoba ożywiona, ale myśląca o czymś innym – wysoki.

Mimika to nie emocje – co mówi nauka

Zresztą w badaniu Emotional Expressions Reconsired z książki Psychological Science in the Public Interest z 2019 roku, stwierdzono, że ta sama konfiguracja mimiczna może oznaczać różne emocje – i odwrotnie. Systemy oparte na samej wizji twarzy nie są w stanie w każdym przypadku poprawnie odczytać emocji. One mierzą ruchy mięśni, a nie to, co dzieje się w naszej głowie. Temat wspomagania się AI w pracy budzi coraz więcej kontrowersji – i nie chodzi tu tylko o pisanie maili przez ChatGPT, ale właśnie o takie systemy nadzoru.

Dlaczego taki system może być wysokiego ryzyka albo wręcz zakazany

Słynny już zbiór przepisów dot. działania sztucznej inteligencji na terenie Unii Europejskiej, czyli AI Act, jest cały czas wdrażany. Nadal nie wszystkie przepisy weszły w życie, wszystko pojawia się stopniowo. Jednak jednym z fundamentów AI Act jest podział narzędzi AI na cztery kategorie ryzyka: minimalne ryzyko (filtry spamu, AI w grach), ograniczone ryzyko (chatboty), wysokie ryzyko (procesy rekrutacyjne, edukacja, infrastruktura krytyczna, ocena pracowników) oraz niedopuszczalne ryzyko (manipulacja zachowaniem, social scoring, niektóre zastosowania biometrii). I teraz pytanie, czy prawo unijne klasyfikuje taki system jako zakazany czy o wysokim ryzyku?

AI Act zabrania rozpoznawania emocji w pracy

Z jednej strony ocena pracowników, czyli dozwolone, ale przecież przy użyciu naszej twarzy, „obliczonych" emocji, czyli biometrii, więc możliwe, że zakazane. Na szczęście, AI Act staje po naszej stronie. W Art. 5 czytamy, że wśród zakazanych praktyk w zakresie AI jest m. in. „wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa".

Kary za złamanie zakazu – nawet 35 mln euro

Kara za złamanie tego zakazu może sięgnąć 35 milionów euro lub 7% globalnego rocznego obrotu firmy – w zależności od tego, która kwota jest wyższa. Dla porównania: kary za nieprzestrzeganie RODO wynoszą do 4% obrotu, a i tak potrafią być dotkliwe.

RODO i Kodeks pracy zabezpieczają nas dodatkowo

Wiemy już, że ocenianie naszego zaangażowania podczas spotkania na Teamsie zdecydowanie względem medycznym ani bezpieczeństwa nie jest. W ramach AI Act to zatem nie przejdzie. Chciałbym jeszcze zerknąć na to, jak zabezpieczają nas pozostałe zapisy prawne.

RODO traktuje analizę układu punktów na twarzy jako dane biometryczne – czyli kategorię, których przetwarzanie jest co do zasady zakazane. Warto wiedzieć, że ewidencja czasu pracy przy użyciu danych biometrycznych pracownika też budzi poważne wątpliwości prawne. Pracodawca mógłby próbować co prawda uzyskać zgodę pracownika, ale Europejska Rada Ochrony Danych stwierdziła kiedyś, że wyrażane przez pracownika zdanie jest w pełni dobrowolne tylko wtedy, gdy nie ryzykuje on konsekwencji zawodowych. Czy jest tak i w tej sytuacji? No śmiem wątpić.

Monitoring wizyjny w Kodeksie pracy ma ścisłe ramy

Polski Kodeks pracy dopuszcza co prawda monitoring wizyjny, ale tylko w ściśle określonych celach: bezpieczeństwo, ochrona mienia, kontrola produkcji, ochrona tajemnic firmy. Nie ma w tym zestawie oceny zaangażowania pracownika. To ważne rozróżnienie, bo monitorowanie pracowników ma swoje granice, a skanowanie twarzy AI zdecydowanie je przekracza. Szeroko pojęta prywatność pracownika jest chroniona nie tylko przez RODO, ale również przez przepisy krajowe.

Co zrobić, gdy pracodawca stosuje AI do oceny emocji

Jeśli podejrzewamy zatem, że nasz pracodawca stosuje w pracy taki napędzany AI system, mamy kilka konkretnych ścieżek. UODO, Państwowa Inspekcja Pracy oraz prawo do ochrony dóbr osobistych przed sądem cywilnym.

Obserwuj nas w Google Discover
Google Discover
Podobają Ci się nasze treści?
Google Discover
Dołącz do dyskusji
Najnowsze
Warte Uwagi