AI pod lupą Brukseli
Nowe przepisy unijnego AI Act mają sprawić, że rozwój sztucznej inteligencji będzie bezpieczny, etyczny i zgodny z wartościami UE, czyli AI trafia pod lupę regulatorów, a gdy trzeba, także na smycz ograniczeń. Sierpniowe regulacje koncentrują się na transparentności, bezpieczeństwie i ochronie praw człowieka w kontekście najbardziej zaawansowanych systemów.
Największe zmiany dotkną twórców tzw. modeli ogólnego przeznaczenia, które napędzają chatboty czy generatory obrazów. Firmy muszą teraz ocenić wpływ swoich rozwiązań na prawa podstawowe człowieka i ujawniać streszczenia danych, na których uczyły się ich algorytmy. Komisja Europejska opublikowała nawet specjalny kodeks postępowania, aby ułatwić spełnianie tych obowiązków.
Istotne jest też wprowadzenie zasady pełnej przejrzystości. Użytkownicy powinni wiedzieć, kiedy rozmawiają z maszyną, a nie z człowiekiem. Systemy muszą być konstruowane tak, by minimalizować ryzyko szkód czy dyskryminacji. Dodatkowo w całej Unii i w państwach członkowskich powstają nowe instytucje nadzorcze, które będą czuwać nad przestrzeganiem prawa.
Sprawdź polecane oferty
RRSO 21,36%
Nie zabrakło także sankcji. Za lekceważenie zasad grożą wysokie kary administracyjne, liczone w milionach euro. Co więcej, przepisy precyzują, jak organy kontrolne mają obchodzić się z informacjami, mają chronić tajemnice biznesowe i wrażliwe dane. Całość składa się na największą jak dotąd próbę ujarzmienia sztucznej inteligencji w Europie. Bruksela nie ukrywa ambicji, by to właśnie UE wyznaczała globalne standardy etycznej i odpowiedzialnej AI.
Prace Ministerstwa Cyfryzacji
Skoro Unia nałożyła nowe obowiązki, to ich realizacja w dużej mierze będzie spoczywać na państwach członkowskich. Każdy kraj UE musi stworzyć krajowe ramy prawne, by AI Act faktycznie dało się stosować. Problem w tym, że wiele państw (w tym Polska) na razie nie ma jeszcze gotowych przepisów krajowych, które dostosowują lokalne prawo do wymogów AI Act. Mówiąc wprost to unijne rozporządzenie obowiązuje bezpośrednio, ale brakuje „szkieletu” instytucjonalno-prawnego na poziomie krajowym, który umożliwi jego skuteczne egzekwowanie. W Polsce do tej pory nie uchwalono dedykowanej ustawy wdrażającej AI Act, choć prace nad nią trwają od wielu miesięcy. Innymi słowy, regulacyjny maraton trwa, a meta wciąż jest daleko przed nami.
Trzeba jednak oddać, że przygotowania idą naprzód. Ministerstwo Cyfryzacji opracowało projekt ustawy o systemach sztucznej inteligencji (tzw. Ustawa AI), który jest już na etapie prac rządowych. Ten projekt zakłada stworzenie w Polsce całego ekosystemu do nadzorowania i wspierania AI. Co dokładnie przewiduje? Oto najważniejsze założenia krajowej ustawy:
- Nowy urząd ds. AI: powstanie Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, pełniąca rolę krajowego organu nadzoru nad AI. To ona ma stać na straży przestrzegania przepisów i reagować, gdy jakaś sztuczna inteligencja będzie broić (analogicznie do UODO w zakresie danych osobowych czy UKE w telekomunikacji),
- Krajowy organ notyfikujący: minister Cyfryzacji zostanie wyznaczony jako organ notyfikujący. W praktyce oznacza to, że to ministerstwo będzie zgłaszać Komisji Europejskiej te polskie jednostki certyfikujące, które będą uprawnione do sprawdzania zgodności systemów AI z wymogami prawa,
- Sandboxy regulacyjne: ustawa zakłada utworzenie tzw. piaskownic regulacyjnych, czyli bezpiecznych, kontrolowanych środowisk testowych, w których firmy i instytucje będą mogły eksperymentować z nowymi rozwiązaniami AI bez ryzyka złamania prawa. To ukłon w stronę innowatorów, by mogli rozwijać i próbować nowe pomysły, zanim poddadzą je surowym regulacjom na żywym rynku,
- Wsparcie innowacji i badań: projekt przewiduje również fundusze i programy wspierające prace badawczo-rozwojowe w dziedzinie AI. Jednym tchem z regulacjami wymienia się potrzebę napędzania rodzimej myśli technologicznej – bo cóż z tego, że obwarujemy AI przepisami, jeśli europejska (czy polska) sztuczna inteligencja nie będzie się rozwijać?
Co ważne, wraz z nową ustawą Polska zyska nie tylko narzędzia kontroli, ale i przestrzeń do rozwoju AI. W praktyce obok obowiązków i sankcji pojawi się też margines swobody dla naukowców i przedsiębiorców, by mogli tworzyć innowacje bez obaw o natychmiastowe konsekwencje prawne. To też próba wyważenia proporcji między bezpieczeństwem a rozwojem.
Niemniej, dopóki ustawa nie zostanie ostatecznie uchwalona, nad polskim sektorem AI unosi się spora niepewność. Firmy czekają na jasne wytyczne, a brak krajowych regulacji utrudnia przygotowania, ponieważ przedsiębiorcy nie są pewni, jakie dokładnie procedury wdrożyć, jaki urząd będzie ich nadzorował i jak zgłaszać swoje AI do oceny. Ministerstwo Cyfryzacji zapewnia jednak, że koordynuje wdrażanie unijnych regulacji, reprezentuje Polskę w rozmowach z Komisją Europejską i prowadzi działania edukacyjne, by wszyscy – administracja, biznes i obywatele – byli gotowi na nową erę AI.
Dokąd zaprowadzi nas AI Act?
AI Act to wciąż eksperyment na żywym organizmie, prawny poligon, na którym Unia sprawdza, czy innowacyjność da się pogodzić z surowymi regulacjami. Politycy dmuchają na zimne, pamiętając, że Internet czy media społecznościowe rozwijały się długo bez nadzoru, co dziś ocenia się jako błąd. Tym razem stawka jest wyższa, bo wszyscy dobrze zdajemy sobie sprawę jak wysoki potencjał i możliwości ma sztuczna inteligencja. Ryzyko jednak istnieje; zbyt restrykcyjne przepisy mogą przydusić rozwój i sprawić, że europejskie startupy zostaną w tyle za amerykańskimi czy azjatyckimi, którym daje się więcej swobody.
Sierpniowe regulacje to dopiero kolejna faza wdrażania AI Act. Już wiadomo, że w 2026 r. pojawią się nowe wymogi, uszczegółowione zasady transparentności i pełna operacyjność urzędów ds. AI. Prawdziwy sprawdzian nadejdzie jednak wtedy, gdy przepisy będą egzekwowane, gdy pierwsi dostawcy dostaną kary za łamanie prawa albo gdy państwa członkowskie nie zdążą z budową własnej infrastruktury nadzorczej.