Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji, który ma uporządkować dynamicznie rozwijający się rynek AI w Polsce i dostosować krajowe przepisy do unijnego AI Act. To jeden z pierwszych tak kompleksowych kroków legislacyjnych w Europie, łączący ambicję regulacyjną z próbą utrzymania konkurencyjności gospodarki.
Sztuczna inteligencja przestała być tematem przyszłości. Stała się narzędziem teraźniejszości, obecnym w pracy, usługach i administracji. Wraz z jej upowszechnieniem rośnie jednak coś jeszcze: świadomość, że technologia, która zwiększa efektywność, równie łatwo może generować nowe ryzyka.
Regulacja wymuszona przez tempo zmian
Unia Europejska odpowiedziała na to poprzez AI Act, czyli pierwsze kompleksowe ramy prawne dla sztucznej inteligencji. Polska ustawa jest próbą przełożenia tych zasad na krajowy grunt. To ruch racjonalny, choć niepozbawiony napięć.
Centralnym elementem projektu jest powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. To ona ma nadzorować rynek systemów AI, analizować rozwiązania wysokiego ryzyka i rozpatrywać zgłoszenia naruszeń.
W teorii brzmi to jak uporządkowany system kontroli. W praktyce będzie to jeden z pierwszych testów, czy państwo potrafi nadążyć za technologią, która zmienia się szybciej niż proces legislacyjny.
Nie chodzi wyłącznie o kompetencje, ale o tempo działania i zdolność rozumienia realnych zastosowań AI. Bez tego nawet najlepiej zaprojektowany organ może stać się wąskim gardłem zamiast wsparciem dla rynku.
Kary jako element systemu
Znaczące kompetencje otrzyma Prezes Urzędu Ochrony Danych Osobowych, który będzie nadzorował systemy wysokiego ryzyka, szczególnie w obszarach takich jak bezpieczeństwo publiczne czy wymiar sprawiedliwości.
To naturalne rozszerzenie roli instytucji, która już dziś stoi na straży danych. Jednocześnie oznacza to wejście w obszar, gdzie dane to tylko jeden z elementów, a decyzje podejmowane przez systemy AI mają często realne konsekwencje społeczne.
Projekt przewiduje wprowadzenie kar za naruszenie przepisów oraz uproszczony model postępowań, z możliwością odwołania do Sądu Ochrony Konkurencji i Konsumentów.
To sygnał, że regulacja nie ma być wyłącznie deklaratywna. Jednocześnie pojawia się pytanie, czy szybkość działania nie odbędzie się kosztem jakości rozstrzygnięć. W świecie technologii decyzje administracyjne rzadko są czarno-białe.
Między ochroną a rozwojem
Premier Donald Tusk podkreślił, że celem ustawy jest ochrona obywateli, ale bez hamowania innowacji. Polska ma być krajem przyjaznym dla AI, ale i chronić ludzi.
To zdanie dobrze oddaje sedno problemu. Regulowanie AI nie polega dziś na wyborze między wolnością a kontrolą, lecz na znalezieniu punktu równowagi, który nie będzie przesuwał się zbyt gwałtownie w żadną ze stron.
Zbyt sztywne przepisy mogą sprawić, że innowacje będą rozwijane poza Polską. Zbyt luźne podejście zwiększy ryzyko nadużyć, które prędzej czy później wrócą do regulatora ze zdwojoną siłą.
Przyjęcie ustawy to wyraźny sygnał, że państwo chce uczestniczyć w kształtowaniu rynku AI, a nie jedynie reagować na jego skutki. To ważna zmiana podejścia, choć sama regulacja nie rozwiązuje problemów.
Ostateczny efekt będzie zależał od wdrożenia. Od tego, czy instytucje będą działać sprawnie, czy decyzje będą przewidywalne, a dialog z rynkiem rzeczywisty, a nie formalny.
Bo w przypadku sztucznej inteligencji prawo nie jest już tylko ramą. Staje się jednym z elementów systemu, który wpływa na to, jak szybko i w jakim kierunku rozwija się technologia.
Co dalej?
Projekt trafi teraz do parlamentu, gdzie rozpocznie się kolejny etap prac. To moment, w którym ogólne założenia zderzą się z konkretnymi interesami i praktyką rynku.
Dla firm technologicznych kluczowe będzie jedno: czy nowe przepisy okażą się przewidywalne i funkcjonalne. Dla państwa pytanie jest szersze i bardziej wymagające.
Jak regulować coś, co nieustannie zmienia własne reguły działania?


