W sierpniu 2025 roku zaczęły obowiązywać kolejne przepisy Rozporządzenia o Sztucznej Inteligencji (AI Act). To krok na drodze do tworzenia odpowiedzialnych rozwiązania wykorzystujących AI, które spełniają odpowiednie wymogi prawne obowiązujące w Europie. Rozwój AI jest szybki, ale nie może być niekontrolowany.
AI Act to unijne rozporządzenie w sprawie sztucznej inteligencji. Regulacja ma na celu rozwój sztucznej inteligencji, ale w sposób odpowiedzialny, a także w zgodzie z europejskimi wartościami. Przepisy AI Act nakładają wymogi na dostawców narzędzi AI, a także zobowiązują państwa członkowskie do stworzenia krajowych ram prawnych do wykorzystywania tych narzędzi.

Stopniowe wprowadzanie rozwiązań prawnych dla AI
Dzięki AI Act wykorzystywanie sztucznej inteligencji w UE ma być:
– bezpieczne;
– przejrzyste;
– niedyskryminujące;
– zgodne z prawami człowieka;
– zgodne z demokratycznymi rządami prawa.
Nie wszystkie zapisy AI Act wprowadzane są jednocześnie
W lutym 2025 roku weszły w życie przepisy zakazujące stosowania w całej Unii szczególnie niebezpiecznych systemów AI. W sierpniu 2025 r. natomiast zaczęły obowiązywać te dotyczące nadzoru nad sztuczną inteligencją.
Obowiązują nowe regulacje
Wprowadzane regulacje koncentrują się na kilku obszarach. Określają one obowiązki dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (tzw. GPAI – General-Purpose AI). Wprowadzają zasady zarządzania na poziomie unijnym czy ustanawiają system sankcji i kar administracyjnych w przypadku braku przestrzegania przepisów.
Komisja Europejska opublikowała Kodeks postępowania w zakresie modeli ogólnego przeznaczenia. Jest to narzędzie wspomagające branżę w spełnianiu nowych obowiązków.

Obowiązujące od sierpnia 2025 r. przepisy to chociażby:
– rozdział III sekcja 4 – przepisy dotyczy organów notyfikujących i jednostek notyfikowanych, zawiera zarówno wymagania, jak i obowiązki na nie nakładane oraz przepisy dotyczące procedury notyfikacyjnej;
– rozdział V – przepis nakładający obowiązki na dostawców modeli sztucznej inteligencji ogólnego przeznaczenia, obowiązki te dotyczą transparentności oraz ochrony danych czy zachowania bezpieczeństwa;
– rozdział VII – przepis ustanawia ramy zarządzania sztuczną inteligencją na poziomie Unii Europejskiej – dotyczy to wszystkich państwa członkowskich, wprowadzone zostają struktury administracyjne odpowiedzialne za nadzór i wdrażanie przepisów AI Act;
– artykuł 78 – zawierający regulacje dotyczące tego w jaki sposób organy odpowiedzialne za nadzór, jednostki notyfikowane oraz osoby fizyczne lub prawne powinny obchodzić się z uzyskiwanymi informacjami;
– rozdział XII – reguluje kwestie sankcji za naruszenia AI Act, w tym szczegółowe mechanizmy nakładania kar administracyjnych za nieprzestrzeganie przepisów, jego wejście w życie następuje z wyłączeniem artykułu 101.
Do przepisów UE należy dostosować prawo krajowe
Wejście w życie nowych przepisów nakłada na państwa członkowie UE obowiązku stworzenia krajowych ram prawnych umożliwiających skuteczne stosowania AI Act. Wiele państwa jeszcze się z tego nie wywiązało.
W Polsce trwają obecnie prace nad projektem ustawy o systemach sztucznej inteligencji
Został on pozytywnie rozpatrzony przez Komitet do Spraw Europejskich.
Projekt ma na celu ustanowienie struktur organizacyjnych i mechanizmów niezbędnych do funkcjonowania nowego systemu regulacji AI. Powołany zostanie nowy organ nadzoru – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organem notyfikujący zostanie Minister Cyfryzacji .
Zgodnie z projektem pojawi się wsparcie dla innowacji technologicznych, czyli np. finansowanie badań naukowych oraz projektów rozwojowych w zakresie AI.
Pojawić ma się tzw. piaskownica regulacyjna. Będą to kontrolowane środowiska testowe, w których możliwe będzie eksperymentowanie z nowymi rozwiązaniami technologicznymi bez ryzyka naruszenia prawa.
Źródło: gov.pl
Czytaj także: