TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Prezes UODO nie pozostawia wątpliwości: liczba skarg na nowe technologie rośnie i rosnąć będzie

Rośnie liczba skarg dotyczących wykorzystania nowych technologii. Użytkownicy zauważają związane z nimi zagrożenia dla prywatności. Sprawy są coraz bardziej skomplikowane i wymykają się przepisom prawnym zarówno krajowym, jak i unijnym. Urząd Ochrony Danych Osobowych wszystkim uważnie się przygląda i je analizuje. Pracy przybywa i nie wygląda, by miało się to zmienić.

Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas więcej skarg bardzo skomplikowanych, dotyczących zastosowania takich nowych technologii, które nawet nie do końca są rozpoznane, np. biometrii, szyfrowania, a więc innych zabezpieczeń związanych z ochroną danych osobowych. Tych wyzwań jest coraz więcej – mówi Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych.

Deepfake – duży problem dla UODO

Prezes UODO dodaje, że zgłaszane sprawy są coraz bardziej złożone. Czasem nawet wychodzą poza przepisy prawne i to zarówno krajowe, jak unijne.

Potrzebna jest wiedza techniczna i wzmacnianie zasobów Urzędu Ochrony Danych Osobowych, ponieważ te wyzwania już nie są wyłącznie prawne, ale też techniczne, technologiczne czy etyczne – zauważa Mirosław Wróblewski.

Przykładem są te naruszenia, które wykorzystują deepfake. Jak sprawa wykorzystania wizerunku uczennicy do wytworzenia wizerunku nagiej osoby, który następnie rozsyłany był w szkole i wśród znajomych.

Na początku czerwca 2025 roku Prezes UODO zawiadomił o sprawie policję. W jego ocenie postępowanie kolegów nie tylko drastycznie naruszyło prywatność 15-latki, ale też zagroziło naruszeniem jej elementarnych interesów życiowych w przyszłości.

Policja odmówiła jednak wszczęcia postępowania. Decyzję zatwierdziła prokuratura. Tłumaczono się tym, że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. W związku z brakiem interwencji Prezes UODO zgłosił do Prokuratora Generalnego. W końcu udało się doprowadzić do wszczęcia sprawy dopiero w styczniu 2026 r.

Jak pokazuje ta sprawa i czas, w którym podjęto działania, potrzebne są lepsze przepisy i mechanizmy chroniące wizerunek.

To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania. We Włoszech i Francji przyjęto rozwiązania, które mają na celu skuteczniejszą ochronę naszego wizerunku i walkę z technologiami, które wykorzystywane w niewłaściwy sposób mogą krzywdzić ludzi. Takie rozwiązania prawne potrzebne są także w Polsce – podkreśla Prezes UODO.

We Włoszech wprowadzono prawo definiujące przestępstwo polegające na nielegalnym rozpowszechnianiu sfałszowanych lub zmodyfikowanych treści cyfrowych wygenerowanych z wykorzystaniem sztucznej inteligencji. Została określona również odpowiedzialność cywilna i karna za takie nadużycia.

Według UODO szansą na zmianę sytuacji w Polsce jest ponowne podjęcie prac nad przepisami mającymi wdrożyć unijny Akt o usługach cyfrowych (DSA).

Konieczne jest wdrożenia rozwiązań, które systemowo uregulują kwestie związane z przeciwdziałaniem i ochroną obywateli przed negatywnymi skutkami technologii wykorzystującej wszelkie rozwiązania AI.

Komisja Europejska kontra Grok

Tutaj warto podkreślić działania Komisji Europejskiej w sprawie Groka na platformie X. Właśnie na podstawie DSA zostało wszczęto postępowanie, w którym KE bada prawidłową ocenę platformy wobec wykorzystania rozwiązań AI. Wdrożenie Groka umożliwiło bowiem przerabiania zdjęć w taki sposób, że rozbierane są zamieszczane na nich osoby – w tym dzieci. Prowadzi to do rozpowszechniania obrazów o charakterze seksualnym.

Akt o sztucznej inteligencji w przepisie art. 50 nakazuje oznakowywanie wizerunków czy materiałów, treści syntetycznych, wytworzonych z użyciem algorytmów sztucznej inteligencji. Ale to za mało, ponieważ, po pierwsze, ten przepis nie ma pełnego zastosowania do każdej sytuacji, a po drugie, pomysły ludzi na wykorzystanie technologii wymykają się tym definicjom albo te rozwiązania są zbyt nieskuteczne – mówi Mirosław Wróblewski – Na poziomie Unii Europejskiej rozpoczęła się dyskusja na temat potrzeby rozwiązań do zwalczania negatywnych zachowań związanych z wykorzystywaniem deepfake’ów czy zjawiska deep porn. Chociaż wiemy, że istnieją także inne przepisy, które mogą być do tego wykorzystywane: Komisja Europejska wszczęła postępowanie przeciwko Grokowi za stosowanie aplikacji tego typu. Zobaczymy, czy przyniosą one oczekiwany rezultat – dodaje.

Dane osobowe wykorzystywane przesz AI

Inną kwestią jest wykorzystywanie danych osobowych przez AI. W grudniu 2024 r. została przyjęta opinia EROD w tej kwestii, czyli dotycząca wykorzystywania danych osobowych do opracowywania i wdrażania modeli sztucznej inteligencji. Pojawi się w niej szereg kryteriów pomagających organom ochrony danych ocenić, czy osoby fizyczne mogą w sposób uzasadniony oczekiwać określonego wykorzystania ich danych osobowych.

Te wytyczne to informacja na temat:
– publicznego dostępu danych;
– relacji osoby, do której należą dane z administratorem danych;
– charakteru usługi świadczonej z wykorzystaniem danych;
– kontekstu, w którym dane osobowe zostały zebrane;
– z jakiego źródła dane zostały zebrane;
– czy osoby fizyczne są świadome dostępności ich danych osobowych online.

Bardzo istotnym zagrożeniem ze strony sztucznej inteligencji jest to, że wiele z systemów zostało wytrenowanych na podstawie analizy danych, które wcześniej wprowadziliśmy do sieci internetowej. Nie spodziewaliśmy się tego, że będą one potem wykorzystane do innych celów niż te, dla których je zamieściliśmy. Dlatego trzeba się upewnić, że te systemy nie ujawniają naszych danych, że ryzyko ich udostępnienia jest znikome, a dostawcy systemów robią wszystko, aby zapewnić ochronę naszej prywatności. Temu służy chociażby opinia Europejskiej Rady Ochrony Danych Osobowych wypracowana z udziałem Urzędu Ochrony Danych Osobowych – zauważa Prezes UODO.

Jest coraz trudniej, a to jeszcze nie koniec

Coraz szerszy dostęp do internetu oraz cyfryzacja życia codziennego powodują nowe zagrożenia dla danych osobowych. W dodatku rozwój sztucznej inteligencji to coraz więcej mechanizmów na niej opartych, które pozwalają na bardzo różnorodne wykorzystywanie chociażby wizerunków różnych osób. Prawo chroniące dane musi nadążać za tymi elementami, a organy zajmujące się ochroną danych osobowych mają coraz więcej pracy. I jest ona coraz trudniejsza.

A to nie wszystkie kwestie, nad którymi UODO musi się pochylić.

–  Są także inne zagrożenia, na które UODO będzie reagować. Na przykład te związane z dyskryminacją, a więc z przetwarzaniem danych osobowych w sposób naruszający prywatność. To są także zagrożenia związane z halucynacjami. Wiemy, że systemy sztucznej inteligencji często przetwarzają dane osobowe i podają wyniki w taki sposób, który wprowadza ludzi w błąd, manipuluje czy dezinformuje – wyjaśnia Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych.

Źródło: bankier.pl

Czytaj także:

Klaudia Wojciechowska
Klaudia Wojciechowska
Redaktorka ISPortal i ISProfessional. Dziennikarka telewizji lokalnego operatora telekomunikacyjnego Ret-Sat1. Absolwentka kulturoznawstwa na Uniwersytecie Łódzkim ze specjalizacją filmoznawstwo i nowe media.

przeczytaj najnowszy numer isporfessional

Najnowsze