TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Prawa i obowiązki sztucznej inteligencji

Sztuczna inteligencja jest obecnie na ustach wszystkich. Zewsząd dochodzą zachwyty, że teraz wystarczy wprowadzić komendę, a algorytm przygotuje tekst, obraz, a nawet materiał wideo. Nie brakuje też obaw związanych z AI. Warto więc zastanowić się nad regulacjami prawnymi dotyczącymi tej nowoczesnej technologii.

Przyszłość dzieje się na naszych oczach. Najpierw pandemia wprowadziła zwyczaj pracy zdalnej, a chwilę później światło dzienne ujrzał ChatGPT. Produkt firmy OpenAI jest jedną z pierwszych platform sztucznej inteligencji pozwalających użytkownikom na korzystanie z dobrodziejstw innowacyjnych technologii, w tym na kreowanie treści, które do tej pory tożsame były z ludzkimi kreacjami.

Fundacja Panoptykon, czyli organizacja pozarządowa, której celem jest ochrona podstawowych wolności wobec zagrożeń związanych z rozwojem technologicznym, wskazuje, że wśród zagrożeń, które niesie rozwój AI jest m.in. rozmycie odpowiedzialności przy szerzeniu dezinformacji oraz tzw. deep fake’ów, zwiększenie dyskrymincji, a nawet rozwój nieetycznych modeli biznesowych.

Unia Europejska pracuje nad AI Act (akt o sztucznej inteligencji). Fundacja Panoptykon, wraz z kilkoma innymi europejskimi organami pozarządowymi, sugeruje dodanie do legislacji kilku innych zapisów, które mają na celu ochronę podstawowym praw człowieka, w tym możliwość wniesienia skargi do odpowiedniego krajowego organu, jeśli AI naruszy jakieś prawo człowieka.

AI Act przewiduje pojęcie sztucznej inteligencji ogólnego przeznaczenia (general purpose AI systemsGP AI). Twórcy takich algorytmów mieliby podlegać specjalnym obowiązkom. Dotyczy to zwłaszcza sektorów krytycznych, w tym obronności oraz edukacji.

Sztuczna inteligencja kradnie dane

Chociaż w przyszłości pewnie zapisy prawa będą dotyczyły bardziej futurystycznych kwestii związanych ze sztuczną inteligencją, to we Włoszech zwrócono już uwagę na problem wynikający z ochroną danych osobowych. ChatGPT został tam również tymczasowo zakazany. Włoski regulator dopatrzył się uchybień dotyczących prywatności użytkowników. ChatGPT gromadzi bowiem dane, chociaż teoretycznie brak jest ku temu podstaw. Twórcy zarzekają się, że zbieranie danych ma na celu dalsze trenowanie algorytmów.

Zastrzeżenia podnoszą też przedstawiciele innych sektorów. Głośno o temacie zbierania danych przez ChatGTP zrobiło się m.in. podczas amerykańskiej debaty EduTech, gdzie zwrócono uwagę na to, że z aplikacji korzysta również młodzież, a OpenAI nie wprowadziła żadnego rozwiązania mającego na celu weryfikację wieku użytkowników.

Allison Reid, dyrektor ds. cyfrowego nauczania i bibliotek w Wake County Public School System w Cary w Północnej Karolinie, przyznaje, że ważnym działaniem będzie pokazanie uczniom, iż z technologii AI należy korzystać w sposób etyczny i odpowiedzialny.

Blokowanie narzędzi edukacyjnych może powodować nierówności w edukacji – przyznaje Reid, zauważając, że niektórzy uczniowie nie będą mieli dostępu do technologii w domu, podczas gdy inni będą. Młodzi ludzie nie będą czekać na propozycje prawnych regulacji, zwłaszcza że wygląda na to, iż debata publiczna w sprawie AI jest jeszcze w powijakach.

AI a prawo autorskie

Jest jeszcze jeden zbiór praw, o których coraz szerzej mówi się w odniesieniu do sztucznej inteligencji. Prawo autorskie dotyczy wyłącznie ludzi, a więc treści wygenerowane przez AI nie podlegają żadnej ochronie. Dotyczy to również informacji, które algorytmy agregują w celu nauki oraz późniejszego przetworzenia. Coraz częściej jednak mówi się, że firmy zajmujące się sztuczną inteligencję będą musiały płacić podatek od tzw. danych treningowych.

W podejściu do regulacji prawnych nowoczesnych technologii można wyróżnić trzy modele: amerykański, europejski oraz chiński. Ten ostatni zakłada m.in. możliwość prowadzenia szpiegostwa przemysłowego, a rzecznicy patentowi są zdania, iż Chiny nie są atrakcyjnym obszarem, jeśli chodzi o prawo własności intelektualnej. Inaczej ma się sprawa w Ameryce oraz Unii Europejskiej. W USA jest model skrajnie wolnorynkowy, natomiast Europejczycy działają raczej w gąszczu przepisów, przez co w branży panuje przekonanie, że Unia Europejska zabija innowacyjność.

Eksperci alarmują, że większość współczesnych aplikacji – nie tylko tych związanych ze sztuczną inteligencją – korzysta z technologii śledzenia użytkowników i udostępniania danych osobowych stronom trzecim. Strach padł też na pracowników branż, w których wykorzystanie AI może prowadzić do masowych zwolnień. Na Światowym Forum Ekonomicznym padło stwierdzenie, że do 2025 r. aż 85 mln miejsc pracy może zostać zastąpionych przez zautomatyzowane systemy kierowane przez algorytmy sztucznej inteligencji.

Niebezpieczne algorytmy

Co jednak z bezpieczeństwem? Algorytmy AI potrafią już m.in. stworzyć treść phishingowego maila, który może posłużyć do wyłudzania pieniędzy. Gdzieś na świecie zapewne ktoś już testuje możliwości sztucznej inteligencji w zakresie wyłamywania się do rządowych systemów teleinformacyjnych. Możliwości te nie umknęły uwadze cyberprzestępców, którzy zyskali w miarę prosty sposób do przeprowadzania wielowektorowych ataków.

To właśnie wykorzystanie AI do niecnych celów budzi moje największe obawy. Być może jest to sfera, którą należałoby unormować przepisami prawnymi w pierwszej kolejności. Natomiast regulacje prawne to jedno, ale nie obejdzie się też bez edukacji technologicznej: począwszy od pracowników branżowych aż po uczniów w szkołach.

Michał Koch
Michał Koch
Dziennikarz i researcher. Tworzy teksty o najnowszych technologiach, 5G, cyberbezpieczeństwie i polskiej branży telekomunikacyjnej.

przeczytaj najnowszy numer isporfessional

Najnowsze