Zmiany w unijnym projekcie ustawy o sztucznej inteligencji

350

Słoweńska prezydencja Rady UE przekazała pod obrady tekst kompromisowy w sprawie unijnego projektu ustawy o sztucznej inteligencji, zawierający zmiany w obszarach oceny społecznej, systemów rozpoznawania biometrycznego i zastosowań wysokiego ryzyka.

Tekst kompromisowy ma towarzyszyć raportowi z postępów w sprawie unijnej ustawy o sztucznej inteligencji. Najnowsze zapisy potwierdzają, że kraje UE mają wyłączne kompetencje w sprawach bezpieczeństwa narodowego i nalegają, aby systemy SI opracowane wyłącznie do celów wojskowych zostały wyłączone z zakresu rozporządzenia.

Obecna prezydencja opracowała definicję systemów AI w celu lepszego odróżnienia ich od klasycznych programów komputerowych. W związku z tym uważa się, że systemy sztucznej inteligencji mają zdolność przetwarzania danych lub innego rodzaju danych wejściowych „w celu wywnioskowania sposobu osiągnięcia określonego zestawu celów zdefiniowanych przez człowieka poprzez uczenie się, wnioskowanie lub modelowanie.

Dostawcy sztucznej inteligencji są teraz definiowani jako osoba lub organizacja, „która ma opracowany system sztucznej inteligencji i wprowadza go na rynek lub oddaje do użytku”. Dostawcy będą odpowiedzialni za zapewnienie zgodności z wymogami rozporządzenia.

Rozszerzono również definicję niedozwolonego używania AI o wykorzystywanie „w sytuacji społecznej lub ekonomicznej”. Zmiany te mogą mieć daleko idące konsekwencje dla sektora finansowego, ponieważ na przykład oprocentowanie kredytów jest obecnie obliczane na podstawie prawdopodobieństwa spłaty.

Jako system wysokiego ryzyka zaliczono również wykorzystanie systemów sztucznej inteligencji do szacowania składek ubezpieczeniowych.

Systemy biometryczne mogą być stosowane wyłącznie przed zatwierdzeniem przez organ sądowy. Natomiast możliwość korzystania z systemów identyfikacji biometrycznej w czasie rzeczywistym została rozszerzona na podmioty, które nie są organami ścigania, ale z nimi współpracują.

Raport z postępów przewiduje szereg obszarów, które prawdopodobnie będą wymagały dalszej dyskusji, wśród nich wyszczególniono m.in. wymogi dotyczące systemów wysokiego ryzyka. Kompromisowy tekst przewiduje, że Komisja Europejska będzie musiała co dwa lata oceniać listę takich systemów.

Politycy wyrażają również obawy co do związku ustawy o sztucznej inteligencji z innymi przepisami UE, co może powodować sprzeczności, zwłaszcza w zakresie prywatności, egzekwowania prawa, bezpieczeństwa produktów i innych przepisów sektorowych.

Źródło: euractiv.com