TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Osiem osób niesłusznie aresztowano przez błąd AI

Wykorzystanie sztucznej inteligencji jest coraz powszechniejsze. Także programy śledzące czy służące do rozpoznawania twarzy wchodzą do szerokiego użycia. Niestety nie zawsze kończy się to dobrze. W USA sztuczna inteligencja błędnie rozpoznała twarze przez co osiem osób zostało niesłusznie aresztowane.

„Washington Post” donosi o błędzie AI w rozpoznawaniu twarzy, co doprowadziło do niesłusznego aresztowania kilku osób. Błąd dotyczył co najmniej ośmiu.

Policja korzystająca z technologii sztucznej inteligencji do zatrzymywania podejrzanych nie weryfikuje dostarczanych przez nią informacji. Prowadzi to do zatrzymania podejrzanych bez żadnych dowodów poza tym, co dostarcza AI.

Problem może być dużo poważniejszy

„Washington Post” przygotowując swój materiał analizował dane z raportów policyjnych, akt sądowych oraz rozmów z funkcjonariuszami, prokuratorami i adwokatami. Wszystko to wskazuje, że problem może być dużo poważniejszy. Prokuratorzy raczej nie ujawniają, że w trakcie prowadzenia dochodzenia wykorzystywana była sztuczna inteligencja. Prawo wymaga tego tylko w siedmiu stanach.

Osiem wyśledzonych przypadków pokazuje, że po rozpoznaniu podejrzanych przez AI, policja nie podjęła podstawowych działań śledczych. Nie sprawdzono alibi, nie porównano znaków szczególnych, nie przeprowadzono analizy DNA czy chociażby odcisków palców. Całkowicie zawierzono sztucznej inteligencji i tylko na tej podstawie dokonano aresztowania.

W dodatku w sześciu przypadkach zignorowano alibi podejrzanych. W pięciu – nie zebrano kluczowych dowodów. „Washington Post” opisuje przykład osoby aresztowanej za próbę realizacji sfałszowanego czeku. Policja nawet nie sprawdziła konta bankowego podejrzanego.

Policja nie tylko nie prowadziła dalszych działań, ale czasem popełniała podstawowe błędy jak ignorowanie cech fizycznych sprzecznych z rozpoznaniem AI. Nie nastąpiła także weryfikacja zeznań świadków.

Technologia wymaga ograniczonego zaufania

Chociaż oprogramowanie do rozpoznawania twarzy działa niemal perfekcyjnie w warunkach laboratoryjnych, to jego wykorzystanie w praktyce pozostawia wiele do życzenia. Katie Kinsey z NYU wspomina o braku niezależnych testów sprawdzających dokładność technologii. Na niewyraźnych zdjęciach z monitoringu nie tylko człowiek nie jest w stanie dokonać dokładnego rozpoznania.

Natomiast badania neurobiologów z University College of London pokazują, że użytkownicy AI często bezrefleksyjnie ufają jej decyzjom.

„Washington Post” zauważa, że nadmierne zaufanie do systemów AI może uniemożliwić prawidłową ocenę sytuacji. Jest to szczególnie groźne w przypadku wymiaru sprawiedliwości. Niestety chociaż wykryto, że osiem osób zostało w związku z błędami AI aresztowanych niesłusznie, to mogło to dotyczyć większej liczby aresztowanych.

Źródło: wiadomości.wp.pl

Klaudia Wojciechowska
Klaudia Wojciechowska
Redaktorka ISPortal i ISProfessional. Dziennikarka telewizji lokalnego operatora telekomunikacyjnego Ret-Sat1. Absolwentka kulturoznawstwa na Uniwersytecie Łódzkim ze specjalizacją filmoznawstwo i nowe media.

przeczytaj najnowszy numer isporfessional

Najnowsze