TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Apple zapowiada system wykrywający pornografię dziecięcą

Apple zamierza do swoich urządzeń wdrożyć system wykrywający pornografie dziecięcą. Będzie on oparty na sztucznej inteligencji. System nazwano umownie CSAM – Child Sexual Abuse Material.

CSAM zaprojektowany został tak, by identyfikował i zgłaszał nielegalne materiały gromadzone w usłudze iCloud Photos. Serwery będą reagowały po przekroczeniu liczby obrazów niezgodnych z bazą. A koncert na podstawie tego będzie zgłaszał sprawy do zajmującej się ściganiem przestępstw pedofilii instytucji w USA – NCMEC (Narodowe Centrum ds. Zaginionych i Wykorzystywanych Dzieci).

Apple zapewnia, że system posiada gwarancje bezpieczeństwa i prywatności. Firma ma nie gromadzić informacji o zdjęciach i nie mieć dostępu do metadanych dopóki nie zostanie przekroczony próg zdefiniowany jako alarmowy.

Firma zapewnia również, że obawy o to, ze system rozpozna zdjęcia błędnie, jest bardzo niskie. A Apple ma rewidować zgłaszane materiały, by uniknąć pomyłek algorytmu.

Użytkownicy nie będą mieli dostępu do bazy danych CSAM. Nie będą wiedzieli, które zdjęcia system oznacza jako nieprawidłowe.

System ma działać w telefonach dzięki umieszczonej w systemie operacyjnym bazie haszów.

Firma jednocześnie zapewnia, że użytkownicy uznający decyzję o posiadaniu przez siebie pornografii dziecięcej za niesprawiedliwą, będą mogli odwoływać się od całego procesu. Także od blokady konta Apple ID, która się z tym wiążę.

Źródło: cyberdefencje24.pl

Klaudia Wojciechowska
Klaudia Wojciechowska
Redaktorka ISPortal i ISProfessional. Dziennikarka telewizji lokalnego operatora telekomunikacyjnego Ret-Sat1. Absolwentka kulturoznawstwa na Uniwersytecie Łódzkim ze specjalizacją filmoznawstwo i nowe media.

przeczytaj najnowszy numer isporfessional

Najnowsze