Apple zamierza do swoich urządzeń wdrożyć system wykrywający pornografie dziecięcą. Będzie on oparty na sztucznej inteligencji. System nazwano umownie CSAM – Child Sexual Abuse Material.
CSAM zaprojektowany został tak, by identyfikował i zgłaszał nielegalne materiały gromadzone w usłudze iCloud Photos. Serwery będą reagowały po przekroczeniu liczby obrazów niezgodnych z bazą. A koncert na podstawie tego będzie zgłaszał sprawy do zajmującej się ściganiem przestępstw pedofilii instytucji w USA – NCMEC (Narodowe Centrum ds. Zaginionych i Wykorzystywanych Dzieci).
Apple zapewnia, że system posiada gwarancje bezpieczeństwa i prywatności. Firma ma nie gromadzić informacji o zdjęciach i nie mieć dostępu do metadanych dopóki nie zostanie przekroczony próg zdefiniowany jako alarmowy.
Firma zapewnia również, że obawy o to, ze system rozpozna zdjęcia błędnie, jest bardzo niskie. A Apple ma rewidować zgłaszane materiały, by uniknąć pomyłek algorytmu.
Użytkownicy nie będą mieli dostępu do bazy danych CSAM. Nie będą wiedzieli, które zdjęcia system oznacza jako nieprawidłowe.
System ma działać w telefonach dzięki umieszczonej w systemie operacyjnym bazie haszów.
Firma jednocześnie zapewnia, że użytkownicy uznający decyzję o posiadaniu przez siebie pornografii dziecięcej za niesprawiedliwą, będą mogli odwoływać się od całego procesu. Także od blokady konta Apple ID, która się z tym wiążę.
Źródło: cyberdefencje24.pl