Apple zapowiada system wykrywający pornografię dziecięcą

Apple zamierza do swoich urządzeń wdrożyć system wykrywający pornografie dziecięcą. Będzie on oparty na sztucznej inteligencji. System nazwano umownie CSAM – Child Sexual Abuse Material. CSAM zaprojektowany został tak, by identyfikował i zgłaszał nielegalne materiały gromadzone w usłudze iCloud Photos. Serwery będą reagowały po przekroczeniu liczby obrazów niezgodnych z bazą. A koncert na podstawie tego … Czytaj dalej Apple zapowiada system wykrywający pornografię dziecięcą