08.12.2022 16:54 Uhr, Quelle: appgefahren.de

Apple legt umstrittenen Plan zur Erkennung von CSAM in iCloud Fotos ad acta

Vergangenes Jahr hatte Apple das Vorhaben angekündigt, zum Schutz von Kindern ein CSAM-(Child Sexual Abuse Material)-Erkennungstool in iCloud Fotos zu integrieren. Nun rudert der Konzern zurück und kippt das Feature zugunsten des Datenschutzes. Ursprünglich sollte das geplante Tool, das bekannte Bilder der Kategorie CSAM erkennen und melden sollte, die in iCloud Fotos verwahrt werden, in […]

Weiterlesen bei appgefahren.de

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz