Vergangenes Jahr hatte Apple das Vorhaben angekündigt, zum Schutz von Kindern ein CSAM-(Child Sexual Abuse Material)-Erkennungstool in iCloud Fotos zu integrieren. Nun rudert der Konzern zurück und kippt das Feature zugunsten des Datenschutzes. Ursprünglich sollte das geplante Tool, das bekannte Bilder der Kategorie CSAM erkennen und melden sollte, die in iCloud Fotos verwahrt werden, in […]