Angesichts der überwiegend negativen Presse und lautstarken Kritik von verschiedenen Seiten gab Apple am Freitag bekannt, den Scan nach illegalen Inhalten vorerst nicht einzuführen. Die Besonderheit der von Apple gewählten "CSAM"-Erkennung (Child Sexual Abuse Material) war, vor dem iCloud-Upload lokal einen Abgleich nach entsprechendem Bildmaterial vorzunehmen. Was als datenschutztechnisch beso