Vor einigen Jahren erregte Apple mit einer Ankündigung Aufmerksamkeit: Um „CSAM“ („Child Sexual Abuse Material“) wirkungsvoll zu bekämpfen, wollte das Unternehmen die Fotos von Nutzern auf illegale Inhalte lokal auf den Geräten scannen. Die Idee kam nicht bei allen gut an: Kritiker befürchteten, der Konzern könne so die Privatsphäre unterminieren und die technischen Grundlagen schaffen, um miss