Apple hat die Entwicklung der im Sommer 2021 vorgestellten CSAM-Erkennung endgültig gestoppt. Das Feature sollte Kinderpornografie beim Hochladen von Fotos in iCloud anhand spezieller Hashes erkennen.

Die Technologie wurde an vielen Stellen missverstanden, als sie angekündigt wurde, dann kontrovers diskutiert und die Einführung später unterbrochen.

Das sagte der Senior Vice President von Apple, Craig Federighi , in einem Interview mit Das Wall Street Journal. Federighi sagte, dass Apples Fokus auf Kinderschutz auf Bereichen wie der Kommunikation und der Bereitstellung von Tools für Eltern zum Schutz ihrer Kinder in iMessage lag. „Sexueller Missbrauch von Kindern kann verhindert werden, bevor er auftritt. Darin setzen wir unsere Energie für die Zukunft ein.“

Er bemerkte auch, dass die Ablehnung des Projekts indirekt mit der Einführung der End-to-End-Datenverschlüsselung in iCloud zusammenhängt.

Für die CSAM Erkennung (Material zum sexuellen Missbrauch von Kindern), Hashes von Fotos die auf iCloud hochgeladen wurden, sollten mit Hashes von bekanntem Material über sexuellen Missbrauch von Kindern aus einer Datenbank des National Center for Missing & Exploited Children (NCMEC) verglichen werden. Nach ursprünglichen Plänen hätte Apple die Strafverfolgungsbehörden eingeschaltet, wenn eine Schwelle von rund 30 Treffern überschritten wurde.

By Kaitlynn Clay

Ich arbeite als UX Experte. Ich interessiere mich für Webdesign und Nutzerverhaltensanalyse. An meinen freien Tagen besuche ich immer das Kunstmuseum.