: Apple geht gegen Kindesmissbrauch vor

06.08.2021 | 08:58 Uhr
US-Apple-Geräte sollen künftig Bilder mit sexuellem Missbrauch von Kindern erkennen und melden, sobald sie in den Online-Speicher hochgeladen werden. Datenschützer schlagen Alarm.
Apple will in den USA zunächst ein System einführen, das Inhalte mit sexuellem Kindesmissbrauch auf Geräten entdecken soll, ohne den Datenschutz aufzugeben.Quelle: Reuters
Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des hauseigenen Online-Speicherdienstes iCloud mit einer Liste von bekanntem "kinderpornografischen" Material abgleichen lassen. Apple stellte dafür am Donnerstag ein komplexes Verfahren vor, dass den Datenschutz sicherstellen soll.
Wir wollen dazu beitragen, Kinder vor Tätern zu schützen, die Kommunikationsmittel nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material mit sexuellem Kindesmissbrauch einschränken.
Apple, US-Technologiekonzern
Für den Abgleich soll auf die Geräte eine Datei mit sogenannten "Hashes" von bereits bekannten missbräuchlichen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich bei einem Vergleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.

Meldung an Nationales Zentrum für vermisste und ausgebeutete Kinder

Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, mit dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und prüfen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird nicht öffentlich gemacht.
Sexuelle Gewalt gegen Kinder nimmt zu: Die Polizei hat mehr Fälle von Kindesmissbrauch registriert. Am stärksten war der Anstieg bei der sogenannten Kinderpornografie.
Wird bei der Überprüfung tatsächlich missbräuchliches Material entdeckt, meldet Apple dies der dem Nationalen Zentrum für vermisste und ausgebeutete Kinder, das mit der Polizei zusammenarbeitet.

Funktion zunächst nur für US-Apple-Kunden

Zudem soll die Apple-App Messages Kinder und ihre Eltern warnen, wenn sie sexuell eindeutige Fotos erhalten oder senden. Auch der Sprachassistent Siri soll einschreiten, wenn Nutzer versuchen, nach Themen im Zusammenhang mit sexuellem Kindesmissbrauch zu suchen.
Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen die Systemversion installiert wird. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.

Datenschützer befürchten "Hintertür" für Regierungen

Nutzer, bei denen durch den Abgleich bekanntes missbräuchliches Material gefunden wird, werden darüber nicht informiert. Allerdings wird dabei ihr Konto gesperrt.
Datenschützer sehen in dem Vorhaben eine potenzielle "Hintertür", die von Regierungen oder anderen Gruppen ausgenutzt werden könnte. Greg Nojeim vom Zentrum für Demokratie und Technologie in Washington sagte, dass "Apple sein branchenübliches verschlüsseltes End-to-End-Nachrichtensystem durch eine Infrastruktur für Überwachung und Zensur" ersetze. Dies mache die Nutzer "anfällig für Missbrauch und Ausspähung" in den USA und der ganzen Welt.
Apple entgegnet Kritikern, dass es keinen direkten Zugriff auf die Bilder habe und Maßnahmen zum Schutz der Privatsphäre und der Sicherheit ergriffen habe.
Quelle: dpa, AFP

Mehr zum Thema