Skip to content
Autorisierter Händler
(x)
Wir haben eine neue Anschrift!
>>> Schottenfeldgasse 78
>>> Stg. 3 / Top 1+3 • 1070 Wien
News
Freihaus
Verpassen Sie nie mehr einen unserer Beiträge aus der Welt der Computer und der Menschen, die sie bedienen.
Wir verarbeiten Ihre Daten gemäß Datenschutzbestimmungen.
02 09 21
by EXTENDIT

Was Apples Foto-Scan gegen Kindesmissbrauch für Nutzer bedeutet

Vor wenigen Wochen verkündete Apple, dass man künftig iPhones und iCloud nach Bildern, die Kindesmissbrauch enthalten, scannen möchte. Doch was bedeutet dies konkret für Nutzer von Apples Ökosystem?

Im folgenden möchten wir genauer untersuchen, was es mit dem CSAM (child sexual abuse material) Scanvorgang auf sich hat, und welche Vor- und Nachteile diese Technologie beinhaltet.

Inhalt:

  • Wie funktioniert der CSAM-Algorithmus?

  • Welche Vorteile bietet das System?

  • Welche Nachteile könnten entstehen?

  • Fazit

Wie funktioniert der CSAM Algorithmus?

Apple möchte künftig sowohl in der iCloud als auch auf iPhone nach Bildern von Kindesmissbrauch suchen. 

Der zugrundeliegende Algorithmus funktioniert dabei so: die Non-Profit Organisation National Center for Missing and Exploited Children (NCMEC) hat in den USA eine Datenbank an bekannten Bildern von Kindesmissbrauch aufgebaut. Diese Dateien haben jeweils einen eindeutigen und unverwechselbaren “Fingerabdruck”, einen so genannten Hash. 

Der Algorithmus durchsucht nun sowohl die iCloud als auch die iPhone Fotos App, um den Hash der darin enthaltenen Fotos mit dieser Datenbank abzugleichen. Kommt es zu einer gewissen Anzahl an Übereinstimmungen (die genaue Zahl wurde bislang nicht preisgegeben), so werden Apples Moderatoren darüber benachrichtigt, dass in einem Benutzerkonto CSAM-Dateien gefunden wurden. Im Aufgabenbereich der Moderatoren liegt es dann, die Entscheidung zu treffen, ob ein Nutzerkonto gesperrt und an die Behörden gemeldet werden soll.

Bereits heute nutzen zahlreiche Web-Plattformen wie Facebook, Twitter oder Reddit dieselbe Datenbank und eine von Microsoft entwickelte Software namens PhotoDNA, um Fälle von Kinderpornographie zu erkennen. Und auch Apple gleicht bereits Emails bei iCloud Mail mit bekannten Bildern von Kindesmissbrauch ab. Neu ist, dass nun nicht nur auf Servern und in sozialen Netzwerken danach gesucht wird, sondern auch auf den Endgeräten von Nutzern.

Darüber hinaus möchte Apple bei Familienkonten die Möglichkeit bieten, eingehende iMessage Nachrichten an Minderjährige auf sexuell explizite Inhalte zu untersuchen. Dabei werden eingehende Nachrichten mithilfe von künstlicher Intelligenz untersucht.

Die CSAM-Maßnahmen sollen mit der Herausgabe von iOS 15 und macOS 15 im September 2021 veröffentlicht werden.

Update 6 September 2021: aufgrund der lautstarken Kritik an diesen Plänen, hat Apple mitgeteilt, dass über die kommenden Monate zunächst das Feedback von Experten sammeln und prüfen möchte, um Verbesserungen am geplanten System vorzunehmen. Die Veröffentlichung des CSAM-Scans wurde damit um unbestimmte Zeit verschoben.

Welche Vorteile bietet das System?

Jährlich werden mehr als 8 Millionen CSAM Dateien den Behörden gemeldet, Tendenz stark steigend. Dabei stechen zwei unterschiedliche Gruppen hervor: rund ein Drittel aller kinderpornographischen Inhalten werden von den Kindern selbst oder ihrem Partner aufgezeichnet, und dann oftmals ohne deren Wissen verbreitet. In zwei drittel der Fälle werden die Aufnahmen allerdings von Erwachsenen gemacht, wobei die Opfer oftmals deutlich jünger sind.

Diese Statistik zeigt, welche Vorteile Apples Maßnahmen haben: zum einen wird die Verbreitung von sexuellen Inhalten unter Minderjährigen via iMessage eingedämmt, da Eltern dem Empfang derartiger Inhalte zustimmen müssen. Zum Anderen erschwert es der CSAM-Scanvorgang in der Fotos App dabei, kinderpornographische Inhalte digital zu verwahren und zu verbreiten. Durch die Meldung von Nutzern an die Behörder erhofft man sich zudem Fahndungserfolge, um Täter zu überführen und Kindesmissbrauch einzudämmen.

Tatsächlich ist es in der Vergangenheit auch in mehreren Fällen gelungen, Pädophile und Täter mithilfe von Microsofts PhotoDNA CSAM-Software zu überführen. 

Darüber hinaus wird die Verbreitung von CSAM dank derartiger Technologien deutlich erschwert. So wurden beispielsweise im zweiten Halbjahr 2020 rund 47.500 Snapchat Accounts mit kinderpornographischen Inhalten gesperrt, wobei PhotoDNA in rund 73% aller Fälle die Veröffentlichung der Fotos und Videos verhinderte.

Welche Nachteile könnten entstehen?

Obwohl der Missbrauch von Kindern ein ernstes Problem ist und die Bemühungen, diesen zu bekämpfen, fraglos gut gemeint sind, öffnet Apple durch diese Maßnahme eine Hintertüre, die den Schutz der persönlichen Daten aller Apple-Benutzer zu untergraben droht. Ebenso werden alle Nutzer durch das standardmäßige Durchforsten von Fotos und Nachrichten unter Generalverdacht gestellt. 

Natürlich sind dabei zuallererst Personen betroffen, welche tatsächlich Bilder von Kindesmissbrauch auf ihren Geräten speichern. Dies klingt erst einmal gut und gerecht. Allerdings ist es so, dass zahlreiche Apps, wie beispielsweise iMessage und Whatsapp empfangene Bilder automatisch in der Fotos App abspeichern. Gegen den Empfang derartiger Bilder kann sich niemand wehren, und so könnten Personen gezielt ins Visier der Polizei gebracht werden.

Außerdem befürchten Organisationen wie die Electronic Frontier Foundation (EFF), dass dies, trotz der guten Intention Apples, erst der Anfang für eine tiefergehende Überwachung von Nutzern und weitere Einschnitte in den Datenschutz sein könnte. Die Entwicklung einer Hintertüre zur Entschlüsselung von persönlichen Daten, sei es Fotos oder Nachrichten, ermögliche weitere Anwendungsgebiete der Technologie.

So könnte man beispielsweise bereits alleine durch die Analyse von Foto-Metadaten herausfinden, welche Personen an Demonstrationen oder illegalen Veranstaltungen teilgenommen haben. Dies weckt Begehrlichkeiten, insbesondere von autoritären Regimen, und es wäre nicht das erste Mal, dass Apple auf politischen Druck Eingriffe in die Meinungsfreiheit zulässt (2019 hatte Apple die Hongkonfer Protest-App hkmap.live aus dem App Store entfernt). 

Doch auch die neu eingeführte Warnung vor expliziten Inhalten in Apples iMessage App hat laut EFF Auswirkungen auf Sicherheit und Privatsphäre in iOS. Durch dessen Einführung könne Apple Nachrichten nicht mehr glaubhaft Ende-zu-Ende verschlüsseln, da alle eingehenden Nachrichten vor der Anzeige an den Nutzer entschlüsselt und überprüft würden.

Zudem sei künstliche Intelligenz oftmals ungeeignet, um explizite Inhalte erkennen, was ein berühmtes Beispiel von Facebook untermauert: so entfernte deren Algorithmus standardmäßig Fotos der Kleinen Meerjungfrau in Kopenhagen wegen Nacktheit. 

Fazit

Grundsätzlich ist die Bekämpfung von Kindesmissbrauch lobenswert und zu befürworten. Solange sich Apples Maßnahmen darauf beschränken, und die Moderatoren mit bedacht agieren, könnten die Vorteile der Einführung von CSAM-Scans die Nachteile überwiegen.

Sollte Apple allerdings die Einschnitte beim Schutz von Nutzerdaten aus eigenen Stücken oder auf Druck von Regierungen weiter ausbauen, so könnte die Einführung dieser Technologie das Ende der Privatsphäre im Apple Ökosystem einläuten.

NewsSchreiben Sie mir
Weiter →
TeamViewer
Juhu! Noch ein Newsletter!
Aber ein wirklich extrem unterhaltsamer und guter!
Wir verarbeiten Ihre Daten gemäß Datenschutzbestimmungen.
EXTENDIT GmbH
Schottenfeldgasse 78/3/1+3 1070 Wien