Apple plant, US-iPhones nach Bildern von Kindesmissbrauch zu scannen

Apple-Updates

Apple plant, Software auf US-iPhones zu installieren, um nach Bildern von Kindesmissbrauch zu suchen, so die mit seinen Plänen vertrauten Personen.

Apple hat sein vorgeschlagenes System – bekannt als „Neural Match“ – Anfang dieser Woche einigen US-Akademikern detailliert beschrieben, so zwei Sicherheitsforscher, die über das virtuelle Treffen informiert wurden. Sie sagten, die Pläne könnten noch in dieser Woche veröffentlicht werden.

Das automatisierte System alarmiert proaktiv das Team menschlicher Prüfer, wenn es der Meinung ist, dass illegale Bilder entdeckt wurden, die sich dann an die Strafverfolgungsbehörden wenden, wenn das Material überprüft werden kann. Das Programm soll zunächst nur in den USA eingeführt werden.

Apple lehnte eine Stellungnahme ab.

Die Vorschläge sind Apples Versuch, einen Kompromiss zwischen seinem Versprechen, die Privatsphäre der Kunden zu schützen, und den anhaltenden Forderungen von Regierungen, Strafverfolgungsbehörden und Kinderschutzaktivisten nach mehr Hilfe bei strafrechtlichen Ermittlungen, einschließlich Terrorismus und Kinderpornografie, zu finden.

Die Spannungen zwischen Technologieunternehmen wie Apple und Facebook, die ihren verstärkten Einsatz von Verschlüsselung in ihren Produkten und Diensten verteidigt haben, und der Strafverfolgung haben sich nur verschärft, seit der iPhone-Hersteller 2016 beim FBI wegen des Zugriffs auf ein terrorverdächtiges iPhone vor Gericht ging. Nach einer Schießerei in San Bernardino, Kalifornien.

Sicherheitsforscher unterstützen zwar die Bemühungen zur Bekämpfung des Kindesmissbrauchs, befürchten jedoch, dass Apple Gefahr läuft, Regierungen auf der ganzen Welt Zugang zu den personenbezogenen Daten ihrer Bürger zu verschaffen, was möglicherweise über das ursprüngliche Ziel hinausgeht.

„Das ist eine absolut schreckliche Idee, denn sie würde zu einer massenhaft verteilten Überwachung unserer Telefone und Laptops führen“, sagte Ross Anderson, Professor für Sicherheitstechnik an der University of Cambridge.

Siehe auch  Duel erhält globale Veröffentlichung

Obwohl das System derzeit darauf trainiert ist, sexuellen Missbrauch von Kindern zu erkennen, könnte es angepasst werden, um nach anderen gezielten Bildern und Texten zu suchen, beispielsweise nach Enthauptungen von Terroristen oder regierungsfeindlichen Bannern bei Protesten, sagen die Forscher. Apples Präzedenzfall könnte auch den Druck auf andere Technologieunternehmen erhöhen, ähnliche Technologien zu verwenden.

Matthew Green, Professor für Sicherheit an der Johns Hopkins University, der als erster Forscher gilt Tweet über das Problem.

Alec Moffitt, ein Sicherheitsforscher und Datenschutzaktivist, der zuvor für Facebook und Deliveroo arbeitete, sagte, Apples Schritt sei ein „tektonischer“ und „ein massiver Rückschritt für die Privatsphäre des Einzelnen“.

„Apple rollt die Privatsphäre zurück, um sie zu aktivieren 1984,” Er hat gesagt.

Cloud-basierte Bildspeichersysteme und Social-Networking-Sites scannen bereits nach Bildern von Kindesmissbrauch, aber dieser Vorgang wird komplizierter, wenn versucht wird, auf Daten zuzugreifen, die auf einem persönlichen Gerät gespeichert sind.

Alan Woodward, Professor für Computersicherheit an der University of Surrey, sagte, das System von Apple sei weniger invasiv, da der Scan am Telefon durchgeführt werde und “nur bei Übereinstimmung eine Benachrichtigung an die Suchenden gesendet wird”. „Bei diesem dezentralisierten Ansatz handelt es sich um den besten Ansatz, den Sie wählen können, wenn Sie diesen Weg gehen.“

Apples neuralMatch-Algorithmus scannt kontinuierlich Fotos, die auf dem iPhone eines US-Benutzers gespeichert sind und auch in das iCloud-Backup-System hochgeladen werden. Die Fotos der Benutzer, die durch ein als “Hashing” bezeichnetes Verfahren in eine Reihe von Zahlen umgewandelt wurden, werden mit denen in einer Datenbank bekannter Fotos von sexuellem Missbrauch von Kindern verglichen.

Siehe auch  Nintendo Switch Online greift auf über 100 Retro-Spiele zu

Das System wurde auf 200.000 Bildern von sexuellen Übergriffen trainiert, die vom US-amerikanischen gemeinnützigen National Center for Missing and Exploited Children gesammelt wurden.

Nach Angaben von Personen, die über die Pläne informiert wurden, wird jedes in den USA auf iCloud hochgeladene Foto mit einem “Sicherheitsgutschein” versehen, der angibt, ob es verdächtig ist oder nicht. Sobald Sie eine bestimmte Anzahl von Fotos als verdächtig markieren, kann Apple alle verdächtigen Fotos entschlüsseln und wenn sie offensichtlich illegal sind, werden sie an die zuständigen Behörden weitergeleitet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.