Apple reagiert auf die wachsende Warnung vor dem Scannen von iPhone-Fotos

Apple hat auf die wachsende Besorgnis über die neue iPhone-Wipe-Funktion von Datenschutzexperten und Konkurrenten reagiert.

Letzte Woche kündigte das Unternehmen an, dass es neue Tools einführen wird, die Dateien auf dem Telefon der Benutzer scannen und überprüfen können, ob sie Material zum sexuellen Missbrauch von Kindern oder CSAM enthalten.

Apple sagte, dass die Funktion unter Berücksichtigung des Datenschutzes entwickelt wurde und dass die eigentliche Analyse auf dem iPhone von jemandem und nicht auf den Systemen von Apple stattfindet. Sie fügte hinzu, dass das Unternehmen die Bilder nur sehen könne, wenn sie einer bestehenden Datenbank mit Bildern von sexuellem Missbrauch von Kindern ähnlich genug seien.

Trotz dieser Behauptungen hat das neue Feature heftige Kritik von Datenschutz- und Sicherheitsaktivisten auf sich gezogen, die sagen, dass es den grundlegenden Schutz auf dem iPhone schwächen und missbraucht werden könnte, um unschuldige Benutzer anzugreifen.

Kritiker haben beispielsweise vorgeschlagen, dass Regierungen Apple zwingen könnten, andere Arten von Bildern in seine Datenbank aufzunehmen, damit das Tool beispielsweise von autoritären Regimen verwendet werden könnte, um Dissidenten aufzuspüren. Weitere Bedenken sind die Möglichkeit von Systemfehlern und die Meldung anderer Arten von Fotos zur Überprüfung durch Apple, wodurch die Privatsphäre von unschuldigen Fotos im Wesentlichen vollständig entfernt wird.

Apple reagierte auf diese Kritik in Auf ihrer Website wurde ein neues FAQ-Dokument unter dem Namen „Erweiterter Schutz für Kinder“ veröffentlicht..

In der Einleitung zu diesem Dokument stellte ich fest, dass die Funktionen zwar von einigen Organisationen unterstützt worden waren, andere jedoch „mit Fragen geantwortet“ hatten.

Zunächst geht er Fragen zu dem Tool Communications in Messages Security nach, das an Kinder gesendete Bilder auf Anzeichen von Missbrauch analysiert. Er stellt fest, dass Apple nie auf diese Verbindungen zugreifen konnte, dass eine Ende-zu-Ende-Verschlüsselung weiterhin gewährleistet ist und Kinder gewarnt werden, bevor Informationen an ihre Eltern weitergegeben werden.

Siehe auch  "Wormable"-Fehlerbehebungen für Januar 2022, Dienstag - Krebs Security

Es geht dann weiter, um das umstrittenere Merkmal anzugehen, das als „CSAM-Erkennung“ bekannt ist. In diesem Abschnitt geht Apple eine Reihe von Verpflichtungen ein, um die Angst vor der neuen Funktion zu zerstreuen.

Es besagt, dass Apple nicht alle Fotos löscht, sondern nur die in iCloud Photos hochgeladenen, was darauf hinweist, dass alle Telefone, bei denen diese Funktion deaktiviert ist, entschuldigt werden. Apple hat nie ausdrücklich gesagt, dass es eine Möglichkeit geben wird, diese Scanfunktion zu deaktivieren.

Apple hat sich auch verpflichtet, das System ausschließlich zur Erkennung von Bildern von sexuellem Missbrauch von Kindern entwickelt zu haben, offenbar als Reaktion auf Bedenken, dass die Funktion in Zukunft erweitert werden könnte.

Sie sagt, wenn sie gebeten würde, ihrer Datenbank andere Arten von Bildern hinzuzufügen, würde sie „solche Anforderungen ablehnen“.

„Wir haben uns schon früher Forderungen gestellt, von der Regierung auferlegte Änderungen zu erstellen und zu veröffentlichen, die die Privatsphäre der Benutzer untergraben, und wir haben diese Forderungen standhaft abgelehnt“, sagt Apple. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen, dass diese Technologie auf die in iCloud gespeicherte CSAM-Erkennung beschränkt ist und wir keine behördlichen Anfragen zur Erweiterung genehmigen.“

Sie bestreitet auch, dass es eine Möglichkeit geben wird, dies ohne die Hilfe von Apple zu tun, indem andere Arten von Bildern in die Datenbank „gepumpt“ werden, damit sie mit Tags versehen werden. Es heißt, Apple kann dieser Datenbank, die von Kinderschutzorganisationen stammt, keine neuen Fotos hinzufügen, und da die Datenbank für alle gleich ist, ist es nicht möglich, sie für einen bestimmten Benutzer zu ändern.

Siehe auch  Halo: MCC testet die Maus- und Tastaturunterstützung für Konsolen

Es heißt auch, dass es „keine automatisierte Meldung an die Strafverfolgungsbehörden“ gibt, sodass jeder Bericht, der an die Behörden weitergeleitet wird, zuerst von Apple eingesehen wird. „Falls das System wahrscheinlich keine Bilder markiert, die nicht mit bekannten CSAM-Bildern übereinstimmen, wird das Konto nicht deaktiviert und es wird kein Bericht an NCMEC gesendet“, sagt sie.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert