Apple lässt den umstrittenen Plan fallen, iCloud-Fotos auf CSAM zu scannen

Wir und unsere Partner verwenden Cookies, um Informationen auf einem Gerät zu speichern und/oder darauf zuzugreifen. Wir und unsere Partner verwenden Daten für personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessung, Einblicke in das Publikum und Produktentwicklung. Ein Beispiel für verarbeitete Daten kann eine in einem Cookie gespeicherte eindeutige Kennung sein. Einige unserer Partner können Ihre Daten im Rahmen ihres berechtigten Geschäftsinteresses verarbeiten, ohne Sie um Zustimmung zu bitten. Um die Zwecke anzuzeigen, für die sie glauben, dass sie ein berechtigtes Interesse haben, oder um dieser Datenverarbeitung zu widersprechen, verwenden Sie den Link zur Anbieterliste unten. Die erteilte Einwilligung wird nur für die von dieser Website ausgehende Datenverarbeitung verwendet. Wenn Sie Ihre Einstellungen ändern oder Ihre Einwilligung jederzeit widerrufen möchten, finden Sie den Link dazu in unserer Datenschutzerklärung, die von unserer Homepage aus zugänglich ist.

Apple lässt den umstrittenen Plan fallen, iCloud-Fotos auf CSAM zu scannen

Apple lässt den umstrittenen Plan fallen, iCloud-Fotos auf CSAM zu scannen
Bilder in iCloud-Fotos werden nicht auf Material zum sexuellen Missbrauch von Kindern gescannt.
Bild: Apfel

Apple hat seinen zuvor angekündigten Plan, iCloud-Fotobibliotheken nach Material über sexuellen Missbrauch von Kindern zu scannen, vollständig aufgegeben. Das Unternehmen wird die Bilder der Benutzer auf seinen Cloud-Speicherservern nicht durchsuchen, um nach CSAM-Bildern zu suchen.

Stattdessen geht Apple in die entgegengesetzte Richtung, indem es Benutzern ermöglicht, in iCloud Photos gespeicherte Bilder zu verschlüsseln.

Apples umstrittener CSAM-Plan ist tot

Apples ursprünglicher Plan, 2021 angekündigt, sollte ein System namens neuralMatch verwenden, um mutmaßliche Bilder von Kindesmissbrauch in Fotobibliotheken von Benutzern auszugraben, die auf iCloud hochgeladen wurden. Es war auch geplant, menschliche Prüfer einzustellen, um zu überprüfen, ob das Material illegal ist. Alle gefundenen CSAM-Bilder wären den zuständigen örtlichen Behörden gemeldet worden.

Die Absichten des Unternehmens waren gut, sahen sich jedoch einer Flut von Kritik ausgesetzt Befürworter des Datenschutzes, Rechtegruppen Und Organisationen wie die Electronic Frontier Foundation. Sogar eigene Mitarbeiter schloss sich leise der Gegenreaktion an.

Apfel den Plan auf Eis legen letzten Dezember. Und jetzt ist es komplett weggefallen.

Der Mac-Hersteller gab dazu eine Erklärung ab Verdrahtet das heißt auszugsweise:

„Wir haben uns ferner entschieden, mit unserem zuvor vorgeschlagenen CSAM-Erkennungstool für iCloud Photos nicht fortzufahren. Kinder können geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen.“

Aufbauend auf dieser Entscheidung startete Apple Erweiterter Datenschutz für iCloud Am Mittwoch. Dies bringt End-to-End-Verschlüsselung zu iCloud Photos, sodass niemand außer dem Benutzer auf dort gespeicherte Bilder zugreifen kann. Selbst Apple kann das nicht.

Das Feature, das ist kommt in iOS 16.2 und dem iPad-Äquivalent, gibt Benutzern auch die Möglichkeit, Gerätesicherungen und Notizen, die in iCloud gespeichert sind, sowie viele andere Arten von Daten zu verschlüsseln.

Apple schützt Kinder immer noch vor Sexting

Die Änderung bedeutet nicht, dass Apple den Kampf gegen die Ausbeutung von Kindern aufgegeben hat. Seine Aussage zu Verdrahtet sagt auch:

„Nach ausführlichen Konsultationen mit Experten, um Feedback zu Kinderschutzinitiativen zu sammeln, die wir letztes Jahr vorgeschlagen haben, vertiefen wir unsere Investitionen in die Kommunikationssicherheitsfunktion die wir erstmals im Dezember 2021 zur Verfügung gestellt haben.“

Mithilfe eines in iOS integrierten Systems können iPhones erkennen, ob ein Kind sexuell explizite Fotos über die Nachrichten-App erhält oder sendet. Der Benutzer wird dann gewarnt. Dieser Vorgang findet vollständig auf dem Mobilteil statt, nicht auf einem Remote-Server. Und die Nachrichten bleiben verschlüsselt.

Kilian Glocke zu diesem Artikel beigetragen.

Neuester Blogbeitrag

Unterhaltsamster Messestand: Taser schockiert Verbraucher mit Produktangebot [CES 2011]
September 12, 2021

Unterhaltsamster Messestand: Taser schockiert Verbraucher mit Produktangebot [CES 2011]Buchstäblich. Bei einem der größten und unterhaltsamsten Spe...

Apple-Lieferant hat Augen AR-Brille
September 12, 2021

Apple-Lieferant hat Augen AR-BrilleKommt bald eine Apple-Brille?Foto: ApfelEiner der Hauptlieferanten für das iPhone X schürt Spekulationen, dass A...

MacOS ist eine Hölle von Fehlermeldungen, heißt es in der neuen Chromebook-Werbung
September 12, 2021

MacOS ist eine Hölle von Fehlermeldungen, heißt es in der neuen Chromebook-WerbungIst das Ihre Erfahrung mit macOS? Google schlägt es vor.Foto: Goo...