Apple bestätigt, dass es mit dem Scannen von iCloud und Nachrichten beginnt, um Bilder von Kindesmissbrauch zu erkennen

(Bildnachweis: Shutterstock)

Apple wird damit beginnen, ein System zu verwenden, das sexuell eindeutige Fotos in Nachrichten, Fotos und iCloud erkennt und sie mit einer Datenbank mit bekanntem Material zum sexuellen Missbrauch von Kindern (CSAM) vergleicht, um die Strafverfolgung auf potenzielle Raubtiere aufmerksam zu machen.

Der Bekanntmachung (über Reuters ) sagt, dass diese neuen Sicherheitsmaßnahmen für Kinder mit der Veröffentlichung von in Kraft treten werden iOS 15 , watchOS 8 und macOS Monterey später in diesem Jahr. Dieser Schritt erfolgt Jahre, nachdem Google, Facebook und Microsoft ähnliche Systeme eingeführt haben. Google hat ein 'PhotoDNA'-System implementiert zurück im Jahr 2008 2009 folgte Microsoft. Facebook und Twitter haben seit 2011 bzw. 2013 ähnliche Systeme im Einsatz.

  • Cyber ​​Monday-Angebote: Sehen Sie sich jetzt die besten Angebote an!

Update (8/14): Seit seiner ersten Ankündigung Apple hat seine neue Richtlinie zum Scannen von Fotos klargestellt , unter anderem, dass es nur nach CSAM-Bildern scannt, die von Clearinghäusern in mehreren Ländern gekennzeichnet wurden.

Die Nachrichten-App wird Kinder sowie deren Eltern warnen, wenn entweder sexuell explizite Fotos gesendet oder empfangen werden. Die App verwischt Bilder und sagt: 'Es ist nicht deine Schuld, aber sensible Fotos und Videos können verwendet werden, um dich zu verletzen.'

Das System verwendet maschinelles Lernen auf dem Gerät, um ein Bild zu analysieren. Fotos werden dann unscharf, wenn sie als sexuell eindeutig erachtet werden.

(Bildnachweis: Apple)

'iOS und iPadOS werden neue kryptografische Anwendungen verwenden, um die Verbreitung von CSAM online zu begrenzen und gleichzeitig auf die Privatsphäre der Benutzer zu achten', so Apple Webseite zur Kindersicherheit . 'Die CSAM-Erkennung wird Apple helfen, den Strafverfolgungsbehörden wertvolle Informationen zu Sammlungen von CSAM in iCloud-Fotos zur Verfügung zu stellen.'

Das System ermöglicht es Apple, in iCloud-Fotos gespeicherte CSAM zu erkennen. Es würde dann einen Bericht an das National Center for Missing and Exploited Children (NCMEC) senden.

Gemäß MacRumors , verwendet Apple ein 'NeuralHash'-System, das Fotos auf dem iPhone oder iPad eines Benutzers vergleicht, bevor es in die iCloud hochgeladen wird. Wenn das System feststellt, dass CSAM hochgeladen wird, wird der Fall zur menschlichen Überprüfung eskaliert.

Apple wird es Siri und Search auch ermöglichen, Kindern und Eltern bei der Meldung von CSAM zu helfen. Wenn jemand nach etwas im Zusammenhang mit CSAM sucht, wird im Wesentlichen ein Popup angezeigt, um Benutzern zu helfen.

(Bildnachweis: Apple)

Natürlich gibt es bei einem System wie diesem unweigerlich Datenschutzbedenken. Auch hier will Apple Abhilfe schaffen.

„Die Methode von Apple zur Erkennung bekannter CSAMs wurde unter Berücksichtigung der Privatsphäre der Benutzer entwickelt. Anstatt Bilder in der Cloud zu scannen, führt das System einen Abgleich auf dem Gerät durch, indem eine Datenbank mit bekannten CSAM-Bild-Hashes verwendet wird, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden“, heißt es auf der Webseite für Kindersicherheit von Apple. 'Apple wandelt diese Datenbank weiter in einen unlesbaren Satz von Hashes um, der sicher auf den Geräten der Benutzer gespeichert wird.'

am besten klingende Over-Ear-Kopfhörer

Laut Apple besteht „eine Chance von weniger als eins zu einer Billion pro Jahr, ein bestimmtes Konto fälschlicherweise zu kennzeichnen“.

Trotz der angeblich geringen Rate an falschen Anschuldigungen befürchten einige, dass diese Art von Technologie auf andere Weise eingesetzt werden könnte, beispielsweise um regierungsfeindliche Demonstranten zu verfolgen, die regierungskritische Bilder hochladen.

Mehr sehen

Ungeachtet möglicher Datenschutzbedenken glaubt John Clark, Geschäftsführer des National Center for Missing & Exploited Children, dass das, was Apple tut, eher nützlich als schädlich ist.

'Bei so vielen Menschen, die Apple-Produkte verwenden, haben diese neuen Sicherheitsmaßnahmen lebensrettendes Potenzial für Kinder, die online gelockt werden und deren schreckliche Bilder in Material zum sexuellen Missbrauch von Kindern verbreitet werden', sagte Clark in einer Erklärung. 'Die Realität ist, dass Privatsphäre und Kinderschutz nebeneinander existieren können.'

Zurück zu iOS- und Android-Nachrichten scheint Google an einem Upgrade für seine Nachrichten-App zu arbeiten machen es Android-Benutzern einfacher, ihren iPhone-Freunden eine SMS zu senden .

Die besten Apple AirPods Pro-Angebote von heute 6770 Walmart-Kundenbewertungen Black Friday Sale endet in02Stunden16Minuten00trockenReduzierter Preis AirPods Pro Walmart $ 197 $ 159 Aussicht Apple AirPods Pro mit... Krückefeld $ 249 Aussicht Apple AirPods Pro Amazonas Prime 299,99 $ Aussicht Schau dir mehr an Black Friday Sale Angebote bei Amazonas Walmart Bester Kauf Dell Wir prüfen täglich über 250 Millionen Produkte auf die besten Preise