Datenschützer sind entsetzt über Apples CSAM-Erkennung in den USA. Die Funktion zur Erkennung von Fotos über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) für iCloud Photos soll erst einmal nur in den USA zusammen mit iPadOS und iOS 15 eingeführt werden.
Mehr Apple-Wissen für dich.
Mac Life+ ist die digitale Abo-Flatrate mit exklusiven, unabhängigen Tests, Tipps und Ratgebern für alle Apple-Anwenderinnen und Anwender - ganz egal ob neu mit dabei oder Profi!
Mac Life+ beinhaltet
- Zugriff auf alle Online-Inhalte von Mac Life+
- alle digitalen Ausgaben der Mac Life, unserer Sonderhefte und Fachbücher im Zugriff
- exklusive Tests, Artikel und Hintergründe vorab lesen
- maclife.de ohne Werbebanner lesen
- Satte Rabatte: Mac, iPhone und iPad sowie Zubehör bis zu 15 Prozent günstiger kaufen!
✔ SOFORT gratis und ohne Risiko testen: Der erste Monat ist kostenlos, danach nur 6,99 Euro/Monat.
✔ Im Jahresabo noch günstiger! Wenn du direkt für ein ganzes Jahr abonnierst, bezahlst du sogar nur 4,99 Euro pro Monat.
Apple bestätigte gegenüber 9to5Mac, dass eine Ausweitung auf andere Länder möglich sei, dies aber mit den örtlichen Gesetzen und Vorschriften von Land zu Land unterschiedlich gehandhabt werden müsste. Ob die Funktion beispielsweise auch in Deutschland verwendet werden soll, ist völlig unbekannt.
Apple vergleicht die Fotos auf den Geräten der Anwender vor dem Upload auf iCloud Fotos mit einem komplexen Verfahren mit denen aus einer Datenbank. Dabei werden Maschinenlernen-Funktionen genutzt, um Fehlalarme auszuschließen – so zumindest die Hoffnung. Apple teilte mit, dass so ein Scan notwendig sei, um Kinder zu schützen und dass alles mit Blick auf den Datenschutz getan werde. So soll ein Hashverfahren eingesetzt werden, das auch leicht veränderte Bilder erkennt.
Die größte Sorge von Kritikern ist daher wohl auch nicht, dass es zu fehlerhaften Ergebnissen kommt, sondern dass andere Regierungen versuchen könnten, Apple zu zwingen, auch nach ganz anderen Inhalten zu suchen und die Nutzer zu verpetzen.
Die Electronic Frontier Foundation schreibt: „Das ist ein ausgereiftes System, das nur darauf wartet, dass von außen Druck ausgeübt wird, um auch nur die kleinste Änderung vorzunehmen.“
Edward Snowden schreibt auf Twitter: „Egal wie gut es gemeint ist, Apple erlaubt damit Massenüberwachung auf der ganzen Welt“. Der in Moskau lebende Whistleblower schriebt weiter: „Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem scannen“.
Vollkommen unklar ist, ob auch Google an so einem Verfahren arbeitet.
Deine Meinung ist gefragt
Wie siehst du das? Ist der Kampf gegen Kinderpornografie so eine Maßnahme wert?
Diskutiere mit!
Hier kannst du den Artikel "Geplanter Missbrauchs-Fotoscan in iPhones und iPads entsetzt Datenschützer" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.
Widerlich und bigott: ein abscheuliches, aber doch seltenes Verbrechen zu nutzen um die gesamte Menschheit unter Verdacht zu stellen und zu überwachen…
Widerlich, Datenschutz über Kindeswohl zu stellen.
Und von "selten" kann in diesem Zuzsammenhang schon gar nicht die Rede sein.
Für den Datenschutz wie wir es heute nennen sind Millionen Juden gestorben, weil man sie in Listen hatte. Der Wert von Freiheit und Privatsphäre scheint leider erst beim nächsten „systematischen“ genozid in Erinnerung gerufen zu werden. Bis dahin wurden alle zukünftigen Opfer in entsprechenden Datensätzen erfasst. Man weiß wo sie sind, an was sie glauben, ob sie kritisch sind und wer mit ihnen auf Fotos zu sehen war. Sind Bilder im Hintergrund ? Fahnen und Symbole(politisch oder religiös)? Sorry aber wer auf privacy verzichtet leitet die dystopie ein. Führt doch lieber mal härtere Strafen ein … das trifft nämlich nur die Täter.
ich würde sowas begrüssen sann were ebdlich schluss schluss damit , denn der kleine mann vergeht sich nicht an kindern , guckt mal bei denn hohen tieren . die kennen sich auch mit denn Darknetz aus , ein kleiner kennt such nicht aus , ich auf jedendall nicht
Alter, was stammelst du?
Bei diesen Verbrechen hört der Datenschutz auf. Kann man daruch nur einen einzigen Missbrauch verhindern, dann hat es mehr als nur gelohnt!
schln zu wissen wenn false positive Treffer (Familienfotos) nochmal von Menschen (welche wie bei der Siri-Qualitätskontrolle aus Kostengründen ausgelagert z.B. in Polen sitzen) betrachtet werden ;)
Mal ehrlich. Es ist vor allem ein Reizwort bei dem die objektive Betrachtung bei vielen Menschen erdtmal ausgeschaltet wird (siehe Kommentar Urs65). Eine sachliche Bewertung u d Diskussion ist dann nicht mehr möglich. Deshalb wird dieser Begriff oft als Totschlag- und Scheinargument benutzt um ganz andere Interessen im Hintergrund zu verfolgen bzw. um von den eigentlichen Interessen abzulenken.
Auch bei Apple scheint es darum zu gehen mit diesem Schlagwort Politik zu machen. So ein Generalverdacht und eine anlasslose Massenüberprüfung widerspricht rechtsstaatlichen Grundsätzen.
Das Stichwort ist "Anlasslos"! Keiner hat was gegen eine Überprüfung bei begründeten Verdacht und mit richterliche Anordnung. Doch hier geht es wohl eher um einen Vorwand um die Masseüberwachung (wohl auch auf politische Konformität) zu realisieren. Apple ist der Vorreiter hier, was verwundert, aber die Apple-Kunden sind eben auch die leidenfähigsten und blauäugigsten und die schlucken sowas als erster und reden es sich sofort schön.
wie anders soll man denn mit der zunehmenden Kriminalität auf der Welt besser umgehen. ich finde das eine faire Angelegenheit.
Müsste man jedes Bad mit dem Kind ausschütten... :(
und wie lange wir es dauern bis das System umgangen wird?
Datenschutz geht vor. Auch dwr Glaube damit Kindesmissbrauch zu verhindert ist falsch. Natürlich würde es die Verbreitung erschweren aber nicht verhindern.
und wie lange wir es dauern bis das System umgangen wird?
Datenschutz geht vor. Auch der Glaube damit Kindesmissbrauch zu verhindert ist falsch. Natürlich würde es die Verbreitung erschweren aber nicht verhindern. Ich gebe einen Monat und das Ding wird umgangen.