Kinderschutz

Apple will Missverständnisse beim Kampf gegen Missbrauch-Fotos beseitigen

Apple sah sich nach der Veröffentlichung seiner Pläne im Kampf gegen Missbrauchsfotos viel Kritik ausgesetzt und präzisiert jetzt, was geplant ist.

Von   Uhr
1 Minute Lesezeit

Apples kommendes System zum Aufspüren kinderpornografischer Fotos hat Sorgen ausgelöst, dass dies der Einstieg in ein automatisiertes System zur Überwachung werden könne. Apple hat nun Details nachgeliefert, die genauer beschreiben, wie das System funktionieren soll. Dazu wurde eine 14-seitiges PDF mit den technischen Hintergründen veröffentlicht.

Jetzt kostenfrei ausprobieren: Mac Life+

Mehr Apple-Wissen für dich.

Mac Life+ ist die digitale Abo-Flatrate mit exklusiven, unabhängigen Tests, Tipps und Ratgebern für alle Apple-Anwenderinnen und Anwender - ganz egal ob neu mit dabei oder Profi!

Mac Life+ beinhaltet

  • Zugriff auf alle Online-Inhalte von Mac Life+
  • alle digitalen Ausgaben der Mac Life, unserer Sonderhefte und Fachbücher im Zugriff
  • exklusive Tests, Artikel und Hintergründe vorab lesen
  • maclife.de ohne Werbebanner lesen
  • Satte Rabatte: Mac, iPhone und iPad sowie Zubehör bis zu 15 Prozent günstiger kaufen!

✔ SOFORT gratis und ohne Risiko testen: Der erste Monat ist kostenlos, danach nur 6,99 Euro/Monat.
✔ Im Jahresabo noch günstiger! Wenn du direkt für ein ganzes Jahr abonnierst, bezahlst du sogar nur 4,99 Euro pro Monat.

So soll die Grundlage für System eine Datenbank von Hashes bekannter Missbrauchsbilder sein, die aber von mindestens zwei Kinderschutzorganisationen aus verschiedenen Ländern stammen sollen. Bisher war das nicht bekannt. Kritiker hatten auf die Gefahr von Falsch-Positiven Treffern hingewiesen, die durch diese Zweiteilung aber so gut wie ausgeschlossen sein sollen.

Zudem führt ein Treffer nicht in einen Automatismus hinein. Ein Apple-Team sieht sich die Fotos dann an und entscheidet, wie zu verfahren ist. Die Alarmierung geschieht auch nicht wegen einzelner Fotos – sondern erst, wenn ein gewisser Schwellenwert erreicht wurde. Wo dieser liegt, hat Apple jetzt auch verraten: Es sollen 30 Bilder sein.

Apple wolle auch nicht, dass das System für andere Zwecke verwendet wird, etwa von autoritären Regierungen zum Identifizieren von anderen Inhalten als Missbrauchsbildern.

Deine Meinung ist uns wichtig

Was sagst du nach diesen Präzisierungen zu Apples System? Sollte es auch in Deutschland eingeführt werden?

Mehr zu diesen Themen:

Diskutiere mit!

Hier kannst du den Artikel "Apple will Missverständnisse beim Kampf gegen Missbrauch-Fotos beseitigen" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Auch mal wieder so ein Quatsch! 29 Pornobilder ist in Ordnung aber ab 30 gehts dann los.
Da fragt man sich was das soll?

Genau in dieser „manuellen Nachkontrolle“ liegt das entscheidende Problem. Warum sollen Menschen im Auftrag von Apple oder einer (eher fragwürdigen weil selbsternannten) Kinderschutzorganisationen falschpositive private Fotos sichten dürften, welche, wenn der Filter schon angeschlagen hat, wirklich zutiefst privat sind, anschauen dürfen. Zur Erinnerung: Bei der Verbesserung von Sorachassistenten hat Apple auf externe Dienstleister gesetzt, was in der Praxis bedeutet hatte dass die Aufnahmen aus deutschen Wohnzimmern dann von niedrig bezahlten Arbeitskräften im Homeoffice in Osteuropa angehört und den jeweiligen Sprachbefehlen zugeordnet wurden.

Grundlage soll eine Datenbank bekannter Missbrauchsbilder sein, ah ja und was ist mit neuen die noch in keiner Datenbank sind? Völlig unausgegohren!

warum immer nur schimpfen. erstens kennt noch keiner wirklich die vorgehensweise und wenn nur ein kind damit gerettet wird, ist diesbezütliches engangement wohl zu begrüßen. klar, sind dinge wie datenschutz, etc. zu berücksichtigen. man kann die dinge auch immer nur schlechtreden oder das glas halbvoll sehen. keiner von den obrigen kommentaren hat zu dem thema nicht einen fuken positives im inhalt. kritisch sein gut - nur schlechtmachen, da sage ich nur, macht es besser ....

Totalüberwachung ist schlecht!!! Man kann nämlich damit viel negative Scheiße machen z. B. Die Leute auf ihre politische Einstellung usw. überwachen. Man kann auch so jegliches Alltagsleben überwachen, die Daten verkaufen und noch mehr Kohle scheffeln. Und die User sind eben nicht so dumm, wie Apple sich das wohl erwartet hat.

Deutschland und der Datenschutz. Viele sind bei Facebook, Google, nutzen WhatsApp und diese Anbieter scannen seit Jahren alles. Wenn Apple damit Kinderpornografie ubd Pädophilie bekämpfen kann, dann begrüße ich es.

Genau das „wenn man nur ein Kind damit retten könnte…“ ist falsch, weil es die Verhältnismäßigkeit, welche doch so tief in unsereren Grundrechten verankert ist, ignoriert. Es werden weiterhin schlimme Sachen passieren und man wird nicht alle Menschen einsperren und 24 Stunden überwachen „wenn damit auch nur ein Kind …“. Du solltest selbst merken dass dein Idealismus doch unglaublich kurzsichtig und realitätsfern ist.

apple soll das duchziehenund der datenschutz soll aussen vorbleiben

Die Kommentare für diesen Artikel sind geschlossen.