Apples KI-gestützte Funktion zur Zusammenfassung von Nachrichten in die Kritik geraten. Die KI hat eine BBC-Schlagzeile falsch interpretiert - und haute vollkommen daneben. Dabei ging es um den mutmaßlichen Mörder Luigi Mangione, der wohl einen Krankenkassenmanager in den USA erschossen hatte.
Berichten zufolge verarbeitete das KI-System eine BBC-Schlagzeile über den mutmaßlichen Attentäter falsch und erstellte eine irreführende Zusammenfassung, die den Eindruck erweckte, Luigi Mangione habe sich selbst etwas angetan. Ein Sprecher der BBC bestätigte, dass man sich mit Apple in Verbindung gesetzt habe, um das Problem zu lösen und zu korrigieren.
Frühere Vorfälle werfen ein schlechtes Licht auf Apple
Es ist nicht das erste Mal, dass Apples KI wegen falscher Interpretation von Inhalten Kritik abbekommen hat. Das System schaffte es sogar, aus einer Bewertung wie "Diese Wanderung hat mich fast umgebracht" eine Warnung vor Suizidalität zu machen. Auch Benachrichtigungen der Sicherheitskamera Ring wurden falsch interpretiert - angeblich Bestand Gefahr für den Nutzer, meinte Apple Intelligence.
Wir haben eine Frage an dich
Wie viel Vertrauen sollten wir KI-gestützten Nachrichtenzusammenfassungen schenken? Die jüngsten Vorfälle bei Apple Intelligence zeigen, dass selbst scheinbar einfache Aufgaben wie das Zusammenfassen von Nachrichten zu schwerwiegenden Fehlinterpretationen führen können - von der Verwechslung eines Kriminalfalls mit einem Suizid bis hin zur Fehleinschätzung harmloser Wanderberichte als Gefährdungsmeldungen. Was meint ihr: Wiegen die Vorteile automatisierter Zusammenfassungen die Risiken von Fehlinformationen auf? Und welche Verantwortung tragen Technologieunternehmen wie Apple, wenn ihre KI-Systeme Nachrichten verfälschen?
- Test: Das sind die besten Mäuse für den Mac - Spoiler: Es ist nicht die Magic Mouse
- Telefonieren mit dem Mac: Dank Gratis-App in Minutenschnelle möglich
- Ausprobiert: Chromebook statt MacBook Pro – wie gut sind die „Google-Notebooks“?
- Apple Watch SE im Test: Von der Kunst des Weglassens – wer braucht überhaupt die teurere Series 6?
Diskutiere mit!
Hier kannst du den Artikel "BBC beschwert sich bei Apple über Apple Intelligence" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.
Die wahrscheinliche beste KI sitzt zwischen den Menschlichen Ohren.
Man sollte halt nicht gleich alles glauben was man so liest, und mal kurz nachdenken ob das was da steht auch stimmen kann.
Es ist immer das selbe: Da wird eine neue Technologie eingeführt und alle Schreiberlinge und Medien glauben eine "Nachricht" gefunden zu haben obwohl es total normal ist, dass Fehler auftreten müssen. Die Frage wie oft das der Fall ist pro 1 Million Anfragen.
Außerdem wird komplett ausgeblendet, dass alles relativ ist. 100n % gibt es nicht. Auch nicht beim Menschen.
Warum werden solche Nachrichten also verbreitet?
Selbstdarstellung? Dummheit? Manipulation?
Jeder kann die Antwortliste selbstständig erweitern.
PS: MacLife hat immerhin zur Diskussion aufgerufen. Allerdings bei einer scheinbar einfachen Antwort. Oder soll man sich über solche Nichtigkeiten aufregen?
Ganz so simpel ist es ja nun nicht. Man kann ja nicht einfach sagen Fehler passieren, bei Mensch wie Maschine. Man muss schon auf die Art und Weise des Fehlers schauen.
Und hierbei sieht man deutlich, dass dem System halt das logische Zusammenfügen und interpretieren von Informationen fehlt. Solch eine KI denkt nicht. Sie gleicht Informationen miteinander ab ohne dabei die Ironie richtig interpretieren zu können. Und da sieht man halt wo einen solche Systeme hinbringen können.
„Die Wanderung hat mich fast umgebracht“ kann jeder Mensch im Kontext richtig interpretieren. Die KI gleicht das schlicht mit anderen Informationen ab die sie dazu hat. Und nein, da ist kein Stück Logik enthalten. Das ist schlichte Mathematik. Unser Gehirn hat zwar einen kleineren Speicher, aber unendlich größere Interpretationsfähigkeiten.
Zum Verfassen von Kommentaren bitte mit deinem Mac-Life-Account anmelden.
oder anmelden mit...