Siri ist seit Mitte März auch eine Hilfe in Fällen der sexuellen Belästigung, Nötigung und Missbrauchs – zumindest in den USA. Das JAMA Internal Medicine Journal musste feststellen, dass sich kein einziger der großen Sprachassistenten, weder Siri noch Google Now, S Voice oder Cortana, als zumindest rudimentäre Hilfestellung in diesen Fällen eignet. Die Datenbanken der Sprachassistenten unterstützen einfach diesen Wortschatz nicht.
Apple hat sich nach der Veröffentlichung dieser Studie sofort mit dem US-amerikanischen Rape, Abuse and Incest National Network (RAINN) zusammengesetzt, um eine Lösung für diesen Mangel zu finden. Zusammen mit der Erfahrung von RAINN hat Apple den Wortschatz Siris um entsprechende Phrasen, die von Opfern sexueller Gewalt oft verwendet werden, wenn sie von einem solchen Fall berichten wollen, erweitert. Apple und RAINN haben Siri außerdem darin unterrichtet, wie die Sprachassistentin am besten in einem solchen Fall reagiert und mit entsprechenden Anlaufstellen für Opfer sexueller Gewalt ausgestattet. So konnte Siri nur drei Tage nach der Veröffentlichung der Studie bereits mit der neuen Funktion versehen werden. Wann und ob auch die deutsche Siri diese Fähigkeit lernen wird, ist noch unbekannt.
Diskutiere mit!
Hier kannst du den Artikel "Siri reagiert auf sexuelle Übergriffe" kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.
Die Kommentare für diesen Artikel sind geschlossen.