Enthält Affiliate-Links [Was ist das?]Ausblick

Voice-Cloning von iOS 17 – so hört es sich an! (Tonproben).

Alle sind gespannt, wie Apples neue KI-basierte Voice-Cloning-Funktion, mit der du deine Stimme klonen und über Textausgabe sprechen lassen kannst, wirklich klingen wird. Mac Life hat neueste KI-Technologie genutzt, um dir einen Ausblick zu geben. So (gut) wird sich Voice-Cloning anhören.

Von   Uhr
3 Minuten Lesezeit

In der Welt der künstlichen Intelligenz ist Voice-Cloning eine aufregende neue Front, und Apple hat sich vorgenommen, diese Technologie auf iOS 17 zu integrieren. Bei dieser Funktion handelt es sich um eine KI-basierte Technologie, die es ermöglicht, die Stimme einer Person zu „klonen“, um eine Textausgabe zu erstellen, die wie die ursprüngliche Stimme klingt. Bereits vor wenigen Tagen kündigte Apple dazu an, dass iOS 17 ein neues Feature namens „Personal Voice“ erhalten soll, das in erster Linie als Bedienungshilfe konzipiert ist. Es soll Menschen mit krankheitsbedingt sinkender Sprachfähigkeit die Möglichkeit geben, die eigene Stimme zum Vorlesen einzusprechen, um diese beispielsweise in FaceTime-Anrufen als Sprachausgabe verwenden zu können. Apple schreibt dazu:

Für Nutzer:innen, bei denen die Gefahr besteht, dass sie ihre Sprachfähigkeit verlieren — wie beispielsweise Menschen, bei denen kürzlich ALS (Amyotrophe Lateralsklerose) diagnostiziert worden ist oder die an anderen Krankheiten leiden, die die Sprachfähigkeit nach und nach beeinträchtigen können — bietet Personal Voice eine einfache und sichere Möglichkeit, eine Stimme zu erzeugen, die wie die eigene klingt.  

Anwender:innen können eine eigene Stimme erstellen, indem sie eine zufällige Reihe von Textaufforderungen vorlesen, um 15 Minuten Audio auf dem iPhone oder iPad aufzunehmen. Diese Bedienungshilfe im Bereich Sprache nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Nutzer:innen sicher zu halten, und lässt sich reibungslos in Live Speech integrieren, sodass man mit der eigenen Stimme sprechen kann, wenn man sich mit den Liebsten verbindet.

Einsatzmöglichkeiten von Voice-Cloning in iOS 17

Das Potential für den Einsatz von Voice-Cloning ist enorm. Neben dem Einsatz als Bedienungshilfe, gibt es zahlreiche weitere Optionen. Stell dir vor, du könntest eine eingegebene Textnachricht in eine Sprachnachricht umwandeln und mit deiner eigenen Stimme versenden oder deine Stimme für die Audiokommentierung eines Videos verwenden, ohne tatsächlich sprechen zu müssen. Dies könnte besonders nützlich sein, wenn man beispielsweise seine Stimme schonen möchte oder in einer lautstarken Umgebung ist. Die Technologie könnte auch in Bereichen wie Barrierefreiheit, Entertainment und Kundenservice eingesetzt werden.

Weitere Anwendungsfelder und Risiken

Jenseits von Apple könnten Voice-Cloning-Technologien auch in anderen Sektoren eingesetzt werden, zum Beispiel in der Film- und Fernsehbranche für die Postproduktion oder in der Spieleindustrie zur Erstellung realistischerer Charakterstimmen.

Dennoch birgt diese Technologie auch Risiken. So besteht etwa die Gefahr, dass Stimmen für betrügerische Zwecke missbraucht werden könnten. Datenschutz und Sicherheit sind hier von zentraler Bedeutung.

Apples Haltung zum Datenschutz

Apple hat immer einen hohen Wert auf den Datenschutz seiner Nutzer:innen gelegt. Man kann daher davon ausgehen, dass das Unternehmen bei der Implementierung der Voice-Cloning-Funktion hohe Datenschutzstandards ansetzen wird. Die genauen Einzelheiten werden wir aber erst erfahren, wenn die Funktion offiziell veröffentlicht wird.

Wann und wie kann mit Voice-Cloning gerechnet werden?

Aktuell gibt es noch keine konkreten Informationen zur Verfügbarkeit von Voice-Cloning beziehungsweise „Personal Voice“, das gemeinsam mit iOS 17 erscheinen soll. Während Apple bereits einen Ausblick auf das Feature gab, könnte es zur WWDC 2023 Anfang Juni neue Informationen geben. Bis dahin können wir nur gespannt warten und sehen, was die Zukunft für diese spannende neue Technologie bereithält.

In Zusammenarbeit mit Elevenlabs haben wir bei Mac Life den Prozess des Voice-Clonings bereits ausprobiert. Hier findest du eine Tonprobe von Sebastian Schack und eine KI-generierte Variante seiner Stimme. Hör selbst, wie gut die Technologie bereits funktioniert!

Von der Redaktion empfohlener Inhalt

An dieser Stelle findest du einen externen Inhalt von Soundcloud, der den Artikel ergänzt. Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Von der Redaktion empfohlener Inhalt

An dieser Stelle findest du einen externen Inhalt von Soundcloud, der den Artikel ergänzt. Du kannst ihn dir mit einem Klick anzeigen lassen und wieder ausblenden.

Diskutiere mit!

Hier kannst du den Artikel "Voice-Cloning von iOS 17 – so hört es sich an! (Tonproben)." kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Wo findet man diese Tonproben?

Nirgendwo, der Artikel ist eine Mogelpackung, die Headline kackdreist gelogen. Es wird hier nicht mit Apples Personal Voice Technik gearbeitet, sondern mit einer Technik von Eleven Labs. Es weiß also niemand, wie Apples Variante wirklich klingen wird. Typisches MacLife-Clickbait.

„Deine Stimme ist bei T-Mobile Dein Passwort“ ist hiermit passé.

Also ich bin beeindruckt - als Stammhörer von Schleifenquadrat ist mir die Stimme sehr vertraut und ja, es gibt Unterschiede, aber wir sprechen hier über Version 1.0 - Wahnsinn!!

Die Kommentare für diesen Artikel sind geschlossen.