Diese Entscheidung wird in einem neuen Forschungsbericht von Apple detailliert beschrieben, der die Abhängigkeit von Googles Cloud-Hardware hervorhebt (via CNBC). Der Bericht zeigt, dass Apple 2.048 von Googles TPUv5p-Chips für den Bau von KI-Modellen sowie 8.192 TPUv4-Prozessoren für Server-KI-Modelle genutzt hat. Im Bericht wird Nvidia nicht namentlich erwähnt, aber das Fehlen jeglicher Erwähnung von Nvidias Hardware in der Beschreibung von Apples KI-Infrastruktur deutet auf eine bewusste Entscheidung hin, die Technologie von Google zu bevorzugen.
- Apple verwendet Google TPUs anstelle von Nvidia-GPUs.
- Forschungsbericht hebt ethische Datenpraktiken hervor.
- Apple plant 5 Milliarden US-Dollar Investitionen in KI-Server.
Dieser Schritt ist bemerkenswert, da Nvidia den AI-Prozessor-Markt dominiert und Apple sehr selten seine Hardware-Entscheidungen bekannt gibt. Nvidias GPUs sind aufgrund ihrer Leistung und Effizienz hoch geschätzt für KI-Anwendungen. Im Gegensatz zu Nvidia, das seine Chips und Systeme als eigenständige Produkte verkauft, bietet Google Zugriff auf seine TPUs über Cloud-Dienste an. Kundinnen und Kunden, die Googles TPUs verwenden, müssen ihre Software innerhalb des Google-Ökosystems entwickeln, das integrierte Werkzeuge und Dienste zur Verfügung stellt, um die Entwicklung und den Einsatz von KI-Modellen zu vereinfachen.
Im Bericht erklären Apples Ingenieurinnen und Ingenieure, dass die TPUs es ihnen ermöglichten, große und komplexe KI-Modelle effizient zu trainieren. Sie beschreiben, wie Googles TPUs in großen Clustern organisiert sind, was die erforderliche Rechenleistung für das Training von Apples KI-Modellen bereitstellt. Apple hat Pläne angekündigt, in den nächsten zwei Jahren über fünf Milliarden US-Dollar in KI-Server-Verbesserungen zu investieren, um seine KI-Fähigkeiten zu stärken und die Abhängigkeit von externen Hardwareanbietern zu reduzieren.
Neben der detaillierten Nutzung von Googles TPUs geht der Bericht auch auf ethische Überlegungen bei der KI-Entwicklung ein. Apple betonte seine Einhaltung verantwortungsvoller Datenpraktiken und stellte klar, dass keine privaten Nutzerdaten für das Training seiner KI-Modelle verwendet wurden. Das Unternehmen nutzte eine Mischung aus öffentlich verfügbaren, lizenzierten und Open-Source-Datensätzen für Trainingszwecke. Apple fügte hinzu, dass sein Trainingsdatensatz, der öffentlich verfügbare Web-Daten und lizenzierten Inhalte umfasst, sorgfältig kuratiert wurde, um die Privatsphäre der Nutzenden zu schützen.
Ein Tensor Processing Unit (TPU) ist ein von Google entwickelter Prozessor, der speziell für maschinelles Lernen und künstliche Intelligenz optimiert ist. TPUs sind für die Berechnungsgeschwindigkeit und Effizienz in der Trainingsphase großer KI-Modelle ausgelegt. Google bietet diese TPUs als cloudbasierte Dienste an, was Entwickelnden ermöglicht, innerhalb des Google-Ökosystems zu arbeiten.
Diskutiere mit!
Hier kannst du den Artikel "Apple setzt auf Google-Hardware für seine Künstliche Intelligenz " kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.
Die Kommentare für diesen Artikel sind geschlossen.