Leonardo-Aktie: Jetzt Kauf? Analysten sehen Potenzial
Gemini 3 wurde gerade als das leistungsstärkste KI-Modell eingestuft – eine Entwicklung, mit der nur die wenigsten gerechnet hatten. Noch vor einem Jahr lagen die Modelle von OpenAI unangefochten an der Spitze.
Doch was spielt sich derzeit auf dem wichtigsten Markt der Welt ab?
Die KI-Welt dominiert täglich die Schlagzeilen: neue Modelle, überraschende Partnerschaften, frische Produkte. Während ChatGPT bereits sein dreijähriges Bestehen feiert, hat sich die Landschaft der künstlichen Intelligenz zu einem komplexen Geflecht entwickelt, in dem dieselben Unternehmen an mehreren Fronten gleichzeitig gegeneinander antreten. Alphabet (NASDAQ:GOOGL) misst sich mit Nvidia (NASDAQ:NVDA) im Chipmarkt, während Gemini im Wettbewerb mit ChatGPT als führendes Sprachmodell steht.
Wie greifen diese unterschiedlichen Konkurrenzsituationen ineinander – und was ist der gemeinsame Nenner im Rennen um die technologische Vorherrschaft?
Was sind CPUs, GPUs, TPUs und NPUs?
CPUs sind seit den Anfängen der modernen Computertechnik das Herzstück eines jeden Computers. Auch heute noch funktioniert kein System ohne sie: Als Hauptprozessor übernimmt die CPU die Rolle des „Allzweckgehirns“ – ohne sie lässt sich ein Computer nicht einmal einschalten. Diese Chips wurden allerdings für Flexibilität entwickelt, nicht für hochgradig repetitive Berechnungen.
Als Videospiele in den 1990er-Jahren immer realistischer wurden, stieg der Bedarf an Chips, die Tausende von Pixeln gleichzeitig verarbeiten konnten, statt eines nach dem anderen. Genau daraus entstand die Entwicklung der Grafikprozessoren (GPUs).
Eine GPU besteht im Kern aus Tausenden kleinerer, einfacherer Recheneinheiten, die parallel arbeiten. Während eine CPU Pixel nacheinander (seriell) berechnet, erledigt eine GPU dies gleichzeitig (parallel). In den meisten Computern sind heute beide Komponenten – CPU und GPU – verbaut. Der führende Hersteller von Grafikprozessoren war lange Zeit Nvidia.
Dann kam die KI. Für das Training großer neuronaler Netze sind enorme Mengen an Matrizenoperationen erforderlich – Berechnungen, die sich stark mit denen überschneiden, für die GPUs ursprünglich im Bereich 3D-Grafik entwickelt wurden. Nvidia nutzte diesen Vorteil und brachte GPUs auf Rechenzentrumsniveau auf den Markt, deutlich größer und leistungsstärker als die Varianten in Laptops. Damit eroberte das Unternehmen rasch einen bedeutenden Marktanteil.
GPUs blieben jedoch weiterhin Allzweck-Grafikchips und waren nicht speziell für KI ausgelegt. Google stellte 2015 die Tensor Processing Unit (TPU) vor, einen Chip, der gezielt für Operationen in neuronalen Netzen entwickelt wurde. TPUs sind sogenannte ASICs – anwendungsspezifische integrierte Schaltkreise –, die für einen klar definierten Zweck optimiert sind und nicht für den allgemeinen Gebrauch. Die Spezialisierung ermöglicht ihnen eine besonders hohe Effizienz bei Kosten, Energieverbrauch und Durchsatz im großen Maßstab.
Der dritte Chiptyp sind Neural Processing Units (NPUs). Sie laufen direkt auf dem Endgerät, etwa in Smartphones, und sind auf Energieeffizienz sowie die Verarbeitung von KI-Aufgaben in Echtzeit ausgelegt. Für das Training großer KI-Modelle sind sie ungeeignet, da ihre Rechenleistung deutlich unter der von GPUs und TPUs liegt. Für stromsparende Anwendungen wie Echtzeit-Bilderkennung oder Spracherkennung sind NPUs jedoch ideal.

Quelle: Leon Zhu & SemiVision auf X
Wenn TPUs GPUs beim Training und bei der Inferenz eigentlich überlegen sind – warum setzen dann nicht alle großen LLMs auf TPUs?
Der Grund liegt in der Entwicklungsgeschichte: Die KI-Welt hat sich auf GPUs festgelegt, lange bevor TPUs überhaupt existierten.
Man muss sich das so vorstellen: Als Google 2015 die TPU vorstellte, hatte das Feld des maschinellen Lernens bereits ein ganzes Jahrzehnt damit verbracht, seine Grundlagen auf Nvidia-GPUs aufzubauen – von Forschungscode über frühe Deep-Learning-Bibliotheken bis hin zu Universitätskursen und der Infrastruktur großer Unternehmen. Und der Treiber dahinter war nicht nur, dass GPUs gut geeignet waren, sondern vor allem CUDA, Nvidias proprietäre Programmierplattform, die bereits 2007 auf den Markt kam.
CUDA erlaubte es Entwicklern, die massive Parallelität der GPUs direkt zu nutzen. Die Plattform war stabil, schnell, hervorragend dokumentiert – und, entscheidend für ihre Verbreitung: Sie funktionierte überall, vom Gaming-PC bis zum hyperskalierenden Rechenzentrum. Dadurch entstand ein Schwungrad: Mehr Entwickler nutzten CUDA, sodass mehr Tools und Bibliotheken für CUDA entstanden. Das führte dazu, dass immer mehr Unternehmen Nvidia-GPUs einsetzten – was wiederum weitere Entwickler in das CUDA-Ökosystem zog.
Anfang der 2010er-Jahre basierte praktisch das gesamte Ökosystem auf der Annahme, dass Nvidia-GPUs und CUDA der Standard sein würden. Universitäten brachten es so bei. Startups bauten darauf auf. Cloud-Anbieter füllten ihre Rechenzentren damit.
Als Google schließlich die TPUs einführte, waren diese zwar extrem leistungsfähig – gerade für große Trainings- und Inferenz-Workloads –, aber gleichzeitig weniger flexibel als GPUs, was die Bandbreite der Modelle und Operationen anging, die sie verarbeiten konnten. Vor allem jedoch kamen sie zu spät zu einer Party, die Nvidia seit Jahren dominierte. Die Community hatte ihre gesamte Architektur bereits auf CUDA ausgerichtet. Hinzu kam: Google verkaufte TPUs nicht.
Wer TPUs nutzen wollte, musste seine Modelle in der Google Cloud trainieren. Nvidia-GPUs dagegen waren überall verfügbar: bei Amazon (NASDAQ:AMZN), Microsoft, Oracle, in privaten Rechenzentren und universitären Clustern. Diese breite Verfügbarkeit machte GPUs zum Standard für jeden, der ein LLM entwickeln wollte.
Trotzdem haben die starke Performance der TPUs und das wachsende Interesse, die Abhängigkeit von nur einem Anbieter – Nvidia – zu reduzieren, einige Unternehmen dazu bewegt, Google-Chips in ihre Wertschöpfungskette aufzunehmen. Anthropic etwa hat kürzlich einen milliardenschweren Vertrag mit Google geschlossen, der ihnen Zugang zu bis zu einer Million TPUs sichert. Ihre Modelle laufen künftig auf drei Plattformen: Nvidia-GPUs, Amazons kundenspezifischen Trainium-Chips (ebenfalls ASICs) und Googles TPUs. Berichten zufolge befindet sich auch Meta mit Alphabet in Gesprächen, bis 2027 mehrere Milliarden USD in Google-TPUs für seine Rechenzentren zu investieren.
Damit könnte das Unternehmen sein Chipportfolio über Nvidia und AMD hinaus diversifizieren. Und generell arbeiten immer mehr Unternehmen an eigenen ASICs. OpenAI hat hierzu eine neue Vereinbarung mit Broadcom geschlossen – einem Unternehmen, das auch an Googles TPUs beteiligt war –, um ab 2026 eigene ASICs zu entwickeln.
Die Geschichte von zwei KI-Märkten
Der Wettstreit um die KI-Vorherrschaft scheint sich zunehmend in zwei Lager aufzuspalten. Auf der einen Seite steht das „Google-Lager“, angeführt von Alphabet und flankiert von einem Netzwerk an Infrastrukturanbietern wie Broadcom (NASDAQ:AVGO), Celestica (NYSE:CLS), Lumentum (NASDAQ:LITE) und TTM Technologies (NASDAQ:TTMI).
Auf der anderen Seite formiert sich das OpenAI-Lager, mit OpenAI im Zentrum und starken Partnern wie Microsoft (NASDAQ:MSFT), Nvidia, Oracle (NYSE:ORCL), SoftBank, AMD (NASDAQ:AMD) und CoreWeave (NASDAQ:CRWV).
Microsoft stellt nicht nur die finanzielle Basis, sondern auch die Azure-Infrastruktur bereit, auf der OpenAI seine Modelle trainiert und betreibt. Nvidia und AMD liefern die GPUs und KI-Beschleuniger, die diese Berechnungen überhaupt erst ermöglichen. CoreWeave, teils von Nvidia unterstützt, fungiert als spezialisierter High-Performance-Cloud-Anbieter, der OpenAI riesige GPU-Cluster zur Verfügung stellt und damit Trainingslast abfedert, die Azure allein nicht stemmen könnte.
Oracle wiederum hat mehrjährige Kapazitätsvereinbarungen abgeschlossen, um OpenAI-Workloads auch in seiner Cloud zu hosten – ein weiterer Schritt, um zusätzliche Rechenleistung bereitzustellen. In den letzten zwei Jahren haben die Märkte jede neue Verbindung zum OpenAI-Ökosystem gefeiert: Lieferverträge mit Nvidia, zusätzliche Cloud-Kapazitäten bei Oracle oder neue Vereinbarungen mit OpenAI lösten regelmäßig deutliche Kursgewinne aus, getragen von der Erwartung einer stark ansteigenden KI-Nachfrage und entsprechenden Umsätzen.
Doch diese Logik hat sich jüngst ins Gegenteil verkehrt. In den vergangenen Wochen wurde eine zu enge Verbindung zu OpenAI zunehmend als Belastung wahrgenommen. SoftBank, das künftig rund 11 % an OpenAI halten wird, verlor im November fast 40 % an Wert. Oracle, dessen Aktie nach dem 300-Mrd.-USD-Infrastrukturdeal mit OpenAI deutlich gestiegen war, sieht sich nun mit sich ausweitenden Credit-Default-Swap-Spreads konfrontiert, da Anleger das Risiko hinterfragen, enorme Rechenzentrumskapazitäten für einen Kunden aufzubauen, dessen Kreditprofil schwächer erscheint als gedacht.
Sogar Microsoft bekam diesen Druck zu spüren – trotz seiner Größe und breiten Aufstellung. Laut HSBC könnte OpenAI bis 2030 nahezu eine halbe Billion USD an Betriebsverlusten anhäufen. Eine solche Zahl stellt die langfristige Tragfähigkeit der Finanzierung infrage, zumal das gesamte Ökosystem ohnehin durch enorme Investitionsausgaben, die Verschuldung einzelner Partner und hohe Bewertungen belastet ist.

Quelle: Financial Times
Im Gegensatz dazu setzt das Google-Lager auf disziplinierte KI-Investitionen, eine breit ausgebaute interne Infrastruktur und stabile Margen. Alphabet erwirtschaftete im vergangenen Jahr einen operativen Cashflow von 151,4 Mrd. USD – ausreichend, um Investitionen von fast 78 Mrd. USD zu finanzieren, rund 20 Mrd. USD an Schulden zu tilgen und dennoch knapp 70 Mrd. USD in Form von Rückkäufen und Dividenden an die Aktionäre auszuschütten.
Dieser Cashflow ist von einer Qualität, die nur wenige Unternehmen im KI-Wettbewerb erreichen. Gleichzeitig ist die Bilanz deutlich weniger belastet als die vieler Firmen, die zum OpenAI-Ökosystem zählen. Diese solide Basis ermöglicht es Alphabet, Modelle wie Gemini 3 zu trainieren und bereitzustellen, ohne die eigene Bilanz zu strapazieren. Indem Gemini 3 vollständig auf Alphabets eigenen TPUs trainiert wird, sinken die internen Rechenkosten erheblich – und gleichzeitig entsteht ein potenziell bedeutendes Hardwaregeschäft.
Diese finanzielle Stärke und vertikale Integration spiegeln sich nun direkt in der Modellleistung wider. Gemini 3 hat sich an die Spitze der branchenweiten Benchmarks gesetzt und gilt aktuell als leistungsfähigstes Modell am Markt. In der jüngsten LMArena-Rangliste war es das am häufigsten gewählte Modell. Salesforce-CEO Marc Benioff fand nach einem Test deutliche Worte: „Ich habe ChatGPT drei Jahre lang jeden Tag genutzt. Zwei Stunden mit Gemini 3 – und ich bleibe bei diesem Produkt.“
Dieser Leistungsschock hat im OpenAI-Lager spürbaren Druck erzeugt. Medienberichten zufolge verschickte Sam Altman nach dem Start von Gemini 3 ein „Code Red“-Memo, in dem er die wachsende Bedrohung durch Google und auch durch Anthropics Claude hervorhob. Daten von SimilarWeb zeigen zudem, dass der ChatGPT-Traffic in den Wochen nach dem Start von Gemini 3 um fast 6 % zurückging – von 203 Millionen auf 191 Millionen durchschnittliche tägliche Besuche.

Quelle: Deedy Das auf X
Fazit
Nvidia bleibt ein Powerhouse, und die Nachfrage nach seinen GPUs ist nach wie vor enorm. Neue Architekturen wie Blackwell und Rubin könnten diese Position im Jahr 2026 weiter festigen. Gleichzeitig arbeiten die großen Cloud-Anbieter zunehmend an eigenen Chips, die Margen geraten unter Druck, und Investoren reagieren sensibler auf die hohe Verschuldung und Überinvestitionen im Kontext des OpenAI-Ökosystems. Nvidias entscheidender Vorteil bleibt jedoch bestehen: die CUDA-Software und die dominante Stellung bei Trainings-Workloads.
Dabei handelt es sich keineswegs um ein Nullsummenspiel. Der Markt wächst rasant und bietet Raum für mehrere Gewinner. Aktuell zeichnen sich zwei klare Schwerpunkte ab: Alphabet mit seinem kosteneffizienten, vertikal integrierten Stack und der schnell aufstrebenden Gemini-Plattform – und Nvidia mit seinem unangefochtenen Trainings- und Software-Ökosystem.

