Während die künstliche Intelligenz (KI) an die Grenzen der aktuellen großen Sprachmodelle stößt, erforschen Unternehmen wie OpenAI neue Trainingstechniken, die menschenähnliche Denkprozesse nachahmen. Diese Methoden, die in OpenAIs neuestes o1-Modell integriert wurden, werden voraussichtlich die KI-Landschaft neu definieren und die Nachfrage nach Ressourcen, von Energie bis hin zu Chip-Typen, beeinflussen.
KI-Wissenschaftler, Forscher und Investoren haben erkannt, dass der traditionelle Ansatz, KI-Modelle durch Hinzufügen von mehr Daten und Rechenleistung zu skalieren, ein Plateau erreicht hat.
Ilya Sutskever, Mitbegründer von Safe Superintelligence (SSI) und ehemaliger OpenAI-Geschäftsführer, erkannte die Notwendigkeit einer Strategieänderung und betonte: "Die Skalierung der richtigen Sache ist jetzt wichtiger denn je."
Forscher konzentrieren sich nun auf "Test-Time Compute", eine Technik, die KI-Modelle während der Inferenzphase verbessert. Diese Methode ermöglicht es KI-Modellen, komplexe Aufgaben effektiver zu verarbeiten, indem sie mehrere Möglichkeiten generieren und bewerten, bevor sie die am besten geeignete Lösung auswählen.
Noam Brown, ein Forscher bei OpenAI, hob die Effizienz dieses Ansatzes hervor und erklärte, dass es einem Bot zu erlauben, 20 Sekunden lang zu "denken", die Leistungsgewinne einer 100.000-fachen Skalierung erreichen könnte.
OpenAIs o1-Modell, früher als Q* und Strawberry bekannt, nutzt diese innovative Technik und ermöglicht es, Probleme durch mehrstufiges Denken ähnlich wie Menschen zu lösen. Das Modell profitiert auch von kuratierten Daten und Feedback von Doktoranden und Branchenexperten.
Andere KI-Labore, darunter Anthropic, xAI und NASDAQ:GOOGL DeepMind, entwickeln ebenfalls ihre eigenen Versionen dieser Technik, um ihre KI-Fähigkeiten zu verbessern.
Die Verlagerung hin zu Test-Time Compute und effizienteren Inferenztechniken könnte die Wettbewerbslandschaft für KI-Hardware beeinflussen. Nvidia (NASDAQ:NVDA), ein führender Anbieter von KI-Chips, verzeichnet eine hohe Nachfrage nach seinen Produkten. CEO Jensen Huang diskutierte die Bedeutung von Inferenztechniken und die starke Nachfrage nach ihrem neuesten KI-Chip, Blackwell.
Dieser Übergang von massiven Vortrainings-Clustern zu Inferenz-Clouds könnte den Markt umgestalten. Sonya Huang von Sequoia Capital wies auf die potenzielle Verlagerung hin zu verteilten, Cloud-basierten Servern für Inferenz.
Während sich die KI-Branche weiterentwickelt, sind Unternehmen wie OpenAI in der Lage, einen Wettbewerbsvorteil zu behalten, indem sie kontinuierlich innovieren und ihren Konkurrenten mehrere Schritte voraus bleiben.
Reuters hat zu diesem Artikel beigetragen.
Diese Übersetzung wurde mithilfe künstlicher Intelligenz erstellt. Weitere Informationen entnehmen Sie bitte unseren Nutzungsbedingungen.