C
KI3 min Lesezeit

Nvidia plant angeblich neuen AI-Inference-Chip mit Groq-Technologie

Laut Techmeme will Nvidia auf der GTC im März einen neuen Chip für KI-Inference vorstellen. Das System nutzt angeblich Designs von Groq – und OpenAI gehört bereits zu den Kunden.

CA
Christopher Ackermann28. Februar 2026

Wie Techmeme unter Berufung auf eigene Quellen berichtet, bereitet Nvidia eine überraschende Ankündigung für seine kommende GPU Technology Conference (GTC) im März vor. Demnach will der Chip-Riese einen neuen Spezialprozessor für Künstliche Intelligenz vorstellen, der sich speziell auf Inference-Aufgaben konzentriert – und dabei angeblich auf Designs des kalifornischen Chip-Startups Groq setzt.

Ein ungewöhnliches Bündnis

Die Nachricht ist insofern bemerkenswert, als Nvidia und Groq eigentlich als Konkurrenten im Markt für KI-Beschleuniger gelten. Groq hat sich in den letzten Jahren einen Namen durch extrem schnelle Inference-Chips gemacht, die im Gegensatz zu Nvidias universellen GPUs auf eine spezialisierte Architektur setzen. Die sogenannte Tensor Streaming Processor Architecture (TSP) von Groq soll Latenzzeiten drastisch reduzieren und eignet sich besonders für Echtzeitanwendungen wie Chatbots oder interaktive KI-Systeme.

Wenn Nvidia tatsächlich Groq-Designs in eigene Hardware integriert oder unter eigenem Namen vermarktet, würde dies das bisherige Marktverständnis grundlegend verändern. Bisher dominierte Nvidia vor allem beim Training großer Modelle, während sich ein Ökosystem alternativer Anbieter – darunter Groq, Cerebras und SambaNova – auf den Bereich Inference spezialisierte.

OpenAI als strategischer Partner

Besonders interessant ist der Hinweis, dass OpenAI bereits als Kunde für das neue System gelistet sei. Für den ChatGPT-Betreiber wären dedizierte Inference-Chips ein strategischer Vorteil: Während das Training großer Modelle einmalige Kosten verursacht, entstehen bei der tatsächlichen Nutzung durch Millionen Nutzer laufende Inferenzkosten. Spezialisierte Hardware könnte hier signifikante Einsparungen bringen und gleichzeitig die Antwortzeiten verbessern.

Die GTC, Nvidias jährliche Entwicklerkonferenz, gilt als wichtigstes Event für das Unternehmen. Dort werden traditionell neue GPU-Generationen vorgestellt und strategische Partnerschaften bekannt gegeben. Ein Fokus auf Inference-Technologie würde zudem passen zum allgemeinen Trend in der Branche: Während das Training immer größerer Modelle zunehmend kritisch betrachtet wird, rückt die effiziente Bereitstellung bereits trainierter Modelle in den Vordergrund.

Marktverschiebungen im Chip-Sektor

Die Ankündigung kommt zu einem Zeitpunkt, an dem der Wettbewerb im AI-Chip-Markt zunehmend härter wird. Neben traditionellen Konkurrenten wie AMD drängen auch Cloud-Anbieter wie Google (TPU) und Amazon (Trainium/Inferentia) sowie Microsoft mit eigenen Designs auf den Markt. Zudem haben Startups wie Groq in den vergangenen Jahren bewiesen, dass spezialisierte Architekturen in bestimmten Anwendungsfällen deutlich effizienter sein können als universelle GPUs.

Für Groq selbst würde eine Partnerschaft mit Nvidia einen massiven Prestigegewinn bedeuten. Das 2016 gegründete Unternehmen hat zwar beeindruckende Benchmarks bei der Latenz gezeigt, kämpft aber um Marktanteile gegen den dominanten Branchenführer. Eine Integration in Nvidias Ökosystem könnte Groqs Technologie einem breiteren Publikum zugänglich machen – möglicherweise als Teil von Nvidias Software-Stack oder als komplementäre Hardware-Lösung.

Ausblick auf die GTC

Die GTC 2026 findet im März statt und wird voraussichtlich sowohl physische als auch virtuelle Teilnehmer anziehen. Neben der vermuteten Chip-Ankündigung werden Experten auch Nvidias Strategie im Bereich Agentic AI sowie Updates zur Blackwell-Architektur und deren Nachfolger erwarten.

Sollte sich das Gerücht bewahrheiten, würde dies signalisieren, dass Nvidia sein bisheriges Geschäftsmodell erweitert. Statt ausschließlich auf universelle Grafikprozessoren zu setzen, würde das Unternehmen auch hochspezialisierte Inference-Lösungen in sein Portfolio aufnehmen – möglicherweise durch Kooperationen mit bisherigen Nischenanbietern. Für Entwickler und Unternehenskunden könnte dies langfristig zu einer größeren Auswahl an Hardware-Optionen führen und die Kosten für KI-Betrieb weiter senken.

Quelle: Techmeme

QUELLEN
TechmemeOriginalquelle
Techmeme
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CA
Christopher Ackermann

Kommentare

WEITERLESEN
KI

Copilot Task: Microsofts autonomer Agent für Windows 11 startet in die Forschungsvorschau

3 min Lesezeit
KI

OpenAI übernimmt Pentagon-Vertrag: Das Ende der ethischen KI-Reserve im Militär

5 min Lesezeit
KI

Sam Altman warnt: DOD-Blacklisting von Anthropic setzt gefährlichen Präzedenzfall

4 min Lesezeit