1. Startseite
  2. Technologie
  3. IT + Telekommunikation
  4. Entwicklerkonferenz GTC: Nvidia verteidigt mit neuem KI-Chip seinen Vorsprung – aber enttäuscht die Investoren

Entwicklerkonferenz GTCNvidia verteidigt mit neuem KI-Chip seinen Vorsprung – aber enttäuscht die Investoren

Konzernchef Jensen Huang stellt auf der Jahreskonferenz das neue Spitzenprodukt vor: den Blackwell-Chip. Analysten sind zufrieden, die Anleger aber hatten mehr erwartet.Felix Holtermann, Joachim Hofer, Christof Kerkmann 19.03.2024 - 16:26 Uhr aktualisiert
Nvidia-Chef Jensen Huang präsentierte am Montagabend neue Grafikchips. Foto: AP

New York, Düsseldorf. Es war eine Mammut-Präsentation, die Jensen Huang ablieferte: Zwei Stunden referierte der Nvidia-Chef am Montagabend über neue Halbleiter und Software, die Roboter antreiben sollen, die Krebsforschung, das autonome Fahren, den Schiffsbau und – natürlich – die Künstliche Intelligenz (KI).

Am Ende hatte der Milliardär die Experten überzeugt: „Nvidia ist seinen Konkurrenten weiterhin ein bis zwei Schritte voraus“, lobte JP-Morgan-Analyst Harlan Sur. Auch wenn es schwerer werde, den Hype fortzusetzen, finde er weiterhin Gefallen an dem, was Nvidia mache, urteilte Stacy Rasgon von Bernstein Research.

„Nvidia hat konsequent daran gearbeitet, seinen neuesten Chip effizienter zu machen“, erklärte Peter Fintl, Halbleiterspezialist der Beratungsgesellschaft Capgemini. „Damit wird das System attraktiver für die Betreiber von Rechenzentren, weil die aus ihren teuren Anlagen mehr herausholen können.“

Nvidia hat also in den Augen der Experten vieles richtig gemacht – und trotzdem die Börse enttäuscht. Denn die Anleger wollten noch mehr. Manche hatten eine völlig neue Chipgeneration erwartet.

Die Nvidia-Aktien fielen deshalb im frühen Handel in New York am Dienstag um mehr als drei Prozent.

Kunden, Experten und Anleger hatten der jährlichen Entwicklerkonferenz GTC des Chipherstellers in San José entgegengefiebert. In den vergangenen zwölf Monaten hatte der Aktienkurs um 240 Prozent zugelegt, heute ist Nvidia das drittwertvollste Unternehmen der Welt. Und alles sieht danach aus, als würde die Firma aus dem Silicon Valley dieses Jahr gemessen am Umsatz Intel und Samsung überholen und zum größten Halbleiterhersteller der Welt aufsteigen. Die Analysten der Bank of America nannten die GTC in Anlehnung bereits „KI-Woodstock“. 

Konkret präsentierte Nvidia-Chef Huang die nächste Plattform an Halbleitern für generative KI-Anwendungen: Blackwell. Die KI-Modelle würden immer größer und rechenhungriger. Daher gelte: „Wir brauchen größere Grafikchips. Viel, viel größere Grafikchips“, sagte Huang. Diese trieben „die neue Computerära“ an.

  • Im B200 genannten Blackwell-Grafikchip (GPU) stecken gleich zwei verbundene Chips etwa in der Größe des Vorgängers, die eine funktionale Einheit mit 208 Milliarden Transistoren bilden. Das sind winzige Schalter, dank derer Chips Informationen speichern und verarbeiten können.
  • Zusammen mit einem Grace genannten Hauptprozessor (CPU) bilden zwei Blackwell-GPUs einen GB200 genannten Superchip.
  • Dieser soll darauf optimiert sein, generative KI-Modelle etwa für Textroboter, Bild- und Videoerstellung mit Billionen Datenpunkten (Parametern) anzutreiben. Seine Nennleistung liegt bei 80 Petaflops.
Huang präsentiert auch zwei Roboter in Hundegröße. Foto: dpa

Nvidia ist der bislang größte Profiteur des Siegeszugs der KI. Denn KI-Modelle wie ChatGPT vom Microsoft-Partner OpenAI oder Gemini von Google hatten im vergangenen Jahr einen wahren KI-Hype ausgelöst. Nvidia ist führend in der Entwicklung der dafür nötigen Chips und beherrscht laut Schätzungen knapp 80 Prozent des Marktes.

Mehr Leistung, weniger Stromverbrauch

Viele KI-Forscher hoffen, durch immer größere Modelle mit immer mehr Datenpunkten immer leistungsfähigere KI-Assistenten erschaffen zu können. Doch das Trainieren der Modelle und die sogenannte Inferenz, also das anschließende Erstellen von Texten, Bildern oder chemischen Verbindungen, benötigen eine enorme Rechenleistung und verbrauchen viel Strom. Geht es nach Huang, dann soll Blackwell einen Teil der Probleme lösen:

  • Um binnen 90 Tagen ein neues großes Sprachmodell mit 1,8 Billionen Datenpunkten zu erstellen, würden auf Basis der Hopper-Architektur 8000 GPUs benötigt und ein Stromverbrauch von 15 Megawatt, was dem Jahresverbrauch einer mittelgroßen Stadt entspricht.
  • Mit Blackwell sind dafür laut Nvidia nur noch 2000 GPUs vonnöten, der Energieverbrauch sinke auf vier Megawatt.
Nvidias neuer Blackwell-Chip soll weniger Strom verbrauchen. Foto: Bloomberg

„Unser Ziel ist, die Kosten und den Energieverbrauch kontinuierlich zu senken“, erklärte Huang. Schon Ende des Jahres werde der B200 an die „führenden KI-Unternehmen der Welt“ ausgeliefert, außerdem an die großen Cloud-Anbieter, Autohersteller und Telekommunikationskonzerne. „Blackwell wird der erfolgreichste Produktstart unserer Geschichte sein“, gab sich Huang überzeugt.

Vorsprung und Erfolgsdruck

Der Optimismus des Nvidia-Chefs ist aus Sicht von Beobachtern gerechtfertigt. „Wir gehen davon aus, dass Nvidia nicht nur weiterhin führen, sondern den Abstand zu seinen Konkurrenten im Bereich KI vergrößern wird“, erklärte Analyst Kinngai Chan von Summit Insights nach der Ankündigung. Zu Nvidias Verfolgern gehören Chipriesen wie AMD und Intel sowie zahlreiche Start-ups.

„Blackwell bietet enorme Leistungssprünge und wird unsere Fähigkeit beschleunigen, KI-Spitzenmodelle zu liefern“, ließ sich OpenAI-Chef Sam Altman zitieren.

Der Halbleiter-Hersteller Nvidia hat einen neuen Chip vorgestellt, mit dem der Konzern seine Vorreiterrolle bei Künstlicher Intelligenz weiter stärken will. Der neue Prozessor besteht aus zwei Siliziumplättchen, die eine funktionelle Einheit bilden.

Huang steht unter großem Erfolgsdruck: Nvidia war lange nur Videospielern und Halbleiterexperten ein Begriff. Als sich herausstellte, dass seine Grafikchips ideal zum Berechnen von KI-Anwendungen sind, explodierte der Börsenkurs. Im gerade angelaufenen neuen Finanzjahr soll die Umsatzmarke von 100 Milliarden Dollar übersprungen werden.

Nvidia will zum Plattform-Unternehmen werden

Huang war auf der Bühne erkennbar bemüht, Nvidia als führenden Technologiekonzern darzustellen, dessen Geschäft über die Entwicklung von Chips und deren Produktion beim taiwanesischen Auftragshersteller TSMC längst hinausgeht.

„Blackwell ist nicht nur ein Chip, es ist der Name einer Plattform“, sagte er. Um den Umsatz weiter zu steigern, setzt sein Konzern auf eine Software namens NIM. Sie soll Kunden zusätzlich überzeugen, Nvidia-Chips zu kaufen. So soll es die neue Software einfacher machen, KI-Programme auf allen Nvidia-GPUs auszuführen. Ältere Chips könnten damit künftig vielleicht nicht mehr für das Training der KI-Modelle genutzt werden, dafür aber für deren Betrieb.

Handelsblatt Disrupt

Der große KI-Check: Drei Experten analysieren den Entwicklungsstand in Europa vs. USA

15.03.2024
Abspielen 01:15:17

Klar ist: Auch die nach dem Mathematiker David Blackwell benannte neue Chipgeneration richtet sich an Unternehmenskunden und ist für den Einsatz in großen Rechenzentren konzipiert. Das zeigt sich etwa am Preis: Auch weil Nvidia mit der Produktion nicht hinterherkommt, kann der Vorgänger-Chip H100 leicht 40.000 Dollar pro Stück kosten. Chipexperten gehen davon aus, dass der B200 noch einmal deutlich teurer wird; das US-Fachportal „Tom’s Hardware“ hält sogar einen möglichen Endpreis von 100.000 Dollar pro Chip für nicht überraschend. Nvidia machte zur Preisgestaltung am Montag keine Angaben.

Handelsblatt Today

Nvidia stellt neuen KI-Chip vor – Boost für die Aktie?

19.03.2024
Abspielen 30:37

Von Autochips abgesehen ließ Huang am Montag simplere Halbleitertypen weitgehend unerwähnt – etwa Chips für Smartphones und andere Endgeräte, die kleinere und spezialisierte KI-Modelle abseits der Cloud antreiben könnten (das sogenannte Edge-Computing). Nvidia präsentierte sich stattdessen als Partner der führenden Konzerne rund um den Globus.

Partnerschaften rund um den Globus

Man erwarte die Tech-Riesen Amazon, Alphabet, Meta, Microsoft und OpenAI als Blackwell-Kunden, sagte Huang, außerdem Autohersteller wie Mercedes-Benz, BYD und Tesla sowie Industriekonzerne wie Siemens. Zudem gab er Partnerschaften mit den Softwarefirmen Oracle, Ansys, Cadence und Synopsys bekannt.

Die Facebook-Mutter Meta hat der Nachrichtenagentur Reuters am Dienstag mitgeteilt, keine Lieferungen von Nvidias neustem KI-Chip Blackwell B200 in diesem Jahr zu erwarten. Man werde zum Trainieren der dritten Generation der hauseigenen Künstlichen Intelligenz (KI), Llama 3, weiter zwei Cluster mit dem Vorgänger-Modell Hopper H100 nutzen, wie die Nachrichtenagentur Reuters am Dienstag von dem US-Konzern erfuhr. Blackwell werde dann für zukünftige Modell-Generationen verwendet.

Auch SAP setze auf Blackwell, sagte Huang. Der deutsche Softwareriese will generative KI in seinem Produktportfolio zum Einsatz bringen, etwa in Form des Sprachassistenten Joule. Nvidia sei dabei die „natürliche Wahl“, sagte Philipp Herzig, neuer Chief AI Officer von SAP, dem Handelsblatt. Das gelte für Hard- wie Software.

16.000 Teilnehmer reisten am Montag nach San José. Foto: Bloomberg

Für Nvidia sind derlei Partnerschaften wertvoll: Haben Softwarefirmen ihre Produkte einmal auf der Nvidia-Plattform entwickelt, wechseln sie so schnell nicht zur Konkurrenz. Der Marktführer sichert damit seinen Wettbewerbsvorsprung ab.

Neue Märkte im Fokus

Nach Ansicht von Gartner-Analyst Alan Priestley darf sich Nvidia aber nicht ausruhen: „AMD nimmt Fahrt auf und ist auf einem guten Weg.“ Der Rivale sei mit seinem wichtigsten Konkurrenzprodukt, dem Mi300, auf einem „ziemlich guten Wachstumspfad“, sagte er dem Handelsblatt. Auch sei AMD flexibler in der Produktion, weil der Konzern schon länger auf die sogenannte Chiplet-Technologie setze, also die Verknüpfung mehrerer kleinerer Chips zu einem leistungsstarken System.

Als einer der größten Kunden hat Microsoft verkündet, den Mi300-Prozessor zu verwenden. Gleichzeitig arbeitet Microsoft wie andere Tech-Riesen an eigenen KI-Chips. „Die Herausforderung für Nvidia ist jetzt, technologisch den Vorsprung zu halten. In der Vergangenheit hatte Nvidia keinen ernsthaften Konkurrenten“, so Priestley.

Ein Zukunftsthema sei auch der KI-Betrieb vor Ort. Bei den meisten Firmen seien Netzwerkrechner von Computerbauern wie Dell oder HP im Einsatz. Nvidia verkaufe seine Server jedoch bisher vor allem an die großen Cloud-Anbieter. Weil der Konzern im Firmenkundengeschäft bislang kaum vertreten sei, könne er hier nur gewinnen: Weltweit würden jährlich zwischen zwölf und dreizehn Millionen Server verkauft. Nvidia verkaufe lediglich mehrere Hunderttausend.

Verwandte Themen
Künstliche Intelligenz
Software
USA

Auch Huang scheint die Chancen des Marktes erkannt zu haben: Gleich zweimal begrüßte er während seiner Keynote „einen guten alten Freund“ im Publikum: Dell-Gründer Michael Dell. Man freue sich auf neues gemeinsames Wachstum.

Die meisten Analysten gehen derweil davon aus, dass der Kursrückgang an der Börse nicht von Dauer ist. Im Gegenteil, in den vergangenen Tagen haben die Banker reihenweise ihre Kursziele nach oben geschraubt.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt