KI: Forscher planen neue Konzepte für effizientere Sprachmodelle
Düsseldorf. Es vergeht fast kein Tag, ohne dass ein Megadeal in der KI-Welt verkündet wird. Jüngst orderte OpenAI Halbleiter vom Chiphersteller AMD für Rechenzentren mit einer Kapazität von sechs Gigawatt. Das ist mehr als halb so viel, wie ganz New York zu Spitzenzeiten an Elektrizität verbraucht.
Die Rechenleistung von Sprachmodellen (LLMs) wie ChatGPT von OpenAI benötigt enorm viel Strom. Laut der Internationalen Energieagentur könnte der Stromverbrauch von Rechenzentren bis 2030 so hoch sein wie der gesamte Stromverbrauch Japans.
Trotzdem wollen OpenAI und andere KI-Anbieter mit immer größeren Rechenkapazitäten immer bessere Modelle entwickeln, die dem Menschen in allen Belangen nacheifern. Das stößt nicht nur auf Ressourcenprobleme, sondern könnte laut dem berühmten KI-Forscher Yann LeCun von Meta in die Irre führen: „LLMs in ihrer derzeitigen Form werden uns nicht zu einer KI auf menschlichem Niveau führen“, sagt LeCun.
Sprachmodelle stehen vor vier Herausforderungen
Das menschliche Gehirn leistet vieles, was Maschinen überfordert – und das mit minimalem Energieverbrauch. Im Durchschnitt verbraucht es nur etwa 20 Watt, so viel wie eine schwache Glühbirne. Forscher sehen in seinem Aufbau die Vorlage für eine neue Generation effizienterer, leistungsstärkerer KI. Vor allem China hat sich zum Ziel gesetzt, die technologische Führung in dieser neuen KI-Generation zu übernehmen.