Digitale Revolution Ein Chip, der Gehirnfunktionen imitiert – und KI zum Durchbruch verhelfen könnte

Neuromorphe Systeme imitieren grundlegende Gehirnfunktionen.
München, Düsseldorf Der Name spiegelt die großen Ambitionen wider: Intel hat seinen Aufsehen erregenden Forschungschip „Loihi“ genannt. So heißt ein 3000 Meter hoher, unterseeischer Vulkan vor der Küste von Hawaii. Noch liegt der Berg 1000 Meter unterhalb der Wasseroberfläche. Wissenschaftler rechnen aber damit, dass der Koloss eines Tages auftaucht. Genauso glaubt der US-Konzern daran, mit „Loihi“ künftig auf der Bildfläche der Halbleiterindustrie zu erscheinen.
Denn mit dem Chip schlägt der weltgrößte Halbleiterhersteller einen ganz neuen Weg ein. Er ist dem menschlichen Gehirn nachempfunden, mit künstlichen Nervenzellen, den Neuronen, und Synapsen. „Neuromorphic Computing“ nennt das der Konzern aus dem Silicon Valley.
Lesen Sie auch:
- Streit um Digitalsteuer: US-Regierung droht Frankreich mit Strafzöllen von bis zu 100 Prozent
- Menschen, Geschichten, Ereignisse: Was wissen Sie über das Jahr 2019?
Das Ziel: Computer sollen deutlich leistungsfähiger werden. Konkret: Bestimmte, besonders aufwendige Anwendungen sollen die Rechner künftig 1000 Mal schneller und 10.000 Mal effizienter bewältigen, erläutert Rich Uhlig. Der Manager ist Chef von Intel Labs, der Zukunftswerkstatt des weltgrößten Chipherstellers. Der Stromverbrauch könnte damit dramatisch sinken.
Uhlig hat eine gewaltige Aufgabe inne: Mit seinen Forschern soll er den nächsten Technologiesprung einleiten. In diesem Herbst ist der Informatiker einen bedeutenden Schritt weitergekommen. Nicht technologisch zwar, aber bei der Partnersuche. Erstmals werden jetzt auch Industriekonzerne die Forschung vorantreiben.
Bislang waren es vor allem Universitäten, die sich für die neuromorphischen Chips von Intel interessierten. Mit 70 Gruppen arbeiten Uhligs Leute weltweit zusammen. Nun kommen auch künftige, potenzielle Anwender an Bord: Accenture, Airbus, General Electric und Hitachi.
Die neuartigen Halbleiter sind speziell dafür gemacht, Anwendungen der Künstlichen Intelligenz (KI) zu ermöglichen. Etwa wenn es darum geht, bestimmte Situationen vorherzusagen oder menschliche Handlungen zu automatisieren. „Loihi“ ahmt das Lernverhalten des Menschen nach und reagiert auf Reize aus seiner Umgebung.
Der Chip lernt kontinuierlich dazu und wird im Laufe der Zeit zunehmend intelligenter, indem er gespeicherte Daten zur Weiterentwicklung seiner Fähigkeiten nutzt. Durch den Einsatz digitaler Schaltungen imitiert die Technik grundlegende Gehirnfunktionen. So soll das maschinelle Lernen schneller und gleichzeitig effizienter werden.
Den ersten „Loihi“-Chip stellte Intel seinen Kooperationspartnern an den Universitäten voriges Jahr vor. Er enthält 130.000 Neuronen aus Silizium, die sich abhängig von der jeweiligen Anwendung selbstständig verknüpfen. Diese Neuronen wiederum sind zu 8192 neuromorphen Kernen zusammengefasst.
In diesem Sommer haben die Experten von Intel 64 „Loihi“-Testchips gebündelt. Das System bringt es auf 8,4 Millionen der künstlichen Neuronen und 8,3 Millionen Synapsen, also Verbindungen. Die Designer benannten es nach einem schwarzen Sandstrand auf Hawaii, der voriges Jahr durch einen Vulkanausbruch entstanden ist: „Pohoiki Beach“.
Vor zwei Jahren hatte der erste neuromorphe Chip von Intel die Fähigkeiten eines Marienkäfers. Die nächste Stufe brachte es auf die Leistung einer Kakerlake. „Pohoiki Beach“ entspricht dem Hersteller zufolge nun in etwa dem Hirn eines Zebrafisches. In der nächsten Stufe strebt Intel noch dieses Jahr 100 Millionen Neuronen an. Zum Vergleich: Das menschliche Gehirn enthält fast 90 Milliarden Neuronen. Bis dahin ist es also noch ein weiter Weg.
Die Technologie sei gut geeignet, um sich an physische Umgebungen anzupassen, zum Beispiel, um Beinprothesen zu steuern, oder auch Roboterarme, so Intels Chefforscher Uhlig. Ein mögliches künftiges Einsatzszenario könnte Intel zufolge auch ein „Loihi“-betriebenes medizinisches Gerät sein, das die Herzfrequenz eines Patienten überwacht. Aus der eigenen Erfahrung heraus wäre es in der Lage zu bestimmen, was die normale Herzfrequenz ist und was nicht. Anschließend könnte es eigenständig entsprechende Warnungen ausgeben oder medizinische Maßnahmen einleiten.
Eine Abkehr von klassischen Computern
„In fünf bis zehn Jahren sind neuromorphe Systeme im Alltagseinsatz“, sagt Johannes Schemmel, wissenschaftlicher Mitarbeiter an der Universität Heidelberg, der die Forschungsgruppe „Electronic Visions“ leitet. Besonderes Potenzial sieht er, genau wie Intel, bei der künstlichen Intelligenz – denn die soll schließlich Aktivitäten nachempfinden, die das Gehirn kann.
Ob Smartphone, PC oder Supercomputer – die heutige Informationstechnik basiert auf einem Prinzip, dass der Universalgelehrte John von Neumann in den 1940er-Jahren maßgeblich entworfen hat: Steuereinheit, Rechenwerk und Speicher arbeiten getrennt. Damit lassen sich Computer für alle Aufgaben programmieren, die sich in Nullen und Einsen ausdrücken lassen. Aus Rechenmaschinen werden Alleskönner.
Diese Architektur hat sich über Jahrzehnte bewährt. Wenn es darum geht, dass Maschinen menschliche Eigenschaften erlernen sollen, ist sie jedoch von Nachteil: Klassische Computer arbeiten Befehle nacheinander ab, und sie müssen die Daten vom Speicher zum Prozessor und zurück transportieren. Das sei sehr ineffizient und führe beim maschinellen Lernen zu einem enormen Rechenaufwand, sagt Forscher Schemmel.
Neuromorphe Computer könnten Abhilfe schaffen. „Die Vorteile, die die Natur beim Lernen hat, will die Forschung in künstliche neuronale Systeme übertragen“, erläutert Schemmel. Seine Forschungsgruppe entwickelt selbst einen Chip, der dem Aufbau des Gehirns nachempfunden ist – mit elektronischen Synapsen und Neuronen, die Informationen gleichzeitig verarbeiten und speichern. „Wir versprechen uns Vorteile bei Energieeffizienz und Hardwarekosten.“
IBM forscht seit einigen Jahren an neuromorphen Computern, 2014 brachte der amerikanische Konzern einen ersten Chip auf den Markt, True North genannt. Ein besonderes Augenmerk richtet die Forschungsabteilung auf Bauteile, die Speicher und Prozessor integrieren, womit sich das Hin- und Herschieben von Daten erübrigt. „In-Memory Computing“ nennen Experten dieses Konzept, das Energie und Zeit sparen soll.
Die neue Architektur verspricht Verbesserungen, die für IBM zentrale Bedeutung haben. Zum einen geht es darum, beim maschinellen Lernen Modelle effizienter und schneller zu trainieren. Auch ein System wie Watson, das der Konzern vermarktet, profitiert davon.
Zum anderen ergeben sich bei mobilen Geräten mit eingeschränkter Rechenleistung und Batteriekapazität Vorteile – etwa, wenn ein Auto mit Fahrassistent andere Fahrzeuge erkennen, eine Smartphone-Kamera das Bild automatisch verbessern oder eine Maschine selbständig Anomalien erkennen soll.
Mehr als Moore
Den Anforderungen von KI gerecht zu werden ist aber nur ein Grund, warum Intel neues Terrain betritt. Der Konzern hat noch einen Anreiz, nach ganz neuen Verfahren zu fahnden. Denn mit der momentan vorherrschenden Technik stößt der Konzern an Grenzen. Das Unternehmen aus dem Silicon Valley ist mit dem sogenannten Moore’schen Gesetz groß geworden, formuliert von Mitgründer Gordon Moore. Demnach verdoppelt sich die Zahl der Transistoren auf einem Chip regelmäßig, damit steigt auch die Leistung exponentiell.
Anfangs gelang dies jedes Jahr, inzwischen sind die Abstände größer geworden. Der Grund dafür: Die Strukturen sind sehr klein, der Aufwand steigt dramatisch. Auf einem modernen Prozessor von der Größe eines Fingernagels befinden sich mehrere Milliarden Transistoren.
Die technischen Hürden zu überspringen, kostet heute so viel Geld, dass sich nur Intel und Samsung die allermodernsten Fabriken mit den aufwendigsten Maschinen leisten können. Alle anderen Chiphersteller nutzen den Taiwanischen Hersteller TSMC, wenn sie die fortschrittlichste Technik benötigen.
Um das Moore’sche Gesetz einzuhalten, gingen die Forscher der Intel Labs schon einmal einen ganz neuen Weg. Sie bündelten mehrere sogenannte Prozessorkerne, die parallel auf einem Chip arbeiten. Heute ist das Standard.
Sich am Gehirn zu orientieren sei auch aus anderer Sicht sinnvoll, findet Uhlig. Es verbraucht nur etwa 20 Watt Energie, weniger als eine Glühlampe.
Intel selbst rechnet damit, dass sich das Geschäft mit den neuartigen Chips von der Mitte des kommenden Jahrzehnts an entwickeln wird. In fünf Jahren werde der Umsatz Analysten zufolge weltweit noch lediglich 69 Millionen Dollar betragen, in zehn Jahren dann aber schon auf fünf Milliarden Dollar steigen und 2034 schließlich mehr als 21 Milliarden Dollar erreichen. Zum Vergleich: Im dritten Quartal 2019 erzielte Intel Erlöse von 19,2 Milliarden Dollar.
Im Silicon Valley setzen auch Start-ups wie Brainchip auf die Technologie. Mittlerweile sind erste Systeme auf dem Markt, die Anwendungen mit Künstlicher Intelligenz beschleunigen sollen. Die neuen Intel-Partner machen sich jetzt daran, die Test-Chips erstmals zu verwenden.
Der Technologie- und Beratungskonzern Accenture will die neuartigen Bauelemente eigenen Angaben zufolge für ganz unterschiedliche, anspruchsvolle Anforderungen ausprobieren, von der Kommunikation intelligenter Fahrzeuge bis hin zur Spracherkennung.
Der Flugzeugbauer Airbus wiederum versucht mit Hilfe der Technik Schadsoftware aufspüren. Und beim Industriekonzern General Electric soll es darum gehen, die Abläufe in Fabriken zu verbessern, etwa durch autonome Inspektionen von Maschinen.
Langfristig, so ist Computerforscher Schemmel überzeugt, wird die Technologie enormen Einfluss gewinnen: Jede Art von Künstlicher Intelligenz profitiere davon – und das sei ein gigantischer Markt. Zudem gebe es vielversprechende Anwendungen in der Biologie. „Ein Rechner mit Von-Neumann-Architektur kann noch nicht einmal ein Mäusegehirn simulieren.“ Mit neuromorphen Systemen sei es künftig möglich, Hypothesen der Neurowissenschaften effizienter zu testen – „ein qualitativer und quantitativer Gewinn“.
Es wird also noch eine ganze Weile dauern, ehe das Vorhaben einen Einfluss auf die Ergebnisse von Intel hat. So bald werden sich die Forscher um Rich Uhlig in den Intel Labs in der tropischen Landschaft von Hawaii daher nicht zur Ruhe setzen können. Der neueste Chip, den sie noch vor dem Jahreswechsel vorstellen werden, heißt übrigens „Pohoiki Springs“. Es ist der Name einer heißen Quelle auf der US-Ferieninsel – ganz in Strandnähe.
Mehr: Auf dem Forschungsfeld der Quantencomputer hat Google ein Durchbruch vermeldet. Experten erwarten einen Schub für die Zukunftstechnologie.
Das Kommentieren dieses Artikels wurde deaktiviert.