Wie ein hirninspirierter Chip GPUs ineffizient wirken lässt

Wie ein hirninspirierter Chip GPUs ineffizient wirken lässt

·5 Min. LesezeitTechnologie und Werkzeuge

Technologische Umbrüche beginnen nicht immer mit einem großen Knall. Manchmal beginnen sie mit einer unangenehmen Einsicht: Wir verwenden für bestimmte Aufgaben sehr leistungsfähige Maschinen, obwohl ein wesentlich sparsamerer Ansatz ausreichen könnte. Genau diese Einsicht drängt sich nun bei neuromorphen Chips auf. Sie orientieren sich nicht am klassischen Taktprinzip moderner Prozessoren, sondern an der Arbeitsweise biologischer Nervenzellen.

Wie ein Beitrag in der IEEE Spectrum beschreibt, hat ein Team der Sandia National Laboratories gezeigt, dass sich partielle Differentialgleichungen mit der Finite-Elemente-Methode auf neuromorpher Hardware lösen lassen. Das ist keine Spielerei. Solche Gleichungen tauchen in der Strukturmechanik, der Strömungssimulation und in vielen anderen Bereichen wissenschaftlichen Rechnens auf. Als Plattform diente Intels Loihi 2.

Die eigentliche Provokation liegt in den Größenordnungen

Wirklich brisant wird das Thema erst, wenn man nicht nur auf das Forschungsergebnis selbst, sondern auf die potenzielle Skalierung schaut. Laut Intel besteht das System Hala Point aus 1.152 Loihi-2-Chips in einem Gehäuse von etwa Mikrowellengröße. Das System bringt es auf 1,15 Milliarden künstliche Neuronen und 128 Milliarden Synapsen. Für passende Workloads nennt Intel eine Rechenleistung von bis zu 20 Petaops.

Hinzu kommen Angaben, die in der Branche nicht ignoriert werden können: bis zu 100-fach geringerer Energiebedarf und bis zu 50-fach höhere Geschwindigkeit gegenüber konventionellen CPU- und GPU-Architekturen bei vergleichbaren Aufgaben. Solche Formulierungen müssen selbstverständlich sorgfältig gelesen werden, denn sie gelten nicht universell. Gleichwohl legen sie nahe, dass das bisherige Paradigma des energieintensiven Parallelismus nicht für jede KI-Anwendung die beste Antwort ist.

Noch anschaulicher wird dies in einem von der Interesting Engineering aufgegriffenen Anwendungsfall aus der vorausschauenden Wartung. Dort lag der Energiebedarf pro Inferenz bei 11,3 Joule auf einem x86-Prozessor, während neuromorphe Hardware mit 0,0032 Joule auskam. Das ist keine kleine Optimierung. Das ist ein Unterschied in einer Größenordnung, die wirtschaftliche Entscheidungen verändern kann.

Warum das Gehirn als Architekturvorbild relevant ist

Klassische Prozessoren arbeiten taktgesteuert. Transistoren schalten mit hoher Frequenz, unabhängig davon, ob zu jedem Zeitpunkt tatsächlich ein neues relevantes Ereignis verarbeitet werden muss. Das biologische Gehirn verfährt anders. Neuronen feuern nur dann, wenn ein bestimmter Schwellenwert erreicht wird. Dazwischen herrscht weitgehend Ruhe.

Neuromorphe Systeme versuchen genau dieses Prinzip technisch nutzbar zu machen. Statt kontinuierlicher Rechenaktivität setzen sie auf spiking neural networks, also Netze, die Informationen als diskrete Impulse verarbeiten. Das senkt unnötige Aktivität und reduziert Datenbewegung, die in heutigen Rechnerarchitekturen einen erheblichen Teil des Energieverbrauchs verursacht. Die Arbeit in Nature Machine Intelligence ist deshalb bedeutsam, weil sie zeigt, dass dieses Prinzip nicht nur für sensorische Spezialanwendungen taugt, sondern auch für anspruchsvolle mathematische Verfahren.

Gerade im industriellen Umfeld des DACH-Raums ist das relevant. Maschinenbau, Automatisierung, Robotik und Fahrzeugtechnik hängen zunehmend von lokaler, latenzarmer Datenverarbeitung ab. Dort zählt nicht allein maximale Rechenleistung. Dort zählen Verlässlichkeit, Stromverbrauch und Systemkosten über den gesamten Betrieb.

Der Engpass liegt derzeit beim Software-Ökosystem

So überzeugend die Hardware auf den ersten Blick wirkt, so nüchtern muss man den Stand der Entwicklung beim Programmieren betrachten. Das GPU-Ökosystem verfügt mit CUDA, PyTorch und TensorFlow über eine enorme Reife. Hinzu kommen Millionen Entwicklerinnen und Entwickler, standardisierte Abläufe und ein breites Ausbildungsangebot. Für neuromorphes Rechnen existiert ein solches Fundament bislang nur in Ansätzen.

Intel versucht, diese Lücke mit dem Open-Source-Framework Lava zu verkleinern. Dennoch bleibt die Programmierung grundlegend anders. Man entwirft nicht einfach Matrixoperationen, sondern zeitliche Dynamik, Ereignisse und Schwellwerte. Die Architektur verlangt also nicht nur neue Werkzeuge, sondern auch ein anderes Denken über Software.

Dass dies ein realer Flaschenhals ist, zeigen die vielzitierten Demonstratoren. TU Delft präsentierte eine Drohne mit neuromorpher Bildverarbeitung, die visuelle Daten deutlich schneller und zugleich energieeffizienter verarbeiten konnte. Mercedes-Benz verweist auf das Potenzial, den Rechenenergiebedarf für autonomes Fahren drastisch zu senken. Solche Beispiele belegen die technische Machbarkeit. Sie belegen aber noch nicht, dass daraus bereits ein breit nutzbares Entwickler-Ökosystem geworden ist.

Die Disruption wird wahrscheinlich seitlich kommen

Es wäre voreilig zu behaupten, neuromorphe Chips würden GPUs in absehbarer Zeit beim Training großer Modelle verdrängen. Danach sieht es gegenwärtig nicht aus. Viel plausibler ist eine seitliche Verschiebung: Neuromorphe Systeme besetzen jene Bereiche, in denen GPUs zu teuer, zu stromhungrig oder schlicht zu überdimensioniert sind.

Dazu zählen Edge-Geräte, batteriebetriebene Robotik, kontinuierliches Monitoring, industrielle Sensorik und eingebettete KI. In solchen Anwendungsfeldern zählt Effizienz häufig mehr als rohe Universalität. Gerade deshalb könnte die Technologie wirtschaftlich relevanter werden, als es die derzeit noch kleinen Marktvolumina vermuten lassen.

Was das für die Softwarepraxis bedeutet

Die entscheidende Frage lautet deshalb nicht mehr, ob neuromorphes Rechnen prinzipiell funktioniert. Die Forschung und erste Anwendungen deuten klar darauf hin, dass es funktioniert. Offen ist vielmehr, wer daraus alltagstaugliche Werkzeuge, Entwicklungsumgebungen und Geschäftsmodelle macht.

Falls das gelingt, könnte sich ein Teil der KI-Landschaft neu ordnen. Dann würde nicht mehr allein der größte Beschleuniger den Ausschlag geben, sondern die passendste Architektur für die jeweilige Aufgabe. Für Entwicklerinnen und Entwickler bedeutet das vor allem eines: Wer nur in Takten und Matrixmultiplikationen denkt, könnte einen wichtigen Teil der nächsten Hardware-Welle verpassen.

Quellen und Referenzen

  1. Nature Machine Intelligence / Sandia National Laboratories
  2. IEEE Spectrum
  3. Intel Newsroom / Sandia National Laboratories
  4. Interesting Engineering

Erfahren Sie mehr über unsere redaktionellen Standards

Das könnte Sie auch interessieren: