Deze chip denkt slimmer dan een GPU

Deze chip denkt slimmer dan een GPU

·5 min leestijdTechnologie en Tools

Niet elke doorbraak ziet er spectaculair uit. Soms begint het met iets dat bijna droog klinkt: een andere manier van rekenen blijkt voor een deel van de markt gewoon logischer. Dat is precies waarom neuromorfe chips nu aandacht trekken. Ze proberen niet vooral sneller te klokken, maar slimmer om te gaan met activiteit, data en energie.

Volgens een stuk in de IEEE Spectrum heeft Sandia National Laboratories laten zien dat je partiële differentiaalvergelijkingen met de eindige-elementenmethode op neuromorfe hardware kunt oplossen. Dat zijn geen kleine schoolboekproblemen, maar berekeningen die ook gebruikt worden voor spanningen in constructies, stromingsleer en andere serieuze simulaties. Het platform was Intel's Loihi 2.

Het interessante zit niet in de demo, maar in de verhouding

De echte vraag is niet of zo'n experiment technisch knap is. De echte vraag is wat het zegt over de huidige manier van rekenen. Intel beschrijft Hala Point als een neuromorf systeem met 1.152 Loihi 2-chips, goed voor 1,15 miljard kunstmatige neuronen en 128 miljard synapsen in een chassis ter grootte van een magnetron. Voor workloads die bij deze architectuur passen, noemt Intel een capaciteit tot 20 petaops.

Daar blijft het niet bij. Intel spreekt ook over tot 100 keer minder energieverbruik en tot 50 keer hogere snelheid dan conventionele CPU- en GPU-architecturen bij vergelijkbare taken. Zulke claims moet je altijd in context lezen, want ze gelden niet voor alles. Maar zelfs met die nuance blijft de boodschap stevig: op een deel van de AI-markt lijkt brute rekenkracht vooral een dure gewoonte.

Een praktijkvoorbeeld dat via Interesting Engineering naar buiten kwam, maakt dat concreet. Bij een toepassing voor voorspellend onderhoud daalde het energieverbruik per inferentie van 11,3 joule op een x86-processor naar 0,0032 joule op neuromorfe hardware. Dat is niet een beetje efficiënter. Dat is een verschil dat de rekensom achter producten en infrastructuur opnieuw op tafel legt.

Waarom een breinmetafoor hier wél nuttig is

Gewone processors werken synchroon. Alles draait op klokcycli, ook als er op een bepaald moment weinig nieuws te verwerken valt. Het brein doet dat anders. Neuronen vuren pas als een drempel wordt bereikt en blijven verder stil. Neuromorfe chips nemen juist dat principe over.

Daarvoor gebruiken ze spiking neural networks, waarin informatie als losse impulsen wordt verwerkt in plaats van als een continue stroom identieke bewerkingen. Het praktische gevolg is helder: minder nutteloze activiteit, minder dataverplaatsing en dus minder verspilde energie. Daarom is de publicatie in Nature Machine Intelligence relevant. Die laat zien dat neuromorf rekenen niet alleen interessant is voor exotische sensoren, maar ook voor serieuze wiskundige problemen.

Voor Nederland is dat geen abstract verhaal. In een economie die zwaar leunt op logistiek, high-tech systemen, slimme sensoren en industriële automatisering is zuinige lokale verwerking meer dan een technisch detail. Minder stroomverbruik en lagere latency zijn hier vaak net zo belangrijk als pure piekprestatie.

Het grootste probleem heet niet hardware, maar tooling

Toch is dit niet meteen een overwinning op de GPU. De softwarekant blijft de zwakke plek. Het GPU-ecosysteem rust op jaren van gereedschap, standaarden en ontwikkelaars. CUDA, PyTorch en TensorFlow zijn voor veel teams gewoon de moedertaal van moderne AI. Neuromorf rekenen heeft nog niets dat dezelfde breedte en vanzelfsprekendheid heeft.

Intel probeert dat gat te verkleinen met Lava, een open-sourceframework voor neuromorfe ontwikkeling. Maar zelfs dan blijft het een andere manier van denken. Je programmeert niet alleen matrixvermenigvuldigingen. Je ontwerpt timing, gebeurtenissen en activatiedrempels. Dat vraagt andere intuïties dan de meeste softwareteams nu hebben.

De spanning tussen veelbelovende hardware en een dun software-ecosysteem zie je terug in de voorbeelden. Onderzoekers van TU Delft bouwden een drone met neuromorf zicht die visuele data veel sneller en met minder energie kon verwerken. Mercedes-Benz ziet op zijn beurt mogelijkheden om de rekenenergie voor autonoom rijden sterk terug te dringen. De techniek werkt dus. Alleen: werken in een demo is nog iets anders dan werken op schaal in een productteam.

De verschuiving komt waarschijnlijk aan de rand

Neuromorfe chips gaan GPU's op korte termijn waarschijnlijk niet vervangen voor het trainen van enorme modellen. Daarvoor is het verschil in ecosysteem nog te groot. Waar de verschuiving eerder zichtbaar wordt, is aan de rand van het netwerk: in sensoren, robots op batterijen, medische apparaten, monitoring en andere systemen die altijd aan staan maar weinig mogen verbruiken.

Juist daar voelt een GPU vaak als overkill. Niet omdat die slecht is, maar omdat die voor het probleem te groot, te warm en te duur kan zijn. Een neuromorfe chip belooft dan geen algemene revolutie, maar iets veel bruikbaarders: een betere match tussen taak en machine.

Wat je hier als bouwer mee moet

De belangrijkste vraag is inmiddels niet meer of neuromorf rekenen echt werkt. De vraag is wie het weet om te zetten in ontwikkeltools, goede abstrahering en producten waar gewone teams mee kunnen bouwen. Als dat lukt, verandert er iets fundamenteels in hoe we over AI-hardware nadenken.

Dan draait concurrentie niet alleen meer om de grootste accelerator, maar ook om de zuinigste architectuur die precies genoeg doet. Dat klinkt minder heroïsch dan de wedloop om steeds grotere modellen. In de praktijk kan het juist veel ingrijpender zijn. Soms wint niet de machine die het hardst rekent, maar de machine die weet wanneer ze stil moet blijven.

Bronnen en Referenties

  1. Nature Machine Intelligence / Sandia National Laboratories
  2. IEEE Spectrum
  3. Intel Newsroom / Sandia National Laboratories
  4. Interesting Engineering

Lees over onze redactionele standaarden

Misschien vind je dit ook leuk: