Cette puce inspirée du cerveau révèle le gaspillage des GPU
Les ruptures technologiques les plus importantes ne se présentent pas toujours comme des révolutions bruyantes. Il arrive qu'elles prennent d'abord la forme d'une gêne intellectuelle: et si nous utilisions des machines inutilement gourmandes pour des tâches qui appellent, en réalité, une autre logique de calcul? C'est ce que le calcul neuromorphique commence à suggérer avec une insistance de plus en plus difficile à écarter.
Dans un article publié par IEEE Spectrum, des chercheurs de Sandia National Laboratories ont expliqué comment ils avaient transposé la méthode des éléments finis sur du matériel neuromorphique. Il s'agit là d'équations différentielles partielles, autrement dit du langage mathématique mobilisé pour modéliser des contraintes mécaniques, des écoulements de fluides ou des phénomènes physiques complexes. Le support utilisé était Loihi 2, la puce neuromorphique d'Intel.
Ce qui dérange vraiment, ce sont les ordres de grandeur
Le point décisif n'est pas seulement que l'expérience fonctionne. Il réside dans ce qu'elle laisse entrevoir à plus grande échelle. D'après Intel, le système Hala Point rassemble 1.152 puces Loihi 2 dans un châssis de la taille d'un four à micro-ondes. L'ensemble atteint 1,15 milliard de neurones artificiels et 128 milliards de synapses, avec une capacité pouvant aller jusqu'à 20 pétaops pour les charges adaptées à cette architecture.
L'entreprise avance également des gains qui, même lus avec prudence, obligent à prendre le sujet au sérieux: jusqu'à 100 fois moins d'énergie consommée et jusqu'à 50 fois plus de rapidité que des architectures CPU et GPU conventionnelles sur des tâches comparables. Il ne faut évidemment pas extrapoler ces chiffres à toute l'IA contemporaine. Il n'en reste pas moins qu'ils fissurent une croyance très installée: celle selon laquelle la seule voie crédible consiste à multiplier la puissance brute et la dépense électrique.
Un cas d'usage relayé par Interesting Engineering rend cette tension encore plus visible. Dans un scénario de maintenance prédictive, la dépense énergétique par inférence est passée de 11,3 joules sur un processeur x86 à 0,0032 joule sur du matériel neuromorphique. À ce niveau, il ne s'agit plus d'une amélioration marginale. Il s'agit d'un changement de proportion susceptible de modifier la logique industrielle elle-même.
Pourquoi l'imitation du cerveau n'est pas ici un simple slogan
Les GPU et les CPU classiques fonctionnent selon une logique synchrone, gouvernée par l'horloge. Des milliards de commutations ont lieu chaque seconde, qu'un événement pertinent soit à traiter ou non. Le cerveau humain, lui, ne procède pas de cette manière. Les neurones s'activent lorsqu'un seuil est franchi, puis retombent dans une forme de silence.
Les architectures neuromorphiques tentent de tirer parti de ce principe en s'appuyant sur des réseaux de neurones impulsionnels, ou spiking neural networks. L'information y circule sous forme d'événements discrets plutôt que comme un flux continu d'opérations uniformes. Le bénéfice pratique est clair: moins d'activité inutile, moins de déplacements de données, donc moins d'énergie perdue. C'est précisément ce qui confère son importance à l'article publié dans Nature Machine Intelligence. Il montre que cette approche ne se limite pas aux capteurs inspirés du vivant, mais peut aussi toucher des calculs scientifiques exigeants.
Dans le contexte européen, où la question énergétique pèse de plus en plus sur les infrastructures numériques, cet argument dépasse largement le cercle des spécialistes. Pour l'industrie, la santé, la mobilité et tous les systèmes embarqués, la sobriété de calcul devient peu à peu une contrainte structurante.
Le véritable verrou se situe dans les logiciels
C'est ici que l'enthousiasme mérite d'être tempéré. L'écosystème des GPU bénéficie d'une avance considérable: CUDA, PyTorch, TensorFlow, des milliers de bibliothèques, des habitudes de développement bien ancrées et des viviers de compétences déjà formés. Le calcul neuromorphique ne dispose pas encore d'un environnement de cette maturité.
Intel tente de réduire cette distance avec Lava, son cadre logiciel open source. Cependant, programmer des systèmes fondés sur des impulsions reste fondamentalement différent de l'écriture d'opérations matricielles classiques. Il faut penser en événements, en seuils, en temporalité, et non plus seulement en couches et en tenseurs. La difficulté n'est donc pas seulement technique. Elle est aussi culturelle.
Les exemples récents illustrent parfaitement ce décalage. TU Delft a montré un drone à vision neuromorphique capable de traiter des données visuelles beaucoup plus vite tout en consommant moins d'énergie. Mercedes-Benz estime, de son côté, qu'une telle approche pourrait réduire fortement l'énergie de calcul nécessaire à la conduite autonome. La faisabilité n'est donc plus l'enjeu principal. Le vrai sujet consiste à transformer ces résultats en outils utilisables par des équipes d'ingénierie ordinaires.
Les GPU ne seront pas remplacés de front
Affirmer que les puces neuromorphiques remplaceront bientôt les GPU pour l'entraînement des grands modèles serait excessif. Rien n'indique, à ce stade, une substitution frontale. La recomposition la plus plausible est ailleurs: elle concerne les domaines où la GPU est trop coûteuse, trop énergivore ou tout simplement trop puissante pour le besoin réel.
Cela vaut pour les capteurs intelligents, les robots sur batterie, la surveillance continue, les dispositifs médicaux ou encore l'edge computing industriel. Dans tous ces cas, la latence, la sobriété et l'autonomie comptent autant que la performance brute. C'est là que l'architecture neuromorphique peut devenir économiquement convaincante.
Ce que cela change pour les métiers du logiciel
La question n'est donc plus de savoir si le calcul neuromorphique fonctionne. Les résultats accumulés suggèrent qu'il fonctionne suffisamment pour mériter une attention sérieuse. La vraie question est de savoir qui réussira à l'inscrire dans des outils, des abstractions et des pratiques de développement capables de dépasser le cercle étroit de la recherche.
Si cette étape est franchie, l'impact pourrait être profond. La compétition ne porterait plus seulement sur la machine la plus puissante, mais sur l'architecture la plus pertinente pour chaque usage. Pour celles et ceux qui conçoivent des systèmes d'IA, cela revient à une leçon simple: l'avenir ne sera peut-être pas seulement dans des modèles plus grands, mais dans des machines qui calculent moins, et calculent juste.
- #efficacité énergétique
- #semi-conducteurs
- #intelligence artificielle
- #calcul neuromorphique
- #edge computing
Sources et Références
Découvrez nos standards éditoriaux →



