Un groupe de chercheurs de l'Institut d'automatisation de l'Académie des sciences de la Chine (CASIA) prétend avoir développé un système d'IA qui est directement inspiré par le fonctionnement du cerveau humain. Le modèle AI, baptisé comme Spikingbrain 1.0, vise à changer radicalement le fonctionnement de l'IA. Promettant d'être plus efficace que les architectures traditionnelles de l'IA, telles que les modèles de langue bien connus basés sur des transformateurs tels que Chatgpt (Openai), Gemini (Google) ou Claude (anthropic).
Pour être exact, la grande différence entre Spikingbrain 1.0 et les modèles conventionnels réside dans la façon dont il traite les informations. Tandis que les architectures d'IA traditionnelles utilisent des mécanismes de soins de masse. Ceux-ci analysent tous les mots d'une phrase en même temps, ce nouveau modèle est basé sur les neurones PICOS, qui ne sont activés que lorsqu'ils en ont besoin, comme dans le cerveau humain. Qu'est-ce que cela signifie? Eh bien, l'IA peut se concentrer sur des mots et des connexions vraiment pertinents, en éliminant la redondance qui caractérise l'apprentissage en profondeur classique. Le résultat est un système jusqu'à 100 fois plus rapide dans les tâches longues et complexes (de 25 à 100 fois). Mieux encore, cette amélioration des performances est également liée à consommer moins d'énergie que les modèles américains.
SPIKINGBRAIN 1.0: une IA qui fonctionne comme un cerveau virtuel qui ne recoure pas au matériel NVIDIA
Selon les chercheurs, Spikingbrain 1.0 a atteint des performances comparables à celles des modèles commerciaux formés avec d'énormes quantités d'informations, mais en utilisant moins de 2% des données de formation habituelles. Ce saut d'efficacité pourrait signifier un changement radical dans le développement de l'IA. Tout cela dans une tendance actuelle qui implique de consommer de plus en plus de ressources et de données pour obtenir des améliorations marginales. Un autre aspect assez important est qu'ils ne recourent pas aux GPU Nvidia. Ces GPU sont non seulement très chers, mais aussi plus difficiles à obtenir en raison des restrictions des États-Unis.
Il est indiqué que cela imite le cerveau humain utilise des puces développées en Chine sous le nom de Metax. Qui marque une autre étape dans la stratégie chinoise pour réduire sa dépendance technologique étrangère. Malgré les déclarations des chercheurs, le projet n'a pas encore suivi le processus d'examen des paires. Autrement dit, il n'y a pas de validation indépendante qui confirme les chiffres de performance. Les experts consultés soulignent que, bien que l'inspiration biologique puisse fournir de grandes progrès dans l'efficacité, il est toujours sur le point de démontrer que ces modèles peuvent atteindre le niveau de précision et de polyvalence qui est attendu des systèmes actuels.
“Ce travail représente, selon nos connaissances, la première formation à grande échelle de LLM inspirée du cerveau sur une plate-forme qui n'est pas NVIDIA, réalisant une formation stable avec 76 000 millions de paramètres.”
04/05/2026 à 03:01
Si les informations sont confirmées, nous serions confrontés à une étape importante dans l'histoire de l'IA
Si les résultats sont confirmés, Spikingbrain 1.0 signifierait une étape importante vers une nouvelle génération de plus de «cerveau». Ce qui entraîne une réduction de la consommation d'énergie, une baisse des coûts de formation et un plus grand potentiel de déploiement dans le matériel moins spécialisé. Cela pourrait ouvrir la porte à une démocratisation de l'IA, apportant son utilisation avancée aux petites entreprises qui n'ont pas les ressources presque infinies de géants tels que Openai, Google ou Meta.
La Chine, en revanche, renforce son ambition de devenir un leader mondial de l'intelligence artificielle. Cela démontrerait qu'il est non seulement capable de suivre le rythme de l'Occident, mais d'innover avec les propres propositions inspirées de la biologie humaine.
“Spikingbrain atteint un rendement comparable à celui des bases de référence du transformateur open source, tout en utilisant des ressources de données exceptionnellement faibles (pré-entrée continue de 150 000 millions de jetons).
SPIKINGBRAIN-7B atteint une accélération supérieure à 100 fois dans le temps du premier jeton (TTFT) pour des séquences de 4 millions de jetons. Le schéma épineux proposé atteint une dispersion de 69,15%, permettant une faible opération de consommation. “
