NR1 de NeuReality

Arrow Electronics collabore avec NeuReality dans le domaine de l’IA

  • Arrow Electronics a collaboré au développement de la première unité de traitement adressable par réseau en 7 nm (NR1 NAPU™) intégrée dans l’unité NR1-S™ AI Inference Appliance de NeuReality.
  • Ce qui vise, selon l’entreprise, à offrir désormais des avantages concurrentiels en termes de coûts et d’économies d’énergie par rapport à l’architecture traditionnelle centrée sur le processeur.

 
Selon NeuReality, lorsqu’il est associé à des accélérateurs d’IA dans un serveur d’inférence IA, le NR1-S réduit les coûts des centres de données de 90 % et augmente 15 fois l’efficacité énergétique, tout en offrant une évolutivité linéaire sans perte de performance ni délai lors de l’ajout d’accélérateurs d’IA supplémentaires.

Les experts d’Arrow ont fourni des conseils en matière de conception logicielle et matérielle. Ils ont notamment développé et validé des micrologiciels de gestion de l’énergie. Ils ont également pris en charge le débogage du microcontrôleur (MCU) et les flux d’énergie de la plate-forme pour soutenir la mise en place réussie de la NAPU, du NR1-S et du logiciel NeuReality intégré.

Arrow a aussi contribué à sélectionner le microcontrôleur le plus approprié pour fournir l’interface entre les composants du système de la carte PCIe et du serveur. Le NR1 NAPU est un serveur sur puce personnalisé qui fournit l’intégralité des performances de chaque accélérateur d’IA dédié, d’environ 30 % aujourd’hui, jusqu’à 100 % lors de sa pleine utilisation. Ce qui vise à améliorer le rendement total et réduit les pertes de silicium. La NAPU ne se contente pas de migrer des services tels que la terminaison du réseau, la qualité de service et les pré- et post-traitements des données d’IA, mais elle améliore également le flux de données pour le volume élevé et la variété des pipelines d’IA.

L’architecture du système NeuReality permet d’éliminer le goulot d’étranglement des performances causé par l’architecture traditionnelle centrée sur le processeur, sur laquelle s’appuient aujourd’hui tous les systèmes d’inférence de l’IA et les fabricants de matériel. Par conséquent, le NR1-S améliore les coûts et l’efficacité énergétique lors de l’exécution de pipelines d’importants volumes de données d’IA et de grande variété : une préoccupation financière de premier ordre dans le déploiement des applications d’IA conventionnelles et génératives d’aujourd’hui, gourmandes en énergie.