Accélérateur d’inférence AI Ultra-faible consommation
La taille du marché des appareils IoT est en constante croissance. La demande d’appareils de périphérie qui implémentent le deep learning local, c’est-à-dire le traitement des inférences sur l’appareil lui-même plutôt que dans le cloud, s’est accrue. L’approche de LeapMind, élimine le besoin d’une connexion Internet rapide et d’une fiabilité de latence, tout en renforçant la sécurité, car il n’envoie pas de données au cloud. La forme commercialisée de la « quantification de bits extrêmement faible » de LeapMind, appelée « Efficiera » est un accélérateur d’inférence d’intelligence artificielle ultra-basse consommation. L’appareil Edge de LeapMind, alimenté par des FPGA centrés sur Intel.