Qu'est-ce qu'un NPU, cette nouvelle puce qui est en train d'être installée dans votre ordinateur portable ?
Les nouvelles les plus importantes de la journée

Qu’est-ce qu’un NPU, cette nouvelle puce qui est en train d’être installée dans votre ordinateur portable ?

Qu’est-ce qu’un NPU, cette nouvelle puce qui est en train d’être installée dans votre ordinateur portable ?

Une nouvelle puce dédiée à l’intelligence artificielle s’installe peu à peu dans votre ordinateur portable. À quoi sert-elle ? En avez-vous vraiment besoin ? Nos explications.

Frandroid

Depuis 2022, deux lettres sont sur toutes les lèvres : l’IA. L’intelligence artificielle sort du cadre de la science-fiction pour s’intégrer à notre vie au travers d’applications concrètes. Nos smartphones, ordinateurs, tablettes et même consoles de jeux sont désormais équipés pour gérer des tâches de calcul plus ou moins exigeantes liées à l’IA.

Des puces ont été introduites dans nos ordinateurs portables, les NPU (Unité de traitement neuronal), des unités de calcul bien plus efficaces que votre processeur pour traiter les requêtes de l’IA. Nous vous expliquons concrètement à quoi elles servent et pourquoi elles sont désormais au cœur de l’informatique grand public.

Une nouvelle puce dans nos ordinateurs

Avant d’entrer dans le vif du sujet, il convient de définir ce qu’est un SoC, dont le NPU, cette nouvelle puce, fera partie intégrante. SoC, pour System-on-Chip, est un terme associé aux smartphones, tablettes et autres PC portables.

Au lieu de mettre plusieurs puces discrètes sur un circuit imprimé comme par le passé, tout est intégré dans un seul circuit grâce à la miniaturisation : le processeur (CPU), la puce graphique (GPU), le modem, l’audio. Parfois, un SoC est également dédié à d’autres tâches comme le T2 d’Apple pour la sécurité des ordinateurs Mac.

SoC Snapdragon X Elite de Qualcomm // Source : Qualcomm

Mais ces SoC sont susceptibles d’évoluer en fonction des usages et des technologies que les constructeurs souhaitent y intégrer. L’IA arrive sur nos smartphones, mais aussi nos ordinateurs portables et il devient nécessaire d’effectuer certains de ces traitements directement sur l’appareil. On parle ici d’exécuter des modèles en langage naturel comme GPT via Copilot sous Windows, d’effectuer des traitements ou encore de la génération d’images ou encore des sous-titres automatiques et diverses fonctionnalités d’accessibilité.

Quel est l’intérêt d’une NPU ?

Comme ces IA et apprentissage automatique ont pu fonctionner en partie localement, sur l’appareilgrâce à l’intégration de puces dédiées, les NPU, pour Neural Processing Units. Chez Apple, nous l’appelons le Neural Engine, et chez Google, nous l’appelons les Tensor Processing Units pour les TPU, mais l’objectif est le même : accélérer les charges de travail liées à l’IA.

Votre processeur et votre carte graphique sont capables d’exécuter apprentissage automatiquemais ont leurs forces et leurs faiblesses à cet égard. Un NPU est dédié à la simulation d’une quantité massive de données en parallèle, pour imiter le fonctionnement des réseaux neuronaux, qui effectuent la même opération (matrice ou vecteur) des millions de fois, mais avec des paramètres différents.

Le CPU peut se concentrer sur une seule tâche d’inférence, mais avec une latence très faible, tandis que le GPU, grâce aux puces accélératrices d’IA (notamment les Tensor Cores des cartes graphiques Nvidia RTX), peut également traiter une quantité massive de données en parallèle, mais pour une consommation d’énergie bien plus élevée. Le NPU reste encore loin derrière les GPU pour les gros travaux d’inférence, comme l’exécution d’un véritable LLM en local ou la génération d’images avancées, et cela en raison de l’énorme différence en termes de TOPS et de précision de calcul.

Intel

La puissance brute d’un NPU se calcule en TOPS, pour Trillions of Operations per Second, à l’image des TFLOPS pour les GPU. Ainsi, les NPU des SoC actuels oscillent entre 40 et 50 TOPS, certaines cartes graphiques grand public dépassent largement les 1000 TOPS, mais pour une consommation bien supérieure.

Il faut également être attentif à la précision de calcul de ces puces. Indiquée sous forme d’entiers et de bits, cette valeur représente un compromis entre vitesse et précision. Ainsi, INT4, la plus petite précision, peut être utile pour les tâches où la vitesse d’exécution est une priorité.

La valeur INT8 est généralement privilégiée par les constructeurs pour calculer la puissance brute d’un NPU, offrant une précision de calcul supérieure pour une vitesse de calcul suffisamment élevée pour nos usages, comme la reconnaissance d’images ainsi que le traitement photo/vidéo de base.

Crédit photo : OtaXou

Généralement, les constructeurs raisonnent en INT8, car c’est une précision suffisante pour des usages grand public, mais les professionnels et scientifiques préféreront des précisions en 16 et même 32 bits selon leurs besoins. Ces valeurs sont plus précises, mais par ailleurs plus exigeantes en puissance brute.

A quoi servent nos machines ?

Pour les utilisateurs, c’est une question de latence et de sécurité. Certaines tâches d’IA déchargées sur le NPU sont traitées plus rapidement localement que dans le cloud, en fonction de la robustesse de la puce. Ainsi, telle ou telle tâche fonctionnera mieux localement sur le NPU ou dans le cloud en fonction de la charge de travail choisie.

Un NPU va vraiment décharger le travail du CPU et du GPU pour des tâches plus légères, comme la traduction en direct, les sous-titres automatiques de Windows ou les effets de caméra que l’on voit désormais sur Microsoft Teams ou Google Meets. Microsoft assure que le NPU est 100x plus efficace sous Windows sur toutes ces tâches que le CPU, avec donc des gains d’autonomie à la clé.

Microsoft 365 Copilot // Source : Microsoft

Sous Windows, le NPU pourra également être utilisé pour améliorer les performances de vos jeux grâce à la fonction d’upscaling AutoSR alimentée par l’IA. Sur Mac, le Neural Engine sera utilisé pour faire fonctionner Apple Intelligence, l’assistant IA d’Apple intégré à chaque facette du système.

Nous n’en sommes qu’aux prémices de l’IA locale, une connexion Internet est donc toujours nécessaire pour exécuter certaines de ces fonctionnalités. Mais les NPU deviendront plus rapides et plus précis, ouvrant la voie à d’autres applications et utilisations pour améliorer la productivité et la créativité sur les ordinateurs portables. C’est en tout cas leur promesse.


Vous souhaitez retrouver les meilleurs articles Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

Quitter la version mobile