au sommaire
Les images simples à interpréter (première colonne) ne passent que par une seule « couche » du réseau, ce qui nécessite peu de puissance de calcul. Plus l’image est compliquée, plus elle descend à un niveau profond, ce qui requiert plus de temps et de calculs. © Sanghyun Hong et al, arXiv.org
Les réseaux de neuronesneurones utilisés pour le deep learningdeep learning sont déjà un gouffre énergétique. Mais un nouveau type d'attaque visant ces réseaux pourrait encore aggraver la situation en les forçant à recourir à davantage de puissance de calcul. Dévoilée par le Centre de cybersécurité du Maryland, cette attaque vise en particulier les architectures multi-adaptatives, où les tâches sont divisées en fonction de leur difficulté à résoudre. Cela permet à l'ordinateurordinateur de dépenser la quantité de ressource minimale pour chacune d'entre elles, et aussi d'améliorer significativement sa vitessevitesse.
Le problème, c'est qu'en modifiant très légèrement la donnée d'entrée (par exemple en ajoutant un peu de « bruit » à une image), l'ordinateur la perçoit comme plus difficile à interpréter et va donc lui allouer une plus grande puissance de calcul. « Ce type de menace peut gaspiller de précieuses ressources informatiques ou introduire un temps de latencelatence additionnel en forçant à des transmissions excessives entre des modèles locaux et distants, décrivent les auteurs de l'article. Cette technique est susceptible de réduire l'efficacité des réseaux neuronaux profonds de 90 % à 100 % », c'est-à-dire de rendre inopérante la quasi-totalité des sorties de premier niveau (celles qui consomment le moins d'énergieénergie).
Pour l'instant, les réseaux neuronaux profonds ne concernent pas encore un grand nombre d'applicationsapplications. Mais avec le déploiement de l'intelligence artificielleintelligence artificielle (IA) dans tous les domaines, on peut craindre pour sa future facture énergétique.
Suivez Futura sur WhatsApp et Google Actualités
pour ne rien rater de l’actualité sciences & tech !