au sommaire
DeepMind, la filiale de Google spécialisée en intelligence artificielle, vient de faire état d'une avancée qui pourrait faire gagner beaucoup de temps aux développeurs d'algorithmes et aussi faire grandement progresser les capacités d'apprentissage automatique des robots dans la compréhension de leur environnement. Il s'agit d'un nouveau programme de vision informatique baptisé Generative Query Network (GQN) dont le fonctionnement est détaillé dans un article paru dans la revue Science.
Ce nouvel algorithme est capable de générer des modèles en 3D d'objets et de scènes à partir de photos en 2D, le tout sans supervision humaine préalable. Le GQN travaille en s'inspirant de la manière dont le cerveau humain traite les informations visuelles et crée une représentation de l'environnement physiquephysique. Par exemple, lorsque nous voyons seulement les deux pieds d'une table, nous savons que les deux autres pieds existent. En entrant dans une pièce, nous repérons immédiatement les objets qu'elle contient et leur position, etc.
Des IA moins dépendantes des données annotées par des humains
Pour faire la même chose, la plupart des systèmes de reconnaissance visuelle s'appuient sur des données annotées par un humain décrivant en détail une scène et les objets qu'elle contient. Mais c'est un travail fastidieux. L'algorithme de DeepMind lui, sait créer une représentation en 3D en se basant sur cinq images traitées successivement par deux réseaux neuronaux. Il a appris indépendamment la forme, la taille et la couleurcouleur d'un objet puis a combiné ces informations pour produire sa représentation sous des angles multiples en prenant même en compte les variations lumineuses selon l'angle.
DeepMind espère qu'à terme ce travail permettra de créer des intelligences artificielles capables d'appréhender l'environnement physique sans que les chercheurs n'aient à les abreuver d'une énorme quantité de données. On en est encore loin. Pour le moment le Generative Query Network fonctionne avec des scènes simples comportant peu d'objets. DeepMind travaille à optimiser le système pour qu'il puisse traiter des images d'une résolution plus élevée tout en nécessitant moins de puissance de traitement et un corpus plus réduit.
L'IA Google DeepMind plus douée que les humains pour s'orienter
Article initial de AFP/Relaxnews, paru le 14/05/2018
DeepMind, la filiale de GoogleGoogle spécialisée en intelligence artificielle, a réussi un petit exploit : réaliser un programme plus efficace qu'un humain pour se déplacer dans un univers virtuel. Leur étude système a développé une représentation de l'espace similaire à celle des « cellules de grille », des neuronesneurones spécialisés dans le repérage chez les mammifèresmammifères.
Nouveau succès pour l'intelligence artificielle : un programme informatique s'oriente plus efficacement que l'Homme dans un jeu en réalité virtuelle, selon une étude publiée dans Nature. Le programme « a surpassé un joueur professionnel », « naviguant avec souplesse », « empruntant de nouveaux chemins et des raccourcis au fur et à mesure que ces derniers devenaient accessibles », expliquent des chercheurs de l'entreprise britannique Deepmind, coauteurs de l'étude, sur un blog. La filiale de Google spécialisée dans l'intelligence artificielle est également connue pour avoir développé AlphaGo qui a battu le champion du monde de jeu de go.
Le deep learning (ou apprentissage profondapprentissage profond) permet à des machines d'effectuer des tâches complexes pour lesquelles elles ont été entraînées, comme la reconnaissance vocalereconnaissance vocale ou visuelle. Cet apprentissage s'appuie sur des réseaux de neurones artificiels, des systèmes informatiques modelés sur ceux des animaux.
Comprendre le fonctionnement des cellules cérébrales
Le cerveaucerveau détermine la position dans l'espace et là où il faut aller en intégrant des signaux multiples. Mais les chercheurs ne se sont pas directement inspirés des circuits cérébraux qui agissent comme un « GPS interne » pour créer leur programme, ils l'ont uniquement entraîné à trouver sa position en fonction de sa vitessevitesse.
Selon l'étude, Andrea Banino, chercheur chez DeepMind, et ses collègues ont alors vu émerger une organisation des réseaux de neurones artificiels « fournissant une convergence frappante » avec celle observée chez les mammifères. Pour les chercheurs, leurs travaux pourraient aider à mieux comprendre le fonctionnement des cellules cérébrales humaines responsables de l'orientation dans l'espace.