Fin des spéculations... Ce 8 octobre 2024, l'Académie royale des sciences de Suède a fait savoir qu'elle avait décidé d'attribuer le prix Nobel de physique 2024 à John J. Hopfield et Geoffrey E. Hinton « pour leurs découvertes et inventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels ». Les décisions de l'Académie surprennent souvent, mais sont toujours justifiées. Les deux hommes se sont inspirés pour leurs travaux sur l'IA, qui sont derrière bon nombre d'applications miracles de celle-ci depuis plus d'une décennie, de la mécanique statistique des gaz et des aimants.


au sommaire


    Ce sont certains des pionniers de l'intelligence artificielleintelligence artificielle avec des réseaux de neuronesneurones que l'Académie royale des sciences de Suède vient de récompenser avec un prix Nobel de physique pour l'année 2024. Il s'agit du physicienphysicien états-unien John Joseph Hopfield, né le 15 juillet 1933, et de l'informaticien et psychologue cognitif britanno-canadien Geoffrey Everest Hinton, né le 6 décembre 1947. Hopfield, qui est actuellement professeur de biologie moléculaire à l'Université de Princeton, a été professeur de chimie et de biologie à Caltech de 1980 à 1996 où il était en interaction avec Feynman qui lui-même travaillera sur les réseaux de neurones de Hopfield utilisés dans la Connection Machine de Daniel Hillis.


    Dans cette vidéo, Mireille Fares nous explique ce qu'est un réseau de neurones artificiels et comment il fonctionne. Cette vidéo a été réalisée dans le cadre de la Fête de la Science 100 % numérique 2020. © Sorbonne Université

    Des neurones artificiels derrière de grandes découvertes de la physique et de l'astronomie

    Ce Nobel de physique peut surprendre de prime abord puisque cela semble récompenser des travaux d'informatique théorique. Mais il faut garder à l'esprit qu'ils reposent sur des théories issues de la physique. Mais surtout, comme le rappelle le comité Nobel, les réseaux de neurones sont employés depuis longtemps en physique et en astronomie. Ils ont ainsi contribué à la découverte du boson de Brout-Englert-Higgs en fouillant dans les données concernant les flots de particules produites par les collisions de protons dans les détecteurs du LHC. Ils sont aussi utilisés pour détecter et identifier des fluctuations de luminositéluminosité trahissant des transits planétairestransits planétaires, comme ce fut le cas avec le chasseur d'exoplanètesexoplanètes Kepler. On les retrouve même derrière la chasse aux ondes gravitationnellesondes gravitationnelles avec les détecteurs LigoLigo et VirgoVirgo ainsi que pour la formation des images de l'ombre de l'horizon des trous noirstrous noirs avec l'Event Horizon Telescope.

    Ainsi, tout comme les capteurs CCD et les détecteurs de Georges Charpak ont fait avancer l'astrophysiqueastrophysique et la physique des particules, il en est de même des travaux de Hopfield et Hinton dans ces domaines.


    Une intelligence artificielle ou IA, peut faire plein de choses, mais concrètement comment une IA fonctionne-t-elle ? Découvrez à travers l'exemple du jeu de stratégie, le Go, comment une intelligence artificielle peut être programmée pour jouer à ce jeu aux milliards de configurations différentes. Machine learning, deep learning et apprentissage par renforcement n'auront plus de secrets pour vous ! Une animation-vidéo co-réalisée avec L'Esprit Sorcier. © CEA

    L'IA avec le deep learning, c'est-à-dire l'apprentissage profondapprentissage profond avec des réseaux de neurones artificiels, avait repris son essor il y a quelques années grâce au Français Yann LeCun ainsi qu'aux Canadiens Yoshua Bengio et déjà Geoffrey Hinton, qui ont reçu le 27 mars 2019 le prix Turing 2018, l'équivalent du Nobel en informatique, décerné par l'Association for Computing Machinery (ACM).

    Les trois chercheurs, en s'appuyant sur les travaux de John Hopfield qui se sont aussi avérés cruciaux, avaient fait sauter un verrouverrou remontant à la fin des années 1960 quand Marvin Minsky et Seymour Papert avaient cru avoir montré que l'on avait placé beaucoup trop d'espoir dans les possibilités d'apprentissage de l'IA basées sur les travaux de Frank Rosenblatt en 1957 avec son fameux Perceptron.

    Il est intéressant de rappeler que'en 1944 paraissait un ouvrage du grand physicien et prix Nobel de physique Erwin SchrödingerErwin Schrödinger, dont le titre était « Qu’est-ce que la vie ? ». Ses réflexions basées notamment sur ce que l'on appelle la mécanique statistique allaient beaucoup influencer les découvreurs de la structure de l'ADNADN, Francis CrickFrancis Crick et James Watson.

    L'année précédente, le neurophysiologiste Warren McCulloch et le mathématicienmathématicien Walter Pitts avaient publié un article fondateur décrivant selon eux dans les grandes lignes le fonctionnement de neurones biologiques en les représentant à l'aide de circuits électriques, posant l'une des bases de la révolution de l'intelligence artificielle (IA) au XXIe siècle, sous la forme des réseaux de neurones artificiels actuels et du deep Learning, dont certains se demandent si elle ne contient pas en germegerme l'accès à la conscience artificielle.

    Des réseaux de neurones artificiels décrits par la théorie des aimants

    Ces réseaux de neurones artificiels qui permettent par exemple de faire fonctionner ChatGPTChatGPT, marcher des robotsrobots et conduire des voituresvoitures ou chercher dans des massesmasses de données concernant des images ou des mesures des Patterns comme on dit en anglais, ce que l'on peut traduire par des motifs, schémas, structures ou régularités ont un fonctionnement qui doit lui aussi beaucoup aux équationséquations de la mécanique statistique.

    Il s'agit d'une branche de la physique qui explique comment décrire des systèmes physiques avec un grand nombre de paramètres sans les connaître avec précision, principalement quand il s'agit de retrouver les propriétés macroscopiques des objets composés de particules comme des gazgaz, des conducteurs, des aimantsaimants, des liquidesliquides etc. à partir de calculs sur des moyennes théoriques des propriétés des particules comme leurs positions et leurs vitessesvitesses. On retrouve notamment les lois de la thermodynamiquethermodynamique de ces objets comme le fait qu'un aimant ferromagnétiqueferromagnétique perd son aimantationaimantation quand on le chauffe ou au contraire en acquiert à nouveau quand il refroidit plongé dans un champ magnétiquechamp magnétique extérieur.

    Pour les curieux à ce sujet, on ne peut que recommander les chapitres des cours de physique du prix Nobel Richard Feynman expliquant ce qu'est la mécanique statistique et exposant la théorie des milieux magnétiques.

    Le comité du prix Nobel reconnaît aujourd'hui l'importance du changement de paradigme réalisé par John Hopfield au début des années 1980 non seulement avec ce qui est connu maintenant sous le nom des réseaux de neurones de Hopfield (Hopfield network)), mais aussi en montrant que le comportement de ces nouveaux réseaux était à rapprocher de celui de ce que les physiciens appellent le modèle d'Ising. Il s'agit d'une théorie issue de la mécanique statistique décrivant les propriétés thermodynamiques et magnétiques de la matièrematière sous la forme d'une population de particules douée d'un moment cinétiquemoment cinétique et d'un moment magnétiquemoment magnétique propres comme ceux des électronsélectrons. Les équations décrivant le fonctionnement de ces réseaux sont formellement les mêmes que celle de certains milieux aimantés et il faut donc comprendre cette physique pour comprendre les réseaux.

    Geoffrey Hinton allait, lui, faire un nouveau rapprochement avec un autre domaine de la mécanique statistique, à savoir la théorie cinétique des gaz que l'on doit à Ludwig Boltzmann et qui dans les mains de Hinton a donné la Boltzmann machine, voir à ce sujet le livre, libre en ligne, du regretté David MacKay qui fut un des thésards de Hopfield et bien sûr les communiqués de la fondation Nobel pour le grand public et celui pour ceux qui sont cultivés en physique et en science des ordinateurs.


    La révolution du machine learning qui a donné naissance aux voitures autonomes, à la reconnaissance faciale et aux robots qui apprennent remonte à John Hopfield, dont la carrière est aussi fascinante que les technologies que ses idées ont contribué à développer. Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle blanc en bas à droite. Les sous-titres en anglais devraient alors apparaître. Cliquez ensuite sur l'écrou à droite du rectangle, puis sur « Sous-titres » et enfin sur « Traduire automatiquement ». Choisissez « Français ». © The Franklin Institute

    Rappelons que ces dernières années, Yoshua Bengio et Geoffrey Hinton ont exprimé leur préoccupation avec l'essor du deep learning, craignant un possible scénario à la Terminator dans un horizon beaucoup plus proche qu'il ne le pensait auparavant.


    Il n’existe aucune garantie de sécurité face aux progrès de l’intelligence artificielle, prévient Geoffrey Hinton, pionnier de l’IA. Il partage ses réflexions sur les avantages et les dangers de l’IA avec Scott Pelley. Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle blanc en bas à droite. Les sous-titres en anglais devraient alors apparaître. Cliquez ensuite sur l'écrou à droite du rectangle, puis sur « Sous-titres » et enfin sur « Traduire automatiquement ». Choisissez « Français ». © 60 Minutes