Yoshua Bengio, pionnier de l’apprentissage profond, s’est exprimé sur ses craintes pour l’avenir de l’intelligence artificielle. Reconnu comme un des pères fondateurs de l’IA, il s’inquiète des abus et d’une concentration du pouvoir entre les mains d’un petit nombre.


au sommaire


    De plus en plus de spécialistes de l'intelligence artificielle redoutent les abus possibles et appellent à un cadre réglementaire plus strict. Ceci inclut Yoshua Bengio, l’un des pères fondateurs de l’IA. Tout comme Geoffrey Hinton, avec qui il a reçu le prix Turing en 2018 pour ses travaux sur l'intelligence artificielle, il avait signé un communiqué en ce sens en septembre.

    Dans une interview avec CNBC, Yoshua Bengio a donné plus de détails sur ses craintes, liées notamment à l'intelligence artificielle générale (IAG), une version de l'IA capable de rivaliser avec l'humain et qui pourrait émerger dans les prochaines années. « L'intelligence donne du pouvoir. Qui va donc contrôler ce pouvoir ?, demande-t-il. Avoir des systèmes qui en savent plus que la plupart des gens peut être dangereux entre de mauvaises mains et créer plus d'instabilité au niveau géopolitique, par exemple, ou du terrorisme ».

    Des machines très chères qui entraînent une concentration du pouvoir

    Les machines nécessaires pour entraîner l'IA coûtent très cher et seul un nombre limité de gouvernements et d'organisations auront les moyens de les construire. Pour lui, cela aura des ramifications significatives. « Il y aura une concentration du pouvoir : le pouvoir économique, qui peut être néfaste pour les marchés ; le pouvoir politique, qui peut être néfaste pour la démocratie ; et le pouvoir militaire, qui peut être néfaste pour la stabilité géopolitique de notre Planète ». Il pense que si l'humanité a plusieurs décennies devant elle, il sera possible de trouver un équilibre. Toutefois, si l'IAG débarque dans cinq ans, nous ne sommes pas prêts.

    À court terme, il s'inquiète de la désinformation et de son influence sur la politique et les opinions. En octobre, OpenAI a notamment interrompu plus de 20 opérations de désinformation utilisant ses modèles, notamment qui généraient de fausses publications pour les réseaux sociauxréseaux sociaux, en amont des élections aux États-Unis et au Rwanda. Au final, selon lui, il est urgent de réfléchir à un cadre réglementaire. Si les entreprises qui développent les IA savent qu'elles peuvent être poursuivies, avec une pénalité financière significative, elles vont œuvrer dans l'intérêt du public. Sinon, elles poursuivront leurs propres intérêts.