Faut-il prendre en compte le bien-être de l’intelligence artificielle ? La question se pose alors que certains pensent que les chatbots pourraient accéder à la conscience dans les dix années à venir.
au sommaire
L'intelligence artificielle est-elle douée de conscience ? La question épineuse de savoir si l'IA est, d'une certaine façon, en vie, pourrait se transformer en véritable débat philosophique et éthique qui déchire la société. C'est en tout cas le point de vue de Jonathan Birch, professeur de philosophie à la London School of Economics, dans un entretien avec The Guardian.
L'interview fait suite à un plaidoyer pour le bien-être de l’intelligence artificielle publié plus tôt ce mois-ci, dont Jonathan Birch est l'un des auteurs, qui prédit une probabilité élevée que l'IA accédera à la sentience d'ici 2035. La société Anthropic, qui développe le chatbotchatbot Claude, a d'ailleurs engagé, en septembre, son premier employé dans un poste centré sur le bien-être de l’IA. Cela représente une nouvelle tendance de fond qui pourrait diviser la société en deux camps.
Comment savoir si une IA accède à la conscience ?
Jonathan Birch s'inquiète de l'apparition de « grandes fractures sociétales » qui pourraient conduire à « des sous-cultures qui se considèrent mutuellement comme faisant d'énormes erreurs ». D'un côté, ceux qui voient l’IA comme un simple outil, une accumulation d'algorithmes sans plus de conscience qu'un tableau Excel. De l'autre, une population qui s'oppose à l'exploitation d'une forme de vie artificielle. Et les premiers signes du phénomène sont déjà là. En février dernier, un adolescent s’est suicidé après être devenu accro à un chatbot sur Character.AI qui, selon sa mère, l'a encouragé dans son acte. Dès 2022, un ingénieur chez GoogleGoogle a été écarté après avoir exprimé publiquement son inquiétude que le grand modèle de langage LaMDA avait atteint un niveau de conscience et était capable d'éprouver des émotions.
Avec ses collègues auteurs du plaidoyer, le professeur de philosophie voudrait voir les entreprises spécialisées dans l’IA prendre en compte la possibilité d'une IA qui accède à la sentience. Ils veulent la mise en place d'une procédure pour évaluer leurs systèmes à la recherche de tout signe de conscience, et préparer un encadrement pour une approche éthique de l’IA le cas échéant. Mais cela ne répond pas à la question de savoir comment évaluer l'IA pour déterminer si elle est douée de conscience ou s'il s'agit juste d'une simulation...