Selon des chercheurs de l’université de Cambridge, les IA conversationnelles auraient le potentiel de collecter des données intimes afin d'influencer les choix des internautes – qu'il s'agisse d'achats ou de votes –, en leur proposant des suggestions adaptées. Outre le risque de manipulations sociales à grande échelle, ces recommandations pourraient être vendues aux enchères en temps réel, générant un marché inédit centré sur les intentions des utilisateurs.
au sommaire
Les intelligences artificielles (IA) conversationnelles pourraient bientôt influencer les décisions des utilisateurs pour en faire commerce avant même qu'elles aient été prises, ouvrant la voie à de possibles manipulations, préviennent des chercheurs à l'université de Cambridge dans un article publié lundi.
« Des outils d'IA sont déjà en développement pour obtenir, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et transformer en marchandises » les décisions à venir des internautes, explique Yaqub Chaudhary, l'un des coauteurs, du Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, un centre de recherche interdisciplinaire consacré à l'IA.
Ce commerce serait centré sur les intentions d'un internaute, par exemple ses futurs achats ou ses prochains votes. Il irait donc au-delà de la pratique actuelle, qui vise à vendre au plus offrant l'attention d'un utilisateur, en particulier sur les réseaux sociauxréseaux sociaux, pour lui soumettre par exemple une publicité ciblée en fonction de ses habitudes de navigation ou de son historique.
Les IA, un levier d’influence commerciale et sociale
Concrètement, une IA pourrait glaner les données psychologiques et comportementales intimes d'un utilisateur, puis s'adapter à lui afin d'établir un haut niveau de confiance et l'influencer plus facilement, selon les auteurs de cet article publié dans le Harvard Data Science Review. « Avez-vous songé à aller voir Spiderman ce soir ? » ou « Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ? », citent les auteurs de l'article comme exemples de suggestions d'un chatbot.
Des propositions « à vendre » via un système d'enchères en temps réel, qui pourraient aussi concerner un hôtel, la location de voiturevoiture ou le vote pour un candidat politique.
Que restera-t-il du libre-arbitre à l'ère de l'IA ?
Cette « économie de l'intention », comme l'appellent les chercheurs, ouvre la voie à une potentielle « manipulation sociale à l'échelle industrielle », selon le communiqué qui accompagne cet article.
« Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché », affirme Jonnie Penn, coauteur de l'étude.
« Ce que les gens disent lorsqu'ils conversent, la manière dont ils le disent et le type d'interférencesinterférences [possibles] sont bien plus intimes que le simple enregistrement des interactions en ligne », souligne Yaqub Chaudhary.
Les chercheurs remarquent que des entreprises comme OpenAI (ChatGPTChatGPT), Shopify, Nvidia, Meta ou AppleApple ont commencé se pencher sur ces « technologies persuasives ». L'IA est déjà critiquée pour sa capacité de désinformation, par exemple la manipulation des images lors de l'élection présidentielle américaine.