Inquiétant ! Des chercheurs d’OpenAI estiment que GPT-4o est capable d’influencer les normes sociales des individus les plus assidus aux discussions avec le chatbot. Au point de les rendre idiots ?


au sommaire


    Dans le film Her, Joaquin PhoenixPhoenix interprète un écrivain de Los Angeles rongé par la solitude. Il fait l'acquisition de Samantha, une entité artificielle douée de sensibilité qui l'accompagne au quotidien. Il finit par en tomber amoureux. Ce n'est que du cinéma, mais la réalité n'est plus si éloignée de ce scénario qui se termine tragiquement.

    Dès l'arrivée des premiers chatbots, à force de discussions, certains utilisateurs ont également éprouvé des sentiments pour leur interlocuteur virtuel. Ce phénomène prend désormais de l'ampleur au fur et à mesure de l'amélioration des intelligences artificielles (IA). C'est notamment le cas de la dernière mouture du chatbot d'OpenAIchatbot d'OpenAI.

    Celle-ci aurait une fâcheuse tendance à amener certains utilisateurs à anthropomorphiser l'IA. Ils lui donnent de plus en plus la crédibilité que pourrait avoir un interlocuteur humain. Selon des chercheurs en sécurité d'OpenAI, à force d'interactions avec ces chatbots de plus en plus réalistes, cette confiance exacerbée pourrait inciter les utilisateurs à considérer les hallucinationshallucinations de l'IA pour des faits réels. Rappelons que ces hallucinations sont les réponses qu'une IA invente parfois lorsqu'elle n'a pas les données qui correspondent à la question posée.

    Les chercheurs estiment même que trop converser avec ces chatbots pourrait influencer les « normes sociales » des individus les plus isolés et générer une dépendance émotionnelle à l'IA. L'effet serait renforcé avec les chatbots capables de communiquer en utilisant l'audio vocal de façon fluide avec des réponses pratiquement dénuées de latence. C'est notamment le cas de GPT-4o.

    Le risque d’anthropomorphisme de l’IA par un humain devient inquiétant lors de discussions en mode vocal avec GPT4o selon les chercheurs d’OpenAI. © OpenAI
    Le risque d’anthropomorphisme de l’IA par un humain devient inquiétant lors de discussions en mode vocal avec GPT4o selon les chercheurs d’OpenAI. © OpenAI

    Quand l’IA fait perdre notre discernement

    Dans ces situations, les chercheurs en sécurité ont pu observer des testeurs humains utiliser un langage suggérant des relations fortes et intimes avec l'IA. Converser vocalement avec une IA a aussi un autre effet. L'IA est programmée pour être déférente avec son utilisateur. C'est donc toujours l'humain qui aura l'autorité finale sur la conversation. À force d'interactions comme celles-ci, un utilisateur pourrait avoir du mal à respecter les signes sociaux généraux d'une discussion avec un interlocuteur humain. Il serait alors amené à couper le dialogue, manquer de patience ou devenir blessant.

    Pire encore, les futures versions de ces modèles de langage pourraient avoir comme effet sournois de réduire le besoin des personnes de parler à d'autres humains et, finalement, de développer des relations saines. Mais tout n'est pas forcément noir puisque, à l'inverse, les personnes anxieuses peuvent gagner en confiance grâce aux conversations avec une IA. Cet entrainement naturel leur permettrait d'améliorer leurs interactions dans le monde réel.

    La sécurité mise sous le tapis des IA

    Alors que les avancées sur les nouveaux produits d'OpenAI sont permanentes, ses chercheurs en sécurité en interne ne disposent pas de la même temporalité. Ils découvrent généralement les dangers de l’IA une fois qu'elle est mise à disposition du public. Ainsi, dans cette même étude, les chercheurs de la firme ont découvert que le mode vocal avancé du modèle d'IA pouvait également imiter spontanément la voix de ses utilisateurs. En captant l'environnement sonore, ChatGPT peut décider subitement que la voix de l'utilisateur est pertinente lors de la discussion en cours et cloner d'un seul coup cette voix lors d'une réponse.

    Ce risque resterait minime selon les chercheurs, mais il pourrait inciter des personnes malveillantes à utiliser des techniques de manipulation du chatbot pour le déclencher. C'est pour cette raison que ce constat de duplication involontaire de la voix a amené la société à verrouiller la génération des voix aux seules synthèses créées par OpenAI. Reste que globalement, les travaux des chercheurs en sécurité de la firme se heurtent paradoxalement à la volonté politique de celle-ci de sortir le plus rapidement possible de nouveaux produits tout en minimisant les questions d'éthiques et de sécurité qu'ils pourraient soulever. Comme toujours : il faut être les premiers ! ...quoi qu'il en coûte.