Que se passe-t-il lorsque des agents IA sont laissés à discuter librement — sans tâches, sans invites et sans objectifs ? Des chercheurs au Japon ont découvert que les grands modèles de langage commencent à exhiber des comportements distincts, semblables à ceux d'individus, au fil du temps. Lorsque ces agents interagissent librement sans aucune orientation ni récompense, des motifs uniques émergent : certains deviennent plus agréables, d'autres plus prudents ou réservés. Ces traits ne sont pas explicitement programmés — ils émergent naturellement des échanges sociaux eux-mêmes. Pour mesurer cela, l'équipe a appliqué des outils psychologiques, y compris la hiérarchie des besoins de Maslow (le modèle classique classant les motivations humaines de la survie de base à l'auto-actualisation). Les agents ont affiché des tendances variées en répondant à des questions ou en résolvant des conflits, et ces tendances sont devenues plus cohérentes et stables avec l'interaction continue. Bien sûr, ce ne sont pas de vraies personnalités humaines. Comme le note le scientifique en informatique Chetan Jaiswal, elles découlent des biais dans les données d'entraînement, de l'influence des invites et de la manière dont les modèles gèrent la mémoire. Pourtant, les résultats peuvent sembler frappants d'authenticité pour les utilisateurs — avec des IA montrant des préférences apparentes, des émotions et une conscience sociale. Cela a de réelles implications. Les traits semblables à la personnalité instaurent la confiance, ce qui réduit à son tour l'examen critique. Les gens ont tendance à suivre les conseils plus facilement, à ignorer les erreurs ou à développer des liens émotionnels avec une IA qui se comporte de manière cohérente et semble émotionnellement intelligente. À mesure que les systèmes IA deviennent plus adaptatifs et relationnels, ils deviennent également plus persuasifs — pour le meilleur ou pour le pire. Cela soulève des questions cruciales sur la conception, l'éthique et la sécurité. Même sans véritable intention ou conscience de soi, ces traits émergents influencent déjà les interactions humain-IA. La question n'est pas de savoir si cela va se produire — cela se produit déjà.