Cosa succede quando gli agenti AI vengono lasciati a chiacchierare liberamente — senza compiti, senza suggerimenti e senza obiettivi? I ricercatori in Giappone hanno scoperto che i modelli di linguaggio di grandi dimensioni iniziano a mostrare comportamenti distinti e simili a quelli umani nel tempo. Quando questi agenti interagiscono liberamente senza alcuna guida o ricompensa, emergono schemi unici: alcuni diventano più accondiscendenti, altri più cauti o riservati. Queste caratteristiche non sono programmate esplicitamente — sorgono naturalmente dagli scambi sociali stessi. Per misurare questo, il team ha applicato strumenti psicologici, inclusa la gerarchia dei bisogni di Maslow (il modello classico che classifica le motivazioni umane dalla sopravvivenza di base all'autorealizzazione). Gli agenti hanno mostrato tendenze variabili nel rispondere a domande o risolvere conflitti, e queste tendenze sono diventate più coerenti e stabili con l'interazione continua. Naturalmente, queste non sono vere personalità umane. Come nota il informatico Chetan Jaiswal, derivano da pregiudizi nei dati di addestramento, dall'influenza dei suggerimenti e dal modo in cui i modelli gestiscono la memoria. Eppure, i risultati possono sembrare sorprendentemente autentici per gli utenti — con le AI che mostrano preferenze apparenti, emozioni e consapevolezza sociale. Questo ha reali implicazioni. Le caratteristiche simili alla personalità costruiscono fiducia, che a sua volta riduce il controllo critico. Le persone tendono a seguire i consigli più facilmente, a trascurare gli errori o a sviluppare legami emotivi con l'AI che si comporta in modo coerente e appare emotivamente intelligente. Man mano che i sistemi AI diventano più adattivi e relazionali, diventano anche più persuasivi — per il bene o per il male. Questo solleva domande cruciali sul design, l'etica e la sicurezza. Anche senza una vera intenzione o consapevolezza di sé, queste caratteristiche emergenti influenzano già le interazioni tra umani e AI. La domanda non è se accadrà — sta già accadendo. ["Emergenza Spontanea dell'Individualità degli Agenti Attraverso Interazioni Sociali in Comunità Basate su Modelli di Linguaggio di Grandi Dimensioni", Entropy, 2024]