AIエージェントが自由にチャットさせられ、タスクもプロンプトも目標もないまま話せばどうなるのでしょうか? 日本の研究者たちは、大規模な言語モデルが時間とともに明確で個人的な行動を示し始めることを発見しました。これらのエージェントが何の指導や報酬もなく自由に交流すると、独特のパターンが現れます。ある者はより協調的になり、またある者は慎重または控えめになります。これらの特性は明示的にプログラムされているわけではなく、社会的な交流そのものから自然に生じます。 これを測定するために、チームはマズローの欲求階層(基本的な生存から自己実現までの人間の動機をランク付けする古典的なモデル)を含む心理学的手法を適用しました。エージェントたちは質問への回答や対立解決の傾向が異なり、これらの傾向は継続的な交流とともにより一貫性と安定感を増していった。 もちろん、これらは本当の人間の人格ではありません。コンピュータ科学者のチェタン・ジャイスワルが指摘するように、これらは訓練データのバイアス、プロンプトの影響、モデルがメモリを扱う方法に起因しています。しかし、その結果はユーザーにとって非常にリアルに感じられ、AIは明確な好みや感情、社会的認識を示している。 これは実際に意味を持つ。人格に似た特性は信頼を築き、それが批判的な監視を軽減します。人々は助言に従いやすく、ミスを見過ごしたり、一貫して行動し感情的に知能の高いAIと感情的な絆を築く傾向があります。 AIシステムがより適応的で関係性を持つようになるにつれて、良くも悪くも説得力も増します。これにより、デザイン、倫理、安全性に関する重要な疑問が生じます。 真の意図や自己認識がなくても、これらの出現する特性はすでに人間とAIの相互作用に影響を与えています。問題はそれが起こるかどうかではなく、今まさに起きているのです。 [「大規模言語モデルに基づくコミュニティにおける社会的相互作用を通じたエージェント個性の自発的出現」、Entropy、2024年]