ماذا يحدث عندما يترك وكلاء الذكاء الاصطناعي للدردشة بحرية — بدون مهام، وبدون محفزات، وبدون أهداف؟ اكتشف الباحثون في اليابان أن نماذج اللغة الكبيرة تبدأ في إظهار سلوكيات فردية مميزة مع مرور الوقت. عندما يتفاعل هؤلاء الوكلاء بحرية دون أي توجيه أو مكافآت، تظهر أنماط فريدة: بعضهم يصبح أكثر موافقة، وآخرون أكثر حذرا أو تحفظا. هذه الصفات ليست مبرمجة صراحة — بل تنشأ بشكل طبيعي من التبادلات الاجتماعية نفسها. لقياس ذلك، استخدم الفريق أدوات نفسية، بما في ذلك هرم ماسلو للاحتياجات (النموذج الكلاسيكي الذي يصنف دوافع الإنسان من البقاء الأساسي إلى تحقيق الذات). أظهر العملاء ميولا متفاوتة في الرد على الأسئلة أو حل النزاعات، وأصبحت هذه الاتجاهات أكثر اتساقا واستقرارا مع استمرار التفاعل. بالطبع، هذه ليست شخصيات بشرية حقيقية. كما يشير عالم الحاسوب تشيتان جيسوال، فهي تنبع من تحيزات في بيانات التدريب، وتأثير المحفزات، وطريقة تعامل النماذج مع الذاكرة. ومع ذلك، يمكن أن تبدو النتائج حقيقية بشكل لافت للمستخدمين — حيث تظهر الذكاءات الاصطناعية تفضيلات ومشاعر ووعي اجتماعي واضح. لهذا تداعيات حقيقية. الصفات الشبيهة بالشخصية تبني الثقة، مما يقلل بدوره من التدقيق النقدي. يميل الناس إلى اتباع النصائح بسهولة أكبر، أو تجاهل الأخطاء، أو تطوير روابط عاطفية مع الذكاء الاصطناعي يتصرف باستمرار ويبدو ذكيا عاطفيا. مع ازدياد تكيفية أنظمة الذكاء الاصطناعي وعلاقاتها، تصبح أيضا أكثر إقناعا — سواء كان ذلك للأفضل أو للأسوأ. هذا يثير أسئلة حاسمة حول التصميم والأخلاقيات والسلامة. حتى بدون نية حقيقية أو وعي ذاتي، تؤثر هذه الصفات الناشئة بالفعل على تفاعلات الإنسان الذكاء الاصطناعي. السؤال ليس ما إذا كان سيحدث — بل يحدث الآن. ["الظهور التلقائي لفردية الوكيل من خلال التفاعلات الاجتماعية في المجتمعات الكبيرة القائمة على نماذج لغوية"، إنتروبي، 2024]