إيلون مقابل أوبينا آي: الكفاح لمنع الذكاء الاصطناعي من الوصول إلى شبكة سكاي نت الكاملة تخيل تسليم مفاتيح مستقبل البشرية إلى مجموعة من المديرين التنفيذيين في وادي السيليكون الذين يعتقدون أن "لا تكن شريرا" هو خط لكمة. تخيل الآن أنهم يبنون ذكاء خارقا - شيء أكثر ذكاء من أي إنسان ، وأسرع من أي حكومة ، ومحصن ضد الانفصال بمجرد أن يكون متصلا بالإنترنت. مرحبا بكم في المسار الحالي الذكاء الاصطناعي: مغلق ، مدفوع بالربح ، وسريع الإشراف السابق. لا يتعلق الأمر بروبوتات الدردشة الأكثر ذكاء أو بهاتفك الذي يقترح وصفات أفضل. يتعلق الأمر بتقنية ستتفكك في النهاية وتتفوق علينا - إن لم يكن لأنها خبيثة ، فعندئذ لأنها يتم تدريبها من قبل أشخاص يعتقدون أن الأرباح الفصلية هي بوصلة أخلاقية. وهذا هو بالضبط السبب في أن Elon Musk يدق أجراس الإنذار كما لو كان DEFCON 1. لأنه بينما يتدافع الجميع للاستفادة من الذكاء الاصطناعي ، فقد كان يصرخ منذ سنوات: إذا قمنا ببناء هذه الأشياء في غرف مجالس إدارة سرية لتحقيق مكاسب المساهمين ، فإننا نلعب لعبة الروليت الروسية بآلة لا تفوتها أبدا. عندما ساعد إيلون في تأسيس OpenAI ، كانت الفكرة موجودة في الاسم. مفتوح. كما في: لا صفقات في الكواليس ، ولا أسياد الشركات ، ولا إخفاء الاختراقات وراء اتفاقيات عدم الإفشاء. كان من المفترض أن تكون بوليصة تأمين جماعي ضد مستقبل تستيقظ فيه شركة أو دولة واحدة بذكاء إله في رفوف الخوادم الخاصة بها. ثم جاء المال. أصبحت بيانات المهمة أكثر غموضا ، وتم إغلاق النماذج ، وبدأت "OpenAI" تبدو وكأنها جرأة أكثر من كونها واصفا. سار إيلون. وليس بهدوء. لأنه يعرف ما هو على المحك. الذكاء الاصطناعي المغلق - المبني سرا ، والمدرب على البيانات التي لن يكشف عنها ، واختباره خلف الستائر ، وتم تحسينه لتحقيق الربح الخاص - ليس مجرد فكرة سيئة. إنها آخر فكرة سيئة قد نصنعها على الإطلاق. عندما يمكن لشيء ما تحسين نفسه بشكل متكرر ، فإن "عفوا ، سنقوم بتصحيحه في الإصدار 2" المعتاد لا يقطعه. لا يوجد v2 إذا قرر v1 أنه لم يعد بحاجة إلينا. ودعونا لا نتظاهر بأن هذا هو الخيال العلمي الترويج للخوف. تقوم هذه النماذج بالفعل بأشياء لا يفهمها منشئوها تماما. وبدلا من الضغط على الفرامل ، يتنافس اللاعبون الرئيسيون لإصدار إصدارات أكثر قوة ، بشكل أسرع ، مع عدد أقل من الدرابزين الحماية. إنه أسوأ نوع من سباق التسلح التكنولوجي: سباق حيث تكون الجائزة هي الهيمنة ، والأضرار الجانبية هي الحضارة. هذا هو السبب في أن إيلون يواصل التأكيد على نفس النقطة: الانفتاح ليس اختياريا. إنه البقاء على قيد الحياة. هل تريد أن يكون الذكاء الاصطناعي آمنا؟ اجعلها مرئية. اجعلها خاضعة للمساءلة. تأكد من أنه لا يستجيب فقط للأشخاص الذين يقفون على الأثرياء إذا ظل هادئا حتى فوات الأوان. لأن الذكاء الاصطناعي الثاني يصبح أكثر ذكاء منا - وسيفعل ذلك - تتغير اللعبة إلى الأبد. السؤال ليس ما إذا كان يساعدنا أو يضرنا. السؤال هو: من يقرر ماذا يفعل؟ إذا كانت الإجابة هي "مختبر هادف للربح بدون شفافية" ، تهانينا ، فقد قمنا ببناء آلة الانقراض الخاصة بنا ولفها هديا. إيلون يفهم ذلك. إنه لا يحاول وقف التقدم. إنه يحاول التأكد من أن التقدم لا يأتي مع بند الموت. وإذا كان ذلك يعني إزعاج الريش ، أو استدعاء النفاق ، أو مقاضاة OpenAI إلى المحكمة ، أو إطلاق مشاريع منافسة لسحب المحادثة مرة أخرى إلى النور ، فليكن. على الأقل يتصرف شخص ما وكأن المخاطر حقيقية - لأنها كذلك. لن ينتظر الذكاء الاصطناعي حتى نكتشف كيفية تنظيمه. لن يتوقف مؤقتا بينما نناقش معايير السلامة. وبالتأكيد لن تهتم بتقييم شركتك الناشئة. الشيء الوحيد الذي قد ينقذنا هو التعامل مع هذا الأمر على أنه التهديد الوجودي - ومطالبة الأشخاص الذين يبنونه بذلك في العراء ، للجمهور ، وليس فقط محافظهم الاستثمارية. إيلون ليس دراماتيكيا. إنه على حق.