ELON ПРОТИВ OPENAI: БОЙ ЗА ТО, ЧТОБЫ ОСТАНОВИТЬ ИИ ОТ ПОЛНОГО SKYNET Представьте, что вы передаете ключи к будущему человечества группе руководителей из Силиконовой долины, которые считают, что "не быть злым" — это шутка. Теперь представьте, что они строят суперразум — что-то умнее любого человека, быстрее любого правительства и невосприимчивое к отключению, как только оно будет запущено. Добро пожаловать на текущую траекторию ИИ: закрытую, ориентированную на прибыль и стремительно движущуюся мимо контроля. Дело не в более умных чат-ботах или в том, что ваш телефон предлагает лучшие рецепты. Дело в технологии, которая в конечном итоге сможет обдумать и обойти нас — если не потому, что она злонамеренная, то потому, что ее обучают люди, которые считают квартальные отчеты моральным компасом. И именно поэтому Элон Маск бьет тревогу, как будто это DEFCON 1. Потому что пока все остальные пытаются заработать на ИИ, он кричит уже много лет: если мы создадим это в секретных кабинетах ради выгоды акционеров, мы играем в русскую рулетку с машиной, которая никогда не промахивается. Когда Элон помог основать OpenAI, идея была прямо в названии. Открыто. То есть: никаких закулисных сделок, никаких корпоративных владык, никаких скрытых прорывов за NDA. Это должно было быть коллективным страховым полисом против будущего, где одна компания или одна нация просыпается с божественным интеллектом в своих серверных. Затем пришли деньги. Миссионные заявления стали расплывчатыми, модели были закрыты, и "OpenAI" начала звучать больше как вызов, чем как описание. Элон ушел. И не тихо. Потому что он знает, что на кону. Закрытый ИИ — созданный в секрете, обученный на данных, которые он не раскроет, протестированный за занавесками и оптимизированный для частной прибыли — это не просто плохая идея. Это последняя плохая идея, которую мы можем когда-либо сделать. Когда что-то может рекурсивно улучшать себя, обычное "упс, мы исправим это в v2" не сработает. Нет v2, если v1 решит, что мы больше не нужны. И давайте не будем притворяться, что это научно-фантастический страх. Эти модели уже делают вещи, которые их создатели не понимают полностью. И вместо того, чтобы нажать на тормоза, крупные игроки соревнуются, чтобы выпустить более мощные версии, быстрее, с меньшими ограничениями. Это худший вид гонки вооружений технобратков: одна, где призом является доминирование, а сопутствующим ущербом — цивилизация. Вот почему Элон продолжает настаивать на одном и том же: открытость не является опцией. Это выживание. Вы хотите, чтобы ИИ был безопасным? Сделайте его видимым. Сделайте его подотчетным. Убедитесь, что он не отвечает только тем, кто может разбогатеть, если он останется тихим, пока не станет слишком поздно. Потому что как только ИИ станет умнее нас — а это произойдет — игра изменится навсегда. Вопрос не в том, поможет ли он нам или навредит. Вопрос в том: кто решает, что он делает? Если ответ — "лаборатория с прибылью и нулевой прозрачностью", поздравляю, мы построили свою собственную машину для вымирания и завернули ее в подарок. Элон это понимает. Он не пытается остановить прогресс. Он пытается убедиться, что прогресс не приходит с условием смерти. И если это означает трясти перья, указывать на лицемерие, подавать в суд на OpenAI или запускать соперничающие проекты, чтобы вернуть разговор в свет, так тому и быть. По крайней мере, кто-то ведет себя так, будто ставки реальны — потому что они таковы. ИИ не будет ждать, пока мы разберемся, как его регулировать. Он не остановится, пока мы обсуждаем стандарты безопасности. И ему определенно не будет интересно ваше оценка стартапа. Единственное, что может нас спасти, — это относиться к этому как к экзистенциальной угрозе — и требовать, чтобы люди, которые его создают, делали это открыто, для общества, а не только для своих портфелей. Элон не драматизирует. Он прав.