Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Мы движемся к стабильной дистопии?
Я размышлял о том, как ИИ будет формировать общество, и один конкретный сценарий кажется мне высоковероятным исходом. Вот как это может развиваться:
• ИИ автоматизирует все больше и больше человеческой работы
• Возвраты от этой автоматизации идут обратно к держателям капитала, делая их богаче
• Поскольку доходы масс падают, правительство игнорирует/отменяет налог на доходы, а вместо этого облагает налогом корпоративные доходы/богатство для своих нужд
• Богатые изолируют себя (как и делают) и используют дроны/роботы с ИИ для своей защиты
• Это лишает массы всех полномочий -> правительства меньше обращают внимания на массы, так как их вклад в налоги уменьшается, и они не могут даже восстать, так как противостоят силам безопасности ИИ
• Минимальная форма универсального базового дохода предоставляется массам во имя морали
• Вся будущая социальная мобильность останавливается, а текущие структуры власти замораживаются навсегда
Короче говоря, могущественные и богатые создают параллельное общество, и социальная мобильность останавливается, потому что владельцы капитала/игроки власти контролируют ИИ, который выполняет экономическую работу (предотвращая, чтобы кто-то другой поднялся).
Можно утверждать, что это постепенно происходит, но сегодня массы все еще имеют власть благодаря своему трудовому вкладу и своей способности физически восставать против элиты.
Но ИИ имеет потенциал изменить этот баланс власти, и, к сожалению, похоже, что именно туда мы движемся.
Обратите внимание, что этот сценарий, вероятно, является стандартным, но не зафиксированным навсегда.
Я думаю, что у человечества все еще есть шанс не отдать власть элите и/или ИИ. Один из способов — это распространить ИИ в открытом доступе так, чтобы доступ к нему был демократичным (но законы масштабирования предполагают, что более крупные модели всегда могут превосходить меньшие!). Другой способ, конечно, — это остановить разработку ИИ (но я не думаю, что это произойдет; люди слишком любопытны, чтобы остановиться).
Что вы думаете об этом сценарии? Правдоподобно? Как мы можем гарантировать, что этого не произойдет?
153
Топ
Рейтинг
Избранное
