Богатейшие миллиардеры строят супербункеры и готовятся к концу света. Что происходит?
- Администратор
- 13 окт.
- 1 мин. чтения
Обновлено: 13 окт.

Пока обычные люди спорят, заменит ли их ИИ, миллиардеры из Кремниевой долины, похоже, готовятся к худшему.
Марк Цукерберг строит гигантский комплекс Koolau Ranch на Гавайях — с подземным убежищем, автономной энергией и продовольствием. Он отрицает, что это «бункер на случай конца света», но выглядит всё именно так.
Подобные проекты появляются у других: Рид Хоффман (LinkedIn) покупает землю в Новой Зеландии «на всякий случай», Сэм Альтман (OpenAI) тоже рассматривал побег туда в случае глобальной катастрофы.
Причина паники — страх перед собственными технологиями.
Главные разработчики искусственного интеллекта — Илья Суцкевер, Сэм Альтман, Демис Хассабис, Дарио Амодей — считают, что человечество близко к созданию общего искусственного интеллекта (AGI), который сможет мыслить как человек, а затем и превзойти нас.
Суцкевер даже говорил: «Мы построим бункер, прежде чем выпустим ОИИ».
Идея проста: если машины научатся принимать решения лучше людей, они могут взять контроль.
Футуристы называют этот момент «сингулярностью». В 1950-х её предсказал Джон фон Нейман, а в книге «Генезис 2024» Эрик Шмидт и Генри Киссинджер пишут, что вопрос не «если», а «когда».
Некоторые, как Илон Маск, видят в этом шанс — «всеобщий доход, медицина, изобилие». Другие, вроде Тима Бернерса-Ли, предупреждают: «Если что-то умнее нас, мы должны иметь возможность это выключить».
Профессор машинного обучения Нил Лоуренс (Кембридж) считает разговоры о сверхинтеллекте маркетинговым мифом:
«ОИИ так же абсурден, как идея “универсального транспортного средства”. Нет одной технологии, которая умеет всё».
Он уверен, что нынешний ИИ — это просто мощный инструмент, который помогает людям, а не угрожает им.
Главная опасность, по его мнению, в другом: мы слишком верим в легенды о будущем, забывая решать реальные проблемы — неравенство, контроль данных, приватность и дезинформацию.





