Рубрики
Статьи/Блог

Провидцы и сумасшедшие, маньяки и святые: экзистенциальный риск и лонгтермизм

В последние годы среди некоторых ученых, философов и особенно в кругах, связанных с ИИ, стала популярной идея так называемого longtermism — это убеждение, что мы должны думать не только о ближайших годах или десятилетиях, но и о будущем человечества на сотни, тысячи и даже миллионы лет вперед. Сторонники этой идеи говорят: у нас может быть невероятно долгое будущее, и даже один катастрофический выбор сегодня — вроде ядерной войны или выхода ИИ из-под контроля — может навсегда прервать развитие человеческой цивилизации. Поэтому мы обязаны учитывать возможные риски, которые могут уничтожить нас как вид, и сделать все возможное, чтобы этого не произошло. Это выглядит как высокая, вдохновляющая идея, но за этим кажущимся благородством скрывается опасная и тревожная логика. Она не только отрывает нас от настоящего, но и может стать основой для нового вида власти — холодной, расчетливой, и по-настоящему античеловечной.

Материал доступен только подписчикам. Войти или Оформить подписку.