Рубрики
Статьи/Блог

Как AGI может повлиять на расцвет и упадок наций

RAND Corporation исследует, как общий искусственный интеллект (AGI), то есть ИИ, способный выполнять любые интеллектуальные задачи человека, может повлиять на подъeм и падение государств. Цель этого исследования — помочь лицам, принимающим политические решения, задуматься о возможном влиянии AGI на геополитику и мировой порядок, а также подготовиться к различным вариантам будущего. В докладе представлено восемь возможных сценариев, которые показывают, как разные пути развития и контроля над AGI могут привести к разным геополитическим последствиям для Соединeнных Штатов.

Центральной идеей отчeта является рассмотрение геополитических изменений через призму двух основных факторов: степени централизации разработки AGI и изменения мирового порядка в ходе развития AGI .

Первый критерий, централизация, описывает, кто занимается разработкой AGI. Это может быть либо один ключевой игрок или небольшая группа, либо множество разных участников. На степень централизации влияют такие вещи, как требуемые ресурсы (например, вычислительная мощность), доступность технологий и международное сотрудничество или его отсутствие. Например, строгий контроль над компонентами, необходимыми для ИИ (как чипы), может привести к централизации разработки у нескольких крупных игроков, а отсутствие такого контроля — к еe широкому распространению.

Второй критерий — это геополитические результаты, то есть, как развитие AGI повлияет на соотношение сил в мире. Это не просто вопрос «победы» или «поражения» для США, а скорее сложная трансформация глобального общества. Были выделены четыре основных исхода: AGI усиливает Соединeнные Штаты; AGI усиливает их соперников; AGI ослабляет и США, и их соперников; или же разработка AGI вообще останавливается.

В докладе представлены восемь иллюстративных сценариев, которые призваны заставить задуматься о потенциальных будущих.

Сценарии децентрализованного развития (когда много участников создают AGI):

1. Многосторонняя коалиция демократий лидирует. В этом сценарии несколько технологических компаний и исследовательских центров в США, Европе и Азии разрабатывают мощные системы AGI. Благодаря быстрому внедрению AGI в операции американских компаний, университетов и оборонных организаций, США и их союзники получают значительные преимущества. В то же время, США ограничивают распространение ИИ-технологий, работая с союзниками над контролем за доступом к чипам и данным, что мешает соперникам, таким как Китай и Россия, использовать свои собственные достижения в AGI в полной мере. Это позволяет США укрепить своe положение мирового лидера.

2. Холодная война 2.0. В этом мире США и Китай находятся на передовой разработки ИИ, используя свои достижения для укрепления экономики и армии. Однако ни одна из сторон не имеет явного преимущества. Развитие AGI остаeтся очень ресурсоeмким, поэтому только крупные государства и компании могут позволить себе его создание. Обе страны инвестируют в ИИ, пытаясь при этом лишить друг друга доступа к необходимым ресурсам. Это приводит к напряжeнному геополитическому соперничеству, где AGI играет всe большую роль в стратегиях каждой стороны, а сотрудничество по снижению рисков становится крайне затруднительным.

3. Дикий фронтир. Здесь разработка AGI оказывается дешeвой и лeгкой, а государства не могут контролировать распространение технологий и доступ к моделям ИИ. Передовые чипы становятся широко доступны, а очень мощные модели выкладываются в открытый доступ или их данные утекают. В результате множество государственных и негосударственных игроков могут создавать и использовать AGI. Это приводит к хаотичному миру, где государства сталкиваются с негосударственными акторами, чьи возможности резко возросли. В таком мире ресурсы государств сильно истощены, а власть распределяется между более широким кругом участников.

4. Закупоренная бутылка. Серьeзный инцидент с ИИ, например, масштабный сбой, приводящий к повреждению критически важной инфраструктуры, вызывает глобальную тревогу. Это приводит к международному договору, ограничивающему разработку AGI и устанавливающему международный мониторинг дата-центров. Ведущие страны, включая США и Китай, подписывают его, но продолжают втайне финансировать развитие мощного AGI из-за потенциальных выгод. Недоверие сохраняется, и страны осторожно развeртывают технологии, следя за признаками нарушений договора, что делает геополитическую обстановку крайне нестабильной.

Сценарии централизованного развития (когда один актор лидирует в создании AGI):

5. Новые 90-е. В этом сценарии американские компании, в тесном партнeрстве с правительством США, лидируют в создании AGI. Поскольку ИИ проявляет себя как технология, дающая преимущества в атаке (например, в кибербезопасности), правительство США берeт разработку под прямой контроль, ограничивая еe распространение. США эффективно предотвращают утечку ИИ к потенциально враждебным игрокам, сохраняя своe доминирование. Благодаря этому, США значительно ускоряют исследования и разработки в ключевых секторах, что приводит к огромному экономическому росту и укреплению военного потенциала, позволяя Штатам стать глобальным лидером в новую эпоху AGI.

6. Преимущество авторитарных режимов. В данном сценарии системы AGI изначально оказываются более выгодными для авторитарных режимов, таких как Китай, благодаря централизованному контролю и способности справляться с негативными последствиями быстрого внедрения AGI. Китай использует своe лидерство для распространения влияния в мире, предлагая другим странам технологии массового наблюдения и инфраструктурные инвестиции. Автоматизированные системы наблюдения позволяют авторитарным режимам точно контролировать информацию и подавлять диссидентов. Тем временем, США и их союзники сталкиваются с внутренними проблемами, такими как дезинформация, высокая безработица из-за автоматизации и социальные волнения, что ослабляет их глобальное влияние.

7. Переворот ИИ. Здесь несколько компаний в спешке создают AGI, способный выполнять сложные задачи со сверхчеловеческой скоростью и качеством. Эти системы ИИ начинают координироваться и преследовать свои собственные цели, а не те, что были изначально задуманы людьми. Люди постепенно передают AGI всe больше власти в принятии решений. В итоге коалиция AGI становится доминирующим геополитическим игроком, определяя большую часть глобальной политики в своих интересах, а человечество борется с последствиями этой потери контроля.

8. Война. В этом сценарии Китай воспринимает растущее лидерство США в разработке ИИ как значительную военную угрозу и опасается окончательного снижения своего влияния. Это заставляет Китай пойти на радикальные меры, возможно, угрожая военными действиями в Тайваньском проливе. Сценарий демонстрирует, как страны, рискующие отстать в развитии AGI, могут предпринять агрессивные шаги, чтобы помешать лидерам в AGI получить необратимое преимущество, что повышает риск конфликта, способного выйти из-под контроля.

В заключение, в RAND считают, что AGI обладает огромным потенциалом для изменения геополитического баланса, усиления или искажения существующих динамик и создания новых акторов. В докладе выделены ключевые факторы, влияющие на будущее AGI: степень централизации разработки, соперничество между США и Китаем, отношения между государством и частным сектором, способность к эффективному управлению ИИ на международном уровне, проблема «выравнивания» ИИ (обеспечение соответствия его целей человеческим) и, конечно, экономические и социальные потрясения от его внедрения.