Искусственный интеллект и национальная безопасность - Exclusive
Поддержать

Искусственный интеллект и национальная безопасность

Человек – это вид, создающий инструменты. Но можем ли мы контролировать эти инструменты? Когда в 1940-е годы Роберт Оппенгеймер и его коллеги-физики создали первое ядерное оружие, они беспокоились, что их изобретение может уничтожить всё человечество. Пока что этого не произошло, однако контроль над ядерными вооружениями с тех пор стал постоянной проблемой.

Сегодня таким же преобразующим нашу жизнь инструментом многие ученые считают искусственный интеллект, то есть алгоритмы и программы, позволяющие машинам выполнять задачи, для которых обычно нужен интеллекта человека. Как и предыдущие технологии общего назначения, искусственный интеллект (ИИ) обладает огромным потенциалом для добра и зла. Например, в сфере изучения рака он может за несколько минут проанализировать и резюмировать больше исследований, чем команда людей за несколько месяцев. И он может надёжно спрогнозировать структуру свёртывания белков, для определения которой учёным потребовались бы годы.

В то же время ИИ снижает издержки и барьеры для деятельности нарушителей, террористов и других злоумышленников, желающих причинить вред. Авторы нового исследования корпорации RAND предупреждают, что «маржинальные издержки воссоздания опасного вируса, аналогичного оспе, могут составлять всего $100 тысяч, а на разработку комплексной вакцины может потребоваться более $1 млрд».

Кроме того, некоторые эксперты опасаются, что продвинутый ИИ станет настолько умнее людей, что это он будет контролировать нас, а не наоборот. Оценки сроков разработки таких суперумных машин (их называют искусственным интеллектом общего назначения) варьируются от нескольких лет до десятилетий. В любом случае усиливающиеся риски даже нынешнего ИИ «узкого назначения» уже требуют повышенного внимания.

На протяжении 40 лет Аспенская стратегическая группа (она включает бывших чиновников, учёных, бизнесменов и журналистов) проводит каждое лето встречи, посвящённые той или иной проблеме национальной безопасности. На предыдущих встречах речь шла о таких темах, как ядерное оружие, кибератаки, подъём Китая. В этом году мы сосредоточили внимание на значении ИИ для национальной безопасности, анализируя как выгоды, так и риски.

В числе выгод улучшение способности анализировать огромные объемы разведданных, укрепление систем раннего предупреждения, совершенствование сложных логистических систем, проверка компьютерных кодов для повышения кибербезопасности. Однако есть и большие риски, включая создание автономного оружия, случайные ошибки в программных алгоритмах, а также ИИ-системы противников, которые могут подрывать кибербезопасность.

Китай инвестирует огромные средства в гонку вооружений в сфере ИИ, при этом у него есть ряд структурных преимуществ. Для ИИ нужны три ключевых ресурса: данные для обучения моделей; умные инженеры, разрабатывающие алгоритмы; вычислительные мощности, обеспечивающие их работу. В Китае мало правовых или конфиденциальных ограничений доступа к данным (хотя по идеологическим соображениям некоторые наборы данных оказываются ограничены), и в этой стране много ярких молодых инженеров. Сильнее всего Китай отстаёт от США в сфере передовых микрочипов, которые обеспечивают вычислительные мощности для ИИ.

Американский экспортный контроль ограничивает доступ Китая не только к этим передовым чипам, но и к дорогим голландским литографическим машинам, на которых они производятся. Согласно консенсусному мнению экспертов в Аспене, Китай отстает от США на год или два, однако ситуация нестабильна. Хотя во время встречи прошлой осенью президент Джо Байден и председатель Си Цзиньпин договорились о проведении двусторонних дискуссий об ИИ, в Аспене не очень оптимистично оценивают перспективы контроля над ИИ-вооружениями.

Особенно серьёзная угроза исходит от автономного оружия. После более десяти лет дипломатических усилий в ООН страны мира так и не смогли договориться о запрете автономного летального оружия. Международное гуманитарное право требует, чтобы военные различали солдат и гражданских лиц, а в Пентагоне уже давно действует правило, что в решениях о применении оружия должен участвовать человек. Однако в некоторых ситуациях (например, защита от прилетающих ракет) просто нет времени для вмешательства человека.

Поскольку важны конкретные условия, люди должны жёстко определить (в кодексе), что может и не может делать оружие. Иными словами, человек должен быть «над» решениями, если не может в них участвовать напрямую. Это не какие-то пустые рассуждения. В ходе Украинской войне россияне глушат сигналы украинской армии, поэтому украинцы оказались вынуждены запрограммировать свои устройства для автономного принятия финальных решений о том, когда стрелять.

Одна из самых пугающих опасностей ИИ – его применение в биологических войнах или терактах. Когда в 1972 году страны мира договорились о запрете биологического оружия, считалось, что подобное оружие не очень полезно из-за риска «бумеранга», то есть удара по тому, кто его применил. Однако синтетическая биология позволяет создать оружие, которое уничтожит одну группу населения, а другую не затронет. Или же террорист, имеющий доступ к лаборатории, может просто захотеть убить как можно больше людей, как это сделала секта «Аум Синрикё» в Японии в 1995 году. (Хотя она применила неинфекционный зарин, современные эквиваленты этой секты могут использовать ИИ для разработки заразного вируса).

Что касается ядерных технологий, то в 1968 году государства мира подписали «Договор о нераспространении ядерного оружия», к которому на сегодня присоединилась 191 страна. Международное агентство по атомной энергии регулярно инспектирует национальные энергетические программы, чтобы подтвердить их использование исключительно в мирных целях. Несмотря на острое соперничество во время Холодной войны, ведущие страны в сфере ядерных технологий договорились в 1978 году об определённых ограничениях в экспорте наиболее опасного оборудования и технических знаний. Данный прецедент открывает возможные пути вперёд в сфере ИИ, хотя, конечно, есть очевидные различия между этими технологиями.

Это банально очевидно, что технологии движутся вперёд быстрее, чем политика или дипломатия, причём особенно если их стимулирует острая рыночная конкуренция в частном секторе. Если сделать один главный вывод после встречи Аспенской стратегической группы в этом году, он таков: правительства должны повысить темп своей работы.

Copyright: Project Syndicate, 2024. www.project-syndicate.org

Джозеф Най

Cопредседатель Аспенской стратегической группы, бывший декан Гарвардской школы им. Кеннеди, бывший помощник министра обороны США, автор новой книги «Жизнь в американском веке» (издательство Polity Press, 2024 году).




Комментариев пока нет

Добавить комментарий

Ваш адрес email не будет опубликован.