Станет ли 2024-й годом ответственного Искусственного Интеллекта? - Exclusive
Поддержать

Станет ли 2024-й годом ответственного Искусственного Интеллекта?

Начало 2024 года ознаменовалось волной прогнозов о траектории развития искусственного интеллекта (сокращённо ИИ). Эти прогнозы варьируются от оптимистичных до крайне осторожных. Тем не менее сложился ясный консенсус: ИИ уже меняет жизнь людей. И чтобы не отстать, человечество обязано эволюционировать.

У всех, кто жил во времена появления интернета и социальных сетей, революция ИИ может вызвать ощущение дежавю, а также два фундаментальных вопроса. Возможно ли сохранить нынешнюю динамику, не повторяя ошибки прошлого? Можем ли мы создать мир, в котором все, включая те 2,6 млрд человек, которые до сих пор находятся в офлайне, получат возможность для процветания?

Чтобы ИИ помог нам достичь справедливого, человекоцентричного будущего, потребуются новые, инклюзивные виды инноваций. И есть три многообещающих тенденции, которые дают нам надежду на предстоящие годы.

Во-первых, регулирование ИИ остаётся важным глобальным приоритетом. Начиная с закона Евросоюза «Об искусственном интеллекте» и заканчивая подписанным в октябре 2023 года указом президента США Джо Байдена, сторонники концепции ответственного ИИ отвечают на добровольные обязательства крупнейших технологических компаний выдвижением таких политических предложений, которые опираются на принципы равенства, справедливости и демократии. Международное сообщество во главе с недавно созданным при ООН Консультативным органом высокого уровня по вопросам ИИ (один из авторов этой статьи, Дхар, является его членом) будет помогать продвижению многих из этих инициатив в течение предстоящего года, начав с публикации промежуточного доклада «Управление ИИ для человечества».

Кроме того, этот год может запомниться как год демонтажа элитных «эхо-камер» и формирования глобального кадрового состава специалистов по этике ИИ. Глобальная инклюзивная система управления могла бы оказать определяющее влияние на ИИ в 2024 году благодаря расширению охвата таких инициатив, как Рабочая группа «Национальные ресурсы для исследований в сфере искусственного интеллекта» (сокращённо NAIRR, учреждена законом США 2020 года «Об инициативе ИИ»), а также благодаря локализации реализуемых стратегий с помощью инструментов, подобных методологии ЮНЕСКО «Оценка готовности».

Ожидается, что на национальном уровне внимание сосредоточится на вопросах регулирования контента, генерируемого ИИ, а также на расширении возможностей властей и граждан противостоять исходящим от ИИ угрозам гражданской активности. В этом году многие страны (в них проживает более 40% мирового населения) готовятся к проведению важнейших выборов, и поэтому для борьбы с надвигающимся валом дезинформации и информации, вводящей в заблуждение, потребуются проактивные меры. В числе таких мер: инициативы по повышению уровня осведомлённости общества; улучшение общей медиа-грамотности у различных возрастных групп населения; борьба с поляризацией путём объяснения важности эмпатии и взаимного обучения.

Пока правительства обсуждают роль ИИ в общественной сфере, изменения в регулировании, вероятно, спровоцируют оживление дискуссий по поводу использования новых технологий для решения важных политических задач. В качестве примера можно привести использование Индией ИИ для повышения эффективности железных дорог, а также бразильскую систему электронных платежей на основе ИИ.

Ожидается, что в 2024 году некоторые организации, например, Программа развития ООН, займутся изучением вопросов интеграции ИИ-технологий в общественную цифровую инфраструктуру (сокращённо DPI). Инициативы по установлению стандартов, например, готовящийся ООН Глобальный цифровой договор, могли бы послужить многосторонней основой для разработки инклюзивной инфраструктуры DPI. Эту работу следует сосредоточить на формировании доверия, а приоритетом должны стать нужды общества и его участие в прибылях. Кроме того, нужно придерживаться «всеобщих принципов открытого, свободного и безопасного цифрового будущего для всех».

Группы гражданского общества уже опираются на новые тенденции и используют силу ИИ ради добра. Например, некоммерческая организация Population Services International и лондонский стартап Babylon Health представили ИИ-систему проверки симптомов и поиска поставщиков медицинских услуг. Это доказывает способность ИИ помогать пользователям следить своим здоровьем. Организации Polaris и Girl Effect заняты преодолением барьеров на пути цифровой трансформации в некоммерческом секторе, обращая внимание на такие проблемы, как конфиденциальность данных и безопасность пользователей. Создавая централизованные механизмы финансирования и международные сети экспертов, а также следуя принципам союзничества, благотворительные фонды и общественные учреждения могли бы помочь в масштабировании этих инициатив. 

Поскольку НКО переходят от интеграции ИИ в свою деятельность к созданию новых ИИ-продуктов, наши представления о лидерстве и представительстве в технологическом секторе также должны измениться. Бросив вызов устаревшим представлениям о ключевых игроках в сегодняшней ИИ-экосистеме, мы получим шанс увидеть подлинное, многообразное лицо инноваций и отметить первопроходцев из различных рас, культур, гендеров и стран, одновременно признав факт сознательной маргинализации голоса меньшинств в ИИ-секторе.

Ряд организаций, например, Hidden Genius Project, Indigenous in AI и Technovation, уже создают ключевых игроков будущего, при этом особое внимание уделяется женщинам и небелым. Коллективно поддерживая их работу, мы сможем гарантировать, что они сыграют ведущую роль в формировании, внедрении и надзоре за ИИ-технологиями в 2024 году и в последующие годы.

Дебаты о том, что значит быть «человекоцентричным», и о том, какими ценностями должны руководствоваться наши общества, определят наше взаимодействие с ИИ. Многосторонние рамочные системы, например, Рекомендации ЮНЕСКО по этике искусственного интеллекта, могли бы послужить нам столь необходимым руководством. Фокусируясь на всеобщих ценностях (многообразие, инклюзивность и мир), власти и разработчики технологий могли бы определить принципы создания, развития и внедрения инклюзивных ИИ-инструментов. Интеграция этих ценностей в наши стратегии потребует взаимодействия с местными сообществами и непоколебимой приверженности равенству и правам человека.

Учитывая, что ИИ вскоре может стать таким же повсеместно распространённым, как и интернет, мы обязаны сделать выводы из успехов и провалов цифровой революции. Если оставаться на нынешнем пути, тогда появится угроза сохранения (или даже усугубления) глобального неравенства в уровне богатства, а также дальнейшего отчуждения уязвимых групп населения во всём мире.

Подтвердив нашу приверженность принципам справедливости и достоинства, мы могли бы создать новую глобальную систему, позволяющую всем людям воспользоваться выгодами технических инноваций. Мы обязаны использовать наступивший год для формирования многосторонних партнёрств и содействия наступлению будущего, в котором искусственный интеллект будет генерировать процветание для всех.

Copyright: Project Syndicate, 2024. www.project-syndicate.org

Иоланда Ботти-Лодовико

Руководитель по вопросам политики и правозащитной деятельности в Фонде Патрика Макговерна. Вилас Дхар – президент Фонда Патрика Макговерна.




Комментариев пока нет

Добавить комментарий

Ваш адрес email не будет опубликован.