Как решить проблему авторского права и искусственного интеллекта - Exclusive
Поддержать

Как решить проблему авторского права и искусственного интеллекта

Генеративный искусственный интеллект (ИИ) создаёт непредвиденные и неудобные проблемы для действующего законодательства о защите авторских прав. Американское Бюро авторского права недавно выпустило руководство, в котором говорится, что создаваемые ИИ изображения не являются объектом авторского права, если в их создании не была задействована человеческая креативность. Однако здесь остаётся много вопросов. Сколько именно требуется креативности? Является ли эта креативность такой же, как у художника, работающего кистью?

Другая группа случаев касается текстов (обычно романов и их авторов). Утверждается, что тренировка ИИ-модели на материалах, защищённых авторским правом, уже сама по себе нарушает копирайт, даже если модель не воспроизводит эти тексты как собственную продукцию. Однако чтение текстов является частью процесса обучения людей столько же времени, сколько существуют письменные языки. Мы платим деньги, покупая книги, но не платим за то, чтобы учиться с их помощью.

Как во всём этом разобраться? Что должна означать защита авторского права в эпоху ИИ? Специалист по технологиям Джарон Ланье даёт свой вариант ответа, предложив идею «достоинства данных», которая предполагает проведение различия между тренингом (или «обучением») модели и продукцией, которая была сгенерирована с использованием этой модели. По мнению Ланье, первое должно быть разрешённым видом деятельности, а вот продукция действительно может нарушать чьё-то авторское право.

Идея такого различия привлекательна по нескольким причинам. Во-первых, нынешнее авторское право защищает «преобразующее использование… которое добавляет нечто новое». Совершенно очевидно, что именно этим занимаются ИИ-модели. Более того, нельзя сказать, что большие языковые модели (например, ChatGPT) хранят полный текст, скажем, фэнтези-романов Джорджа Мартина, из которых они нагло копируют.

Напротив, ИИ-модель являет собой огромный набор параметров (основанных на всём контенте, полученном во время обучения), которые создают вероятность, что за одним словом, скорее всего, последует другое. Когда эти движки вероятности выдают сонет Шекспира, который Шекспир никогда не писал, это будет преобразующее использование, даже если новый сонет даже отдалённо не будет хорошим.

Ланье считает создание улучшенной ИИ-модели общественным благом, которое идёт на пользу всем (даже авторам, чьи работы использовались при обучении). Именно поэтому она является преобразующей, и поэтому достойна защиты. Однако с его концепцией достоинства данных имеется проблема (и он вполне её осознаёт): невозможно провести существенного различия между «обучением» нынешних ИИ-моделей и «генерацией контента», например, в стиле писательницы Джесмин Уорд.

Разработчики ИИ обучают модели, предоставляя им небольшие кусочки текста и затем требуя от них предсказать следующее слово миллиарды раз, при этом слегка меняя параметры для улучшения этого прогноза. Однако в дальнейшем тот же самый процесс используется для генерации контента, и здесь-то и возникает проблема с точки зрения авторского права.

Модель, которую попросили написать в стиле Шекспира, может начать со слова «to», и это немного повышает вероятность, что следующим окажется слово «be», а это повышает вероятность, что следующим словом станет «or» – и так далее. Впрочем, даже в этом случае невозможно связать полученную продукцию с данными обучения.

Откуда взялось слово «or»? Хотя оно было следующим словом в знаменитом монологе Гамлета, модель не копировала пьесу «Гамлет». Она просто выбрала на основе статистики слово «or» из сотен тысяч слов, среди которых она могла выбирать. Это совсем не то, что мы, люди, считаем креативностью. Модель просто максимально повышает вероятность, что мы, люди, сочтём её продукцию вразумительной.

Но как же тогда авторы смогут получать плату за свой труду в тех случаях, когда она им полагается? Хотя с нынешними генеративными ИИ-чатботами, наверное, невозможно отследить источники, история на этом не заканчивается. Примерно через год после релиза ChatGPT разработчики стали создавать приложения, используя существующие модели в качестве фундамента. Многие используют «генерацию с расширенным поиском» (RAG), которая позволяет ИИ «узнать о» контенте, которого не было в её данных обучения. Если вам надо сгенерировать текст для каталога продукции, вы можете загрузить данные своей компании, а затем отправить их ИИ-модели со следующей инструкцией: «Использовать в ответе только данные, включённые в этот запрос».

Хотя технология RAG задумывалась как способ использования частной информации, избегая необходимости её применения в трудоёмком и компьютероёмком процессе обучения, она попутно помогает установить связь между ответом модели и документами, из которых создан этот ответ. Это означает, что теперь мы можем отследить источники, что приближает нас к реализации концепции Ланье о достоинстве данных.

Если мы опубликуем в книге программу для конвертации валют, написанную человеком-программистом, а наша языковая модель воспроизведёт её в ответ на запрос, мы сможем определить авторство оригинального источника и соответствующим образом распределить роялти. То же самое применимо и к сгенерированному ИИ роману, написанному в стиле (великолепного) романа Уорд «Пой, непогребённый, пой».

Новый инструмент Google «Обобщение информации с помощью ИИ» («AI-powered overview») служит хорошим примером того, что мы можем ожидать от технологии RAG. У компании Google уже имеется лучшая в мире поисковая машина, а её инструмент, составляющий обобщения, должен уметь отвечать на запросы, проводя поиск информации и передавая лучшие найденные результаты в большую языковую модель для генерации обобщения, которое запросил пользователь. Модель обеспечивает язык и грамматику, но она получает контент из документов, включённых в запрос. Это позволяет определить источники, которые до сих пор считались неопределимыми.

Теперь, когда мы знаем, что можно генерировать контент с соблюдением авторского права и выплачивать авторам вознаграждение, на сцену должны выйти регуляторы, чтобы привлечь к ответственности компании, которые его не соблюдают. Точно так же, как их привлекают к ответственности за разжигание ненависти и другие формы неподобающего контента. Мы не должны соглашаться с утверждением компаний, предоставляющих услуги больших языковых моделей, что эта задача технически невыполнима. В реальности это лишь ещё одна из многочисленных проблем с бизнес-моделями и этикой, которые они могут и обязаны решить.

Помимо этого, технология RAG предлагает как минимум частичное решение нынешней проблемы «галлюцинаций» у ИИ. Если приложение (например, поиск Google) передаёт модели данные, необходимые для генерации ответа, тогда вероятность, что она сгенерирует нечто совершенное ложное, будет намного ниже, чем в случае, если она будет пользоваться только данными обучения. Соответственно, продукцию ИИ можно сделать более точной и достоверной, если ограничить модель источниками, считающимися надёжными.

Мы лишь начинаем понимать, что становится возможным благодаря такому подходу. Приложения на основе технологии RAG, несомненно, будут становиться более многослойными и сложными. Однако сейчас, когда у нас появились инструменты, позволяющие отследить источники, у технологических компаний больше нет оправданий своей безответственности в сфере защиты авторских прав.

Copyright: Project Syndicate, 2023. www.project-syndicate.org

Майк Лукидес

Вице-президент по контентной стратегии в компании O’Reilly Media, Inc., автор книги «Настройка работы системы» (издательство O’Reilly Media, Inc., 2002) и соавтор книг «Мощные инструменты Unix» (O’Reilly Media, Inc., 2002) и «Этика и наука о данных» (O’Reilly Media, Inc., 2018). Тим О’Рейли – основатель и гендиректор компании O’Reilly Media, Inc., приглашённый профессор Института инноваций и общественных целей при Университетском колледже Лондона, автор книги «WTF? Гид по бизнес-моделям будущего» (издательство Harper Business, 2017).




Комментариев пока нет

Добавить комментарий

Ваш адрес email не будет опубликован.