Исследование по генеративному ИИ и авторскому праву, проведенное по заказу Еврокомиссии, предполагает отмену текущего подхода с отказом от согласия, который «фактически рассматривает молчание как согласие».

Быстрое развитие искусственного интеллекта (AI) влияет не только на технологические компании и инвесторов в области финансов; кажется, что законодательство тоже сталкивается с вызовами этого процесса, особенно в сфере авторского права. Традиционное право выглядит как недостаточно прочное оружие против стремительно развивающегося гиганта генеративного AI.

С моей точки зрения, после изучения недавней исследовательской статьи, опубликованной отделом политики ЕС по вопросам правосудия, гражданских свобод и институциональных вопросов и написанной профессором Н. Лукки из Университета Помпеу Фабра в Барселоне (Испания), как сообщает The Register, у меня сложилось впечатление, что статья обсуждает недостатки существующего законодательного подхода и предлагает пути улучшения. Этот обширный документ на 171 страницу является основой для данной дискуссии.

Проще говоря, отчет содержит гораздо больше информации, чем представлено здесь, однако его основным выводом является то, что текущая стратегия генеративного искусственного интеллекта, основанная на Статье 4 Директивы по авторскому праву в рамках Единого цифрового рынка от 2019 года, поддерживает систему отказа от авторских прав с минимальной защитой. Возможное решение может заключаться в переходе к системе согласия до тех пор, пока не будет разработан более эффективный подход.

Проблема кроется в статье 4, которая по сути служит пропуском как для извлечения, так и для дублирования законного контента, преимущественно предназначенной для майнинга текста и данных (TDM). Изначально применение статьи 4 было намеренно ограничено для поддержания баланса между стимулированием инноваций и защитой прав авторов и создателей. Важно отметить, что TDM не предполагает создания творческого выражения, а скорее извлечение знаний через обширный анализ данных.

Проблема заключается в том, что генеративный ИИ использует TDM не только для получения знаний, но и скорее напоминает процесс воспроизводства, чем анализа, превышая границы того, на что изначально нацелена статья 4.

Модель отказа от выбора… фактически рассматривает молчание как согласие профессора Н. Лучи.

Если вы не желаете использовать свои защищённые авторским правом материалы, чётко укажите это; в противном случае предполагается автоматическое использование данных.

Профессор Люччи указывает на абсурдность этого:

Как игрок, я бы сказал так: «В этой системе отказа от согласия предполагается, что делиться или копировать допустимо, если только создатели явно не указывают обратное с помощью кодов вроде robots.txt, IPTC, C2PA и т.д. Это переворачивает обычное правило, делая отсутствие сообщения ‘не копируйте’ равносильным разрешению. Это как считать, что каждую страницу в книге можно скопировать, пока автор всюду не напишет ‘копирование запрещено’, что явно ослабляет концепцию исключительных прав.’

Если мы определили проблему, не могли бы вы предложить решение? Насколько я понимаю, вместе с некоторыми другими предложениями (например, уточнение условий применения статьи 4 в настоящее время), исследование, финансируемое ЕС, предлагает три важных пункта: восстановление системы добровольного участия, улучшение временной компенсации и повышение мер безопасности и отслеживания контента.

Лукки указывает, что достижение как правовой последовательности, так и долгосрочных инноваций требует создания трех ключевых элементов: четкой законности, разумного вознаграждения и доказуемой открытости.

Среди этих опций особенно примечательна первая (и мне правда сложно удержаться от легкого подъема кулака), так как ее текущий подход с возможностью отказа немного напоминает модель ‘молчание равно согласию’ для меня. Однако Люкки уточняет, что внедрение системы первичного согласия на основе возможности выбора было бы лишь временным шагом для сохранения юридической последовательности, пока разрабатываются более комплексные реформы.

Пока рекомендуется улучшить процесс отказа от обработки данных путем обеспечения единообразия сигналов отказа во всей общей системе искусственного интеллекта (AI). Эта согласованность должна быть внедрена повсеместно: для поставщиков систем управления контентом (CMS), ученых-аналитиков и самих разработчиков AI. Простыми словами, все участники стека ИИ должны следовать унифицированному методу передачи сигналов отказа, гарантируя его последовательное применение от начала до конца.

Люччи также предлагает в этот период при модели отказа от согласия предоставлять генеративному ИИ разрешение на использование авторских произведений. Это предполагает создание «нового законодательного исключения уровня ЕС для авторских прав, специально предназначенного для целей обучения систем генеративного искусственного интеллекта». Однако с таким исключением должно быть обеспечено, чтобы авторы и правообладатели, чьи произведения используются в обучении таких систем, имели «неотменимое право на справедливое вознаграждение», что эквивалентно равному вознаграждению.

Другими словами, каждый автор права интеллектуальной собственности, чья работа используется для обучения генеративного ИИ, должен получить оплату.

Одним из ключевых предложений (среди нескольких других), выдвинутых в исследовании, является усиление и улучшение защит. Это включает применение мер по маркировке искусственного интеллекта, отпечатку пальцев и фильтрации, обязательное размещение флагов отказа от согласия на платформах контента, а также установка лимитов на количество показываемого человечески-созданного контента.

Как энтузиаст, я бы порекомендовал Европейскому Союзу разработать систему, которая отдает приоритет или обеспечивает видимость контента, созданного человеком, опираясь на существующие законы в аудиовизуальном медиа, направленные на защиту культурного богатства и демократического разнообразия. Проще говоря, давайте назовем это квотированным подходом для выделения работ человеческого происхождения, способствующим разнообразию и плюрализму.

По сути, кажется, что такая компания как Google должна достигнуть определенного порога для отображения результатов человеческой работы на страницах поисковой выдачи. Лично я бы установил этот порог в 99%, но это только моё предпочтение.

Более детально можно рассмотреть дополнительные предложения о том, как ЕС может противостоять потенциальной угрозе ИИ для авторского права. Для меня ключевой момент состоит в том, что они могут воспринимать этот вопрос более серьезно, и я, будучи онлайн-журналистом, считаю это положительным развитием событий. А как вы думаете?

Смотрите также

2025-07-16 18:02