27 декабря 2023 года на сайте американской газеты The New York Times вышла статья Майкла Гринбаума и Райана Мака под названием «The Times подала в суд на Open AI и Microsoft из-за использования работ, защищенных авторским правом». Авторы пишут, что разработчики искусственного интеллекта неправомерно использовали материалы газеты для обучения чат-ботов, которые теперь конкурируют с новостным изданием. Наша команда заинтересовалась вопросом регулирования авторского права в отношении ИИ.
Мы проанализировали статьи по данной тематике, опубликованные в российских и зарубежных СМИ, чтобы рассмотреть случаи нарушений ИИ авторского права. В ходе нашего исследования мы изучили следующие аспекты проблемы: кто несет ответственность за нейросети, и может ли добросовестное использование произведений наносить вред авторам. Наша команда также попыталась спрогнозировать, к чему приведут судебные иски против искусственного интеллекта.
Добросовестное использование материалов
На сайте The New York Times 8 января 2024 года вышла статья «Open AI заявили, что иск The New York Times против них «безоснователен» автора Кейда Метца. В тексте приводятся комментарии Open AI по поводу поданного против них иска. Представители компании считают, что использование произведений, защищенных авторским правом, для обучения своих технологий является добросовестным использованием в соответствии с законом.
Однако Кейд Метц отмечает, что иск The Times включал примеры, когда ChatGPT воспроизводил выдержки из статей газеты «почти слово в слово», и это не является добросовестным использованием. В доказательство он приводит комментарии адвоката The Times в юридической фирме Susman Godfrey Яна Кросби.
Зачастую компании, связанные с ИИ, утверждают, что легальное использование контента для обучения своих технологий возможно, так как материал является общедоступным и они не воспроизводят его полностью. На сайте FindLaw 26 декабря 2023 года вышла статья Стивена Эллисона под названием «Могу ли я подать в суд на компанию, занимающуюся ИИ, за нарушение авторских прав?». В ней автор заявляет, что доктрина добросовестного использования материалов при обучении нейросетей может нанести вред авторам.
Стивен Эллисон приводит факты в пользу защиты произведений, используемых для обучения технологий ИИ. Среди них – коммерческие цели компаний, занимающихся искусственным интеллектом, несопоставимый объем работы при создании материала, и влияние произведения, охраняемого авторским правом, на рынок. Автор приходит к выводу о неправомерности доктрины добросовестного использования в отношении ИИ.
Мы обратились к эксперту – ведущему инженеру веб-разработки ООО Effective Technologies, консультанту и участнику проекта по автоматизации фактчекинга в ННГУ им. Н.И. Лобачевского Илье Диденко с просьбой прокомментировать использование данных, защищенных авторским правом, при обучении ИИ. По его словам, их можно использовать на промежуточном этапе перед самим обучением.
В основном, когда человек распространяет данные в открытых источниках, он явно соглашается с правилами сервиса о распространении данных. В этом случае согласие не требуется. Если же человек перед распространением защитил свои права на контент, эти данные нежелательно использовать для обучения. Но их могут использовать как промежуточный этап, чтобы подготовить данные для обучения, то есть разметить самостоятельно. Например, запрещают использовать авторские рисунки, но если нейросеть решает задачу по определению стиля этих изображений, то изображение сначала нужно обработать, а уже после использовать для обучения, — отметил наш эксперт.
Кто несет ответственность за материалы ИИ
В статье Робайета Сайеда «Так что подайте на меня в суд: кто должен нести ответственность, когда ИИ совершает ошибки?», вышедшей 29 марта 2023 года на сайте Monash University, говорится о том, что вопрос об ответственности ИИ нужно рассматривать индивидуально в каждом случае.
Робайет Сайед утверждает, что ответственность применима только к юридическим и физическим лицам, а ИИ ими не является. Он приходит к выводу, что пока невозможно определить, кто виновен в ошибках искусственного интеллекта, но мы должны знать о рисках и принимать меры для их уменьшения.
Мы обратились к эксперту – проректору ННГУ им. Н.И. Лобачевского по учебной работе, доценту, кандидату юридических наук, декану юридического факультета Евгении Евгеньевне Черных, чтобы узнать мнение по поводу вопроса об ответственности за ошибки ИИ. По ее словам, вводить гражданско-правовой статус для ИИ не нужно, так как за ним всегда стоит человек и ответственность должен нести именно он.
Что касается продуктов, созданных нейросетью, то на первый план опять выходит человек. Он должен провести работу, связанную с анализом, оценкой рисков. В отношении ИИ есть одна позиция – это источник повышенной опасности. Но если взять признаки источников повышенной опасности, то современные элементы ИИ под них не попадают. Это причинение вреда, неконтролируемого со стороны человека, и тому подобное. ИИ это не подходит. У него нет гражданско-правового статуса. Исходя из этого, остается нерешенным вопрос: кто будет нести ответственность? Я считаю, что не надо вводить гражданско-правовой статус ИИ. В конце любой машины стоит человек. Привлекать к ответственности нужно его, — отметила наш уважаемый эксперт.
Судебные иски против ИИ
В ноябре 2022 года произошел первый громкий случай подачи исков против компаний-разработчиков инструментов искусственного интеллекта. На сайте GitHab Copilot Litigation 3 ноября 2022 года вышла статья Мэтью Баттерика под названием «Мы подали иск, оспаривающий GitHub Copilot, продукт искусственного интеллекта, который опирается на беспрецедентное пиратство программного обеспечения с открытым исходным кодом. Потому что ИИ должен быть справедливым и этичным для всех».
Microsoft, OpenAI и GitHub, которые разработали виртуального инструмента-помощника для программистов GitHub Copilot, обвинили в использовании для обучения помощника и модели ИИ OpenAI Codex чужого программного обеспечения с открытым исходным кодом. Его загружали в GitHub сами пользователи.
В содержании искового заявления также утверждается, что пользовательское ПО было защищено лицензией. В данный момент судебное разбирательство по этому делу продолжается.
В январе 2023 американское фотоагентство Getty Images и визуальные художники подали в суд на компании Stability AI, Midjourney и DeviantArt. На сайте Gatty Images 17 января 2023 года от имени компании была опубликована статья под названием «Заявление Getty Images», в которой говорилось о поданном на Stability AI иске.
Getty Images обвинило Stability AI в незаконном копировании и обработке миллионов изображений, защищенных авторским правом, а художники в своем коллективном иске подали жалобу об использовании без разрешения их и миллиардов других изображений из Интернета в целях обучения генеративной нейросети Stable Diffusion. В настоящее время судебное разбирательство по этому делу также продолжается.
К чему приведут судебные разбирательства
В статье Юраса Юршенеса «Как судебные иски и регулирование повлияют на ИИ в 2024 году», вышедшей на сайте Builtin 20 декабря 2023 года, автор рассматривает вопрос последствий судебных разбирательств с искусственным интеллектом.
Юрас Юршенес приходит к выводу о том, что многочисленные судебные иски к разработчикам искусственного интеллекта могут изменить правила сбора данных при обучении ИИ и положат начало регулированию этих процессов в соответствии с законами об авторских правах.
Мы обратились с просьбой присоединиться к нашей команде и дать консультацию по проблеме к студенту юридического факультета ННГУ им. Лобачевского Александру Кусакину, который предметно занимается данной тематикой и выступает с инициативой принятия федерального закона об авторских правах на произведения нейросетей с просьбой спрогнозировать исход судебных разбирательств против ИИ. По его словам, привлекать к ответственности сам искусственный интеллект или его разработчиков пока сложно, если нейросеть выдает переработанные, а не полностью скопированные продукты.
В настоящее время у нас нет конкретного пункта про то, что используют для обучения искусственного интеллекта. Если в программу ИИ вручную не вбиваются тексты, а она сама их ищет, перерабатывает и выдает как что-то свое, то здесь имеет место случай свободного использования. Кроме того, эти тексты есть в свободном доступе. Самое главное, чтобы искусственный интеллект не был заточен на простое копирование и выдачу этих текстов. Мы защищаем и права правообладателей, не только авторов. И защищаем общественно полезные цели, которые преследуются, когда искусственный интеллект обучается. Но если заложена цель просто продавать чужие тексты, то к ответственности будут привлечены владельцы нейросетей. В случае использования платной подписки и распространения материалов оттуда будет ставиться вопрос о компенсации по полной программе. Если бы это было бесплатно, то можно было бы «выехать» на общественно-полезных целях, — заявил Александр Кусакин.
Заключение
Основным аргументом защиты зарубежных компаний-разработчиков искусственного интеллекта является раздел 107 Закона об авторском праве США, где прописано, что может считаться добросовестным использованием защищённых авторским правом произведений без согласия правообладателя. Однако есть мнение, что доктрина о добросовестном использовании произведений, защищённых авторским правом, может навредить авторам этих произведений. Наш эксперт Илья Диденко считает, что защищённые авторским правом данные можно использовать на промежуточном этапе перед самим обучением нейросети.
Вопрос об ответственности за ошибки искусственного интеллекта, в том числе при нарушениях авторского права также неоднозначен: кто-то считает, что пока невозможно определить виновного, другое мнение – что ответственность должен нести стоящий за ИИ человек.
Возможно, именно практика решит этот вопрос, так как в США, например, уже два года продолжаются судебные разбирательства по искам против компаний-разработчиков искусственного интеллекта. Автор одной из рассмотренных нами статей Юрас Юршенес считает, что судебная практика по этим делам положит начало регулированию искусственного интеллекта в соответствии с законами об авторских правах. Но стоит учитывать и то, каким образом нейросеть получает и обрабатывает материалы, какие цели преследуют разработчики нейросети.
Авторы: Анна Садовина, Анастасия Титова, Алена Манина, Дарья Назарова, Александр Кусакин