
Уже не игрушка
Можно ли защитить себя, свою личную жизнь и авторские права от искусственного интеллекта
Искусственный интеллект уже не воспринимается обществом как обычное развлечение, которое позволяет генерировать смешные картинки и вести диалог с Алисой. Он помогает писать дипломы, упрощает работу многим специалистам, но при этом часто нарушает права граждан. Можно ли поставить запрет искусственному интеллекту на сбор и анализ информации о себе, должны ли коллекторы предупреждать о том, что вы разговариваете с роботом, и приведет ли использование ИИ к изменениям в Конституции, рассказывает директор правового департамента, специалист по интеллектуальной собственности НИУ «ВШЭ» Екатерина Кирсанова.
— Искусственный интеллект уже плотно вошел в современную жизнь. Какие правовые проблемы могут возникать при использовании ИИ?
— Прежде всего, хочу сказать, что ИИ — прекрасный инструмент. Он может помочь работникам во многих отраслях, например ИТ-специалистам и юристам, которые пытаются развиваться в профессии. Конечно, всю работу за юриста он не сделает, но может значительно ее облегчить и во многом помочь.

Екатерина Кирсанова
Доцент факультета права ВШЭ, кандидат юридических наук.
Окончила юридический факультет МГУ им. М. В. Ломоносова.
Автор статей и других публикаций по темам «Цифровая экономика», «Цифровое право», «Интеллектуальная собственность», в числе которых «Обзор основных теорий определения правового режима объектов, созданных искусственным интеллектом», «Правовой режим нейросетей в условиях цифровой экономики», «Аккаунт как объект гражданских прав» и др.
В магистратуре ВШЭ ведет курс «Теоретические основы правового регулирования искусственного интеллекта».
Профиль
Но когда человек не понимает, каким образом использовать ИИ, это порождает целый ряд проблем юридического характера, и большая их часть проистекает из-за бездумного использования этого инструмента. К сожалению, очень часто искусственный интеллект воспринимается как какая-то игрушка или как волшебная палочка. В результате человек, который пытается применить его в своей работе, не видит адекватных границ. Например, он дает возможность ИИ работать с конфиденциальными данными в открытых системах, хотя на самом деле работать с ними можно только в закрытых базах. Это порождает такие последствия, как утечка данных, а также создает высокую вероятность, что загруженные данные однажды «всплывут» не в то время и не в том месте. И эту проблему потом спишут на ИИ, но она возникла из-за некорректного использования ИИ, а не из-за собственно появления ИИ. Это человеческий фактор, и проблемы тут возникают, поскольку люди не научились работать с этим инструментом.
— Можно ли типизировать самые частые вопросы, по которым сейчас идут судебные споры, касающиеся использования ИИ?
— Есть определенная категория споров о нарушении авторских прав. Например, известная история, произошедшая в США и связанная с Крис Каштановой, создательницей графического романа Zarya of the Dawn. Он был создан при помощи нейросети и первоначально был защищен авторским правом. На своей странице в соцсети художница рассказала о том, что она первая, кто смог зарегистрировать авторские права на объект, созданный с помощью искусственного интеллекта. Однако после обнародования этой информации суд отменил ей регистрацию авторских прав. Обоснование было такое: результаты деятельности искусственного интеллекта не подлежат защите, соответственно, художница не может получить именно эту правовую защиту. Аналогичные вопросы, а именно определение и защита границ авторского права, могут возникать и в российской практике.
Кроме того, есть целая серия споров, связанных с использованием искусственным интеллектом загруженных данных без согласия правообладателя и создания каких-то объектов или обучающих систем на их основе. Это сегодня один из ключевых вопросов: можно ли использовать результаты чужой интеллектуальной деятельности. Очевидно, что здесь должно быть согласие на это правообладателя. Однако на практике все не так. По умолчанию считается, что любой объект, загруженный в интернет, может быть использован как угодно и кем угодно. Это не совсем корректно с точки зрения права и порождает определенные правовые последствия и споры. Например, результат генерации нового произведения ИИ может быть очень сильно похож на первоначальный объект. Соответственно, здесь идет нарушение прав первоначального правообладателя.
— С этим можно бороться?
— Пока не совсем понятно, как с этим можно бороться. На практике, например, отдельные компании-разработчики указывают, что ответственность за использование ИИ полностью ложится на пользователя. То есть это зона его риска — проверить, что не осуществляется нарушение авторских прав и законных интересов правообладателя.
— Какие еще бывают споры по поводу использования ИИ в России?
— Есть определенная категория административных дел, которая возникла, когда у нас начали подключать роботов-коллекторов для сбора задолженности у населения. В законе они называются «автоматизированные интеллектуальные агенты». Законодательно было принято решение, что с 2024 года правомерно использовать их при общении с должниками. Используются роботы и в рекламных объявлениях. И действительно, некоторые такие «автоматизированные интеллектуальные агенты» очень точно копируют интонацию человека, так что сразу невозможно понять, с кем ты разговариваешь. Конечно, неплохо было бы, чтобы пользователь был предупрежден, что с ним разговаривает искусственный интеллект, робот. Это необходимо делать с точки зрения права и с точки зрения хорошего тона и этикета. Однако, по сути, это серая зона, за такие действия не предусмотрено санкций, и многие этим пользуются, то есть звонят, не предупреждая.
— Чем руководствуется суд, вынося решение по спорам, где фигурирует использование ИИ?
— Все юридические вопросы попадают в определенную категорию. Разница в случае ИИ заключается в том, что эти споры осложнены использованием ИИ. В суде изначально вычленяется именно тот вопрос, в отношении которого этот спор возник. Соответственно, если это какие-то споры, связанные с интеллектуальной собственностью, с авторскими правами, это часть четвертая Гражданского кодекса, и суды прекрасно экстраполируют его нормы на те же споры с использованием ИИ.
В российской Национальной стратегии развития искусственного интеллекта на период до 2030 года используются следующие определения (в редакции Указа Президента Российской Федерации от 15.02.2024 № 124):
- искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений;
- технологии искусственного интеллекта — совокупность технологий, включающая в себя компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта.
Подробности
Понятно, что юридические проблемы, связанные с искусственным интеллектом, вызваны во многом тем, что это новое явление и далеко не всегда можно найти нормы, чтобы корректно разрешить спор. Возможно, предусмотренных для конкретного события норм просто еще нет. Но в российском законодательстве есть четкие конкретные нормы, определяющие, когда использовать правила, которые могут по логике применяться для решения одних и тех же проблем. То есть это решение юридических споров по аналогии. Суды очень часто обращаются к каким-то прецедентным делам. Однако при этом, конечно, юристы оценивают, изменились ли обстоятельства в связи с тем, что использовались системы искусственного интеллекта.
— А есть ли уже решения по каким-то знаковым делам с использованием ИИ?
— Практика пока формируется. Конечно, есть отдельные решения суда, но пока нельзя говорить об устоявшейся единой практике и о формировании единого законодательства в отношении искусственного интеллекта. Так происходит во всем мире: в других странах также эта практика пока не устоялась.
— Насколько российское законодательство в регулировании вопросов ИИ идет в русле мирового?
— В отношении ИИ в мире есть разные подходы. В части стран, как, например, в Китае, практикуется осторожный подход, когда в целом ограничивается обмен и передача информации, в том числе с применением систем искусственного интеллекта. Либо происходит внедрение подхода с разграничением категорий риска, как в ЕС. Есть прецеденты, когда пытаются ограничить использование искусственного интеллекта в отдельных отраслях. У нас, в принципе, тоже есть определенные сферы использования ИИ, где есть дублирующая система безопасности. В частности, этот подход имеет место, если мы говорим о применении системы искусственного интеллекта на транспорте, при запуске беспилотников и т. д. Или если мы говорим о медицине, мы знаем, что у нас точно так же: с одной стороны, искусственный интеллект применяется, с другой стороны, есть система контроля постановки диагнозов. Врачи не доверяют постановку диагноза только ИИ.
Если мы говорим про регулирование результатов интеллектуальной деятельности, которые созданы с помощью системы искусственного интеллекта, то здесь мы также находимся в русле мировых тенденций. В России, как и во всем мире, понимают, что ИИ — это новое явление, и если мы будем очень серьезно его регулировать на начальном этапе, то, скорее всего, затормозим прогресс. Поэтому за исключением тех сфер, которые являются наиболее чувствительными, наиболее опасными и требующими дополнительной защиты, практика по использованию ИИ в России только складывается, как и во всем мире.
— По вашему мнению, учитывая бурное развитие ИИ, будет ли расти количество сложных, неоднозначных с правовой точки зрения ситуаций?
— Принципиально нам необходимо решить не так много вопросов. Один из самых главных — это вопрос авторских прав. Мы говорим о том, что все-таки по умолчанию результаты деятельности искусственного интеллекта относятся к общественному достоянию, считается, что здесь нет именно творческого труда человека. Объект, сгенерированный искусственным интеллектом, должен быть очень существенно доработан, чтобы превратиться в результат интеллектуальной деятельности. Соответственно, у нас сейчас нет понимания того, каким должен быть этот уровень доработки, чтобы объект все-таки признавался созданным творческим трудом. И нам придется решить этот вопрос.
Есть несколько путей решения этой проблемы. Либо мы должны согласиться с тем, что любое применение системы искусственного интеллекта исключает возможность получить права на созданный с помощью ИИ объект, либо мы пойдем по более либеральному пути, то есть будем говорить о том, что определенный процент доработки объекта превращает его в классический результат интеллектуальной деятельности. И мы можем здесь уже говорить о правовой защите результатов интеллектуального труда, созданных с помощью ИИ.
Другой вопрос: требуется ли согласие правообладателя на использование результатов его интеллектуальной деятельности искусственным интеллектом, может ли ИИ на ней обучаться.
— Как вы считаете, будет ли расти количество дел в судах, связанных с неправомерным использованием ИИ?
— Я думаю, что количество сложных случаев будет расти просто в связи с тем, что, во-первых, очень серьезно увеличиваются объемы использования систем искусственного интеллекта. А во-вторых, варианты использования усложняются. Если изначально ИИ воспринимался многими пользователями как развлечение, то сейчас речь идет о более серьезном использовании, которое будет выходить на новый уровень, и это будет вызывать дополнительные вопросы.
— В интернете часто размещают ролики, в которых с помощью ИИ созданы образы публичных персон и от их имени озвучены некие утверждения. Нарушается ли в таком случае закон и как могут разрешаться такие вопросы в суде?
— Это, конечно, очень проблемная история, особенно учитывая, что есть ролики, в которых якобы участвуют известные личности и которые создаются, чтобы потом совершить мошеннические действия. В них распространяются откровенные фейки, подделывается голос другого человека, его образ. В этом случае искусственный интеллект — это всего лишь инструмент. И, соответственно, действия, направленные на создание ложного впечатления, что какая-то публичная личность выступала с некими заявлениями либо какой-то гражданин давал согласие на проведение банковской операции, — это мошенничество. Так их и будет суд квалифицировать.
Статья 152 Гражданского кодекса направлена на охрану изображения гражданина. Согласно ей, обнародование и дальнейшее использование изображения гражданина (в том числе его фотографии, а также видеозаписи или произведения изобразительного искусства, где он изображен) допускаются только с согласия гражданина. То же самое относится и к использованию голоса человека. Его также нельзя генерировать и использовать без согласия гражданина. Вопрос в данном несанкционированном использовании изображения человека даже не в применении искусственного интеллекта, а в самом факте, что это происходит. В частности, человек так же может подавать иск о защите чести, достоинства и деловой репутации — в том случае, если изображение сгенерировано, чтобы опорочить этого человека. И конечно, речь может идти о мошенничестве, если мы говорим о применении ИИ, чтобы побудить кого-то осуществлять незаконные банковские операции.
Пример уважительного и юридически грамотного отношения к использованию образа гражданина можно увидеть в фильме «Манюня», где на использование образа Юрия Никулина, созданного с помощью нейросетей, было получено соответствующее согласие родственников. Таким образом, вопрос опять же не в самой технологии, а в ее адекватном и правомерном использовании.
— Представители банковского сообщества ранее обсуждали идею о том, что скоринг клиентов финансовых учреждений будет проводиться на основании сообщений пользователя в соцсетях, которые ИИ соберет, проанализирует и выдаст заключение, стоит ли выдавать заемщику кредит. Не нарушаются ли при этом права человека, который размещает информацию о себе в соцсетях?
— У нас существует тайна личной жизни, свобода выбора, свобода распространения информации, свобода потребления информации и т. д. Все эти права гарантированы человеку. Есть также защита персональных данных. Поэтому финансовые организации должны опираться не на музыку, которую человек слушает, или места, куда он любит путешествовать, а на платежеспособность человека и, возможно, на его опыт и место работы. Вопросы личной жизни и предпочтения граждан все-таки стоит оставить на их усмотрение. Эти показатели не совсем корректно и законно учитывать для определения финансовой состоятельности гражданина.
— Может ли человек защитить себя, свою частную жизнь и права от ИИ? Можно ли, например, установить какой-то самозапрет по аналогии с самозапретом на выдачу себе кредита?
— Когда я со студентами начинаю курс по интеллектуальной собственности, то учу их задумываться, какую информацию они выкладывают в информационное пространство. Это важно просто с точки зрения безопасности, даже без учета развития искусственного интеллекта. У нас, к сожалению, отсутствует культура безопасного информирования о себе. Люди активно выставляют в соцсети свою публичную и частную жизнь. И они так тесно переплетены, что это уже становится небезопасным. Поэтому первый совет, наверное, думать о том, что вы выкладываете. Второй совет — повышать юридическую грамотность. Например, выложить в сеть информацию о получении нового паспорта и хвастаться фотографией перед подписчиками не совсем безопасно вне зависимости от того, будут ли ваши данные анализироваться искусственным интеллектом или нет. Пока что такой практики, как введение запрета на сбор информации о себе, не существует. Вполне возможно, она появится в будущем.
— Можно ли предположить, что когда-нибудь изменения, которые происходят под влиянием ИИ, приведут к изменению Конституции?
— Конституция может отражать происходящие в обществе изменения и реагировать на них. Я не говорю сейчас о том, что в законодательстве предусмотрят возможности выдачи гражданства роботам, признают их субъектом права или чем-то подобным. Скорее всего, таких изменений в российской Конституции не будет. Но, возможно, какие-то дополнительные права или обязанности граждан, связанные как раз с внедрением систем искусственного интеллекта, могут возникнуть и войти в Конституцию. Например, защита от необоснованной обработки данных граждан искусственным интеллектом.
— НИУ «ВШЭ» не так давно первым из российских университетов разработал и утвердил Декларацию этических принципов использования ИИ. Защищает ли этот документ образовательный процесс от проблем, ведь уже целые дипломные работы пишутся на основании сгенерированной искусственным интеллектом информации? Понадобится ли такого рода этический кодекс в ближайшее время всем вузам и школам или вообще всем крупным компаниям?
— Нужен ли такого рода этический кодекс другим учебным заведениям или компаниям — это зона ответственности каждого конкретного учебного заведения и в целом юридического лица. Даже нормы и требования к работе устанавливаются многими институтами индивидуально. В институте мы должны думать в первую очередь о студентах и о тех, кто у нас работает, защитить их. С другой стороны, мы все прекрасно понимаем, что запреты действуют очень плохо. Конечно, сразу было понятно, что бизнес (или студенты) будут пытаться использовать искусственный интеллект по-разному. То есть вопрос при создании декларации был в адекватности использования ИИ. И вместо того, чтобы запретить пользоваться ИИ, лучше научить пользоваться им ответственно. В этом и была роль декларации ВШЭ — дать некоторые ориентиры, которые помогут использовать ИИ в работе этично, эффективно и безопасно.
Подробности
В России принят национальный Кодекс этики в сфере искусственного интеллекта, устанавливающий общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта (акторам ИИ) в своей деятельности. Среди его положений можно выделить следующие.
Акторы ИИ должны принимать необходимые меры, направленные на сохранение автономии и свободы воли человека в принятии им решений и в целом на сохранение интеллектуальных способностей человека как самостоятельной ценности и системообразующего фактора современной цивилизации.
Акторы ИИ должны на этапе создания систем ИИ прогнозировать возможные негативные последствия для развития когнитивных способностей человека и не допускать разработку систем ИИ, которые целенаправленно вызывают такие последствия.
При развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность. Разрабатываемые технологии ИИ должны способствовать или не препятствовать реализации всех потенциальных возможностей человека для достижения гармонии в социальной, экономической, духовной сфере и наивысшего расцвета личности.
Принятие значимых для общества и государства решений в области применения ИИ должно сопровождаться научно выверенным междисциплинарным прогнозированием социально-экономических последствий и рисков, изучением возможных изменений в ценностно-культурной парадигме развития общества с учетом национальных приоритетов.
Акторы ИИ должны ответственно относиться к вопросам влияния систем ИИ на общество и граждан на каждом этапе жизненного цикла систем ИИ, включая неприкосновенность частной жизни, этичное, безопасное и ответственное использование персональных данных.
Когда деятельность акторов ИИ может привести к морально неприемлемым для человека и общества последствиям, наступление которых соответствующий актор ИИ может предположить, ими должны быть приняты меры, чтобы предотвратить или ограничить наступление таких последствий. Любое использование систем ИИ, способных целенаправленно причинять вред окружающей среде, жизни и (или) здоровью человека, имуществу граждан и юридических лиц, недопустимо.
Акторам ИИ рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с системами ИИ, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя.
Акторы ИИ должны соблюдать законодательство РФ в области персональных данных и охраняемых законом тайн при использовании систем ИИ.