2023-6-19 12:00 |
14 июня в Общественной палате эксперты обсудили, у кого есть права на объекты, созданные с помощью ИИ. Основной темой стала проблема регулирования авторства интеллектуальной собственности, реализованной с применением искусственного интеллекта.
14 июня в Общественной палате РФ состоялся круглый стол «Законодательное регулирование интеллектуального права на произведения, созданные с применением искусственного интеллекта». Модератором выступил Сергей Гребенников, директор РАЭК, член Общественной палаты РФ. Мероприятие прошло при поддержке Экспертного совета Молодежного парламента при Государственной думе.Спикеры обсудили опыт проблемы регулирования интеллектуальной собственности, созданной с применением ИИ, вопросы регистрации и лицензирования ПО, которое использует ИИ, этические ограничения на использование ИИ и другие актуальные проблемы.Кто должен считаться автором?Как отметил Гребенников, открывая мероприятие. по итогам 2022 года объём глобального рынка технологий генеративного искусственного интеллекта достиг приблизительно 40 млрд долларов, по данным Bloomberg Intelligence. При этом, несмотря на активное развитие ИИ, многие известные деятели призывают ограничить бурный рост этих технологий. Есть много правовых и этических вопросов, которые предстоит решить. И один из них — регулирование интеллектуального права на произведения, созданные с применением ИИ.«Сейчас уже многие пользуются различными ботами и нейросетями, начиная от дизайнеров и заканчивая врачами. Всё больше используют нейросети в креативных индустриях. Кто должен считаться автором произведений, которые созданы с участием ИИ? Это важно, в том числе, потому, что многие креаторы теряют мотивацию что-либо создавать, поскольку в условиях конкуренции с ИИ это сложно монетизировать», — сказал он. Директор по продукту медиахолдинга 1MI Ирина Гольмгрейн подчеркнула, что искусственный интеллект обладает большим потенциалом в здравоохранении, сельском хозяйстве, туризме, кибербезопасности и в последствии планируется обрабатывать все аспекты. «Мы не хотим размывать фокус внимания и планируем сфокусироваться на конкретной проблеме — интеллектуальные права авторов. ИТ-сфера у нас в приоритете, но здесь важен вопрос защиты прав общества. Вопрос авторства, например, при генерации текста также остается открытым. Также возможно авторством право следует передавать разработчикам, а есть мнение, что это — общественное достояние и не принадлежит никому. Российское законодательство также следует проверить, сделать обзор. К примеру, я консультировалась с юристами и узнала, что чуть ли не в гражданский кодекс придется вносить изменения», — считает она.Опыт других странАдвокат Адвокатской палаты г. Москвы Наталья Вашеняк проанализировала опыт зарубежных стран.«Правовое регулирование — это несомненный тренд, но потенциал развития искусственного интеллекта несет в себе вопрос о рисках. Помимо установления ответственности за действия искусственного интеллекта при принятии решений, также актуальна проблематика установления авторства, когда произведения нейросетей становятся коммерчески успешными. Так кому же принадлежат права на работы нейросетей? Есть несколько вариантов: во-первых, самому искусственному интеллекту, во-вторых, его разработчику, в-третьих, одновременно и пользователю, и разработчику, в четвертых, только пользователю. Тем временем, весь мир призывает приостановить развитие мощностей ИИ, и, возможно, эта тема станет очень актуальной», — рассказала она о проблеме, которая может возникнуть в будущем.Например, в США активно обсуждают вопрос добросовестности, когда продукты нейросетей мимикрируют под произведения авторов и, соответственно, отнимают монетизацию и используют опыт автора — так случилось с работами художников и дизайнеров.В Европе регулирование ужесточается: например, относительно авторского права стали делить произведения, созданные ИИ по степени потенциального риска, который они в себе несут. Кроме того, выделяются произведения, созданные человеком с привлечением ИИ и созданные непосредственно ИИ. На первую категорию полностью распространяется законодательство об интеллектуальной собственности ЕС. Великобритания выделяет основным критерием для защиты авторского права — оригинальность произведения. При это вопрос о творческом вкладе не столь важен, ключевое — это труд, затраченный на создание ИИ — то есть, если разработчик потратил много времени на работу над нейросетью, то он имеет право оспорить авторство произведений его нейросети в суде. Китай — первая в мире страна, где разработчик ИИ получил авторские права на произведение, созданное нейросетью. Также в Китае обязательно маркировать произведения, созданные с использованием ИИ. В Японии рассматривают возможность авторских прав для нейросети, а основной их интерес составляет защита авторских прав самой нейросети.Варианты регулированияЧлен координационного совета Молодёжной организации ЛДПР Дмитрий Матюшенков рассказал об основных вариантах регулирования интеллектуальных прав на объекты, созданные ИИ. «Есть два варианта: сгенерированный контент принадлежит тому, кто взаимодействует с нейросетью, или лицу, которое разработало нейросеть. Но разве владелец нейросети приложил усилия для получения конечного продукта по запросу? Он дал пользователю инструмент, но творческий труд разработчика закончился в тот момент, когда он создал нейросеть. Сейчас мы должны говорить о создании пользовательского соглашения, которое необходимо будет принимать пользователю перед использованием ИИ. Не забывайте, что нейросеть — это средство, а не полноправный участник создания продукта. Конечный результат — это продукт человека, который отправляет запрос, и исключительные права должны быть у него. Стоит отметить, что "технологический бум" всегда быстрее внесения поправок в законодательный процесс. Когда мы наблюдали рост блокчейна и майнинга, все обсуждали внесение правок в закон, но этого не произошло. Сейчас время искусственного интеллекта, но нужно ли торопиться менять гражданское законодательство? Нужно не впадать в панику и трезво оценивать ситуацию, прежде чем вносить поправки в законодательство», — считает он. Денис Ермилов, заместитель директора по работе с стратегическими клиентами «Синимекс», назвал основные вызовы, созданные системами ИИ. «Среди ключевых вызовов, созданных системами искусственного интеллекта можно выделить отсутствие специализированных решений для защиты от дипфейков, которые давали бы гарантированный уровень уверенности в происхождении контента и его «смысловой направленности», — рассказал экспертСпециалист подчеркнул, что мониторинг, регулирование и замедление распространения ИИ (так же, как и создание моделей обнаружения) повысит требования к процессорным мощностям кратно.«Чтобы не устраивать гонку в производстве компьютерных мощностей, необходимо будет договариваться на уровне правительств об использовании единых стандартов по созданию "водяных знаков" и внутренних кодов (однозначно указывающих, что контент создан системами ИИ) на уровне стран и правительств и тратить процессорные мощности не на поиск и защиту от дипфейков, а на создание полезных для человека вещей», — высказал он свое мнение.Кто несет ответственность за результат?Партнёр Privacy Advocates, сопредседатель кластера «РАЭК / Privacy & Legal Innovation» Александр Партин раскрыл вопросы ответственности за результаты продукта, созданного с помощью ИИ. «Когда мы говорим о праве на результаты интеллектуальной деятельности, мы задаем вопрос: "А кого мы хотим вознаградить?". Базово подразумевается, что автор внес свой творческий вклад в произведение, нужно его вознаградить и дать возможность получать доход от своего произведения, а также защищать произведение от недобросовестных игроков. Для развития систем искусственного интеллекта, на мой взгляд, необходимо стимулировать компании, которые создают ИИ. Кто несёт ответственность за результат продукта, созданного с помощью ИИ? Когда мы говорим об обычных произведениях, человек-автор несёт ответственность за результат: чтобы произведение не нарушало чужих прав или закон. Сейчас сложилась ситуация, когда компании-разработчики систем генеративных ИИ в правила их работы снимают с себя всю ответственность за результат, созданный с помощью нейросети, так как не могут полностью гарантировать, каким он будет», — считает эксперт.По его мнению, необходимо также в определённой мере обезопасить разработчиков от непредумышленного нарушения каких-либо норм. Разработчики на текущий момент не могут предугадать последствия использования нейросети во всех возможных случаях. Поэтому, с одной стороны, для систем ИИ необходим независимый внешний этический аудит/сертификация, но, с другой стороны, нельзя требовать 100%-го отсутствия инцидентов — это невозможно. «Нужно разрешить в определённых ситуациях, чтобы разработчики могли исправлять нарушения постфактум, по жалобе. Также разумной мерой регулирования может стать маркировка при использовании дипфейков, чтобы не вводить людей в заблуждение», — считает Партин.Развитие рынка технологий ИИ в РоссииПредседатель кластера «РАЭК / RPA» Сергей Вотяков осветил препятствия для развития рынка RPA в России. «Нейросети и технологии искусственного интеллекта позволяют решать вопросы, на которые ранее требовались месяцы и годы. По всему миру наблюдается рост рынка RPA. В России в этом направлении тоже все отлично. Но есть несколько тем, на которых нужно сделать особый акцент. Среди них, конечно, включение класса RPA в реестр программного обеспечения. Эта мера позволит добиться того, чтобы, покупая лицензии, потребители получали налоговый вычет», — подчеркнул Вотяков.Подытожил дискуссию руководитель отдела стратегического развития и партнерств Центр когнитивного моделирования МФТИ, сопредседатель кластера «РАЭК / ИИ» Роман Вайнберг.«Нынешний всплеск ИИ вызванный генеративными сетями и большими языковыми моделями, опасен в первую очередь ее возможным массовым применением, например для лавинообразного создания фейковых новостей в социальных сетях, что при разных сценариях может оказать значительный эффект на общество и экономику. США сильно оторвались в сфере ИИ-компетенций от всего мира, Китай же не будет их догонять, а сразу пойдет на обгон с их новой концепцией ИИ 2.0, которую возглавит ИИ-гуру Китая Кай-Фу Ли. Россия же находится в догоняющей фазе — это нормально, главное, не сильно отставать и держаться верного курса», — сказал он. По его мнению, необходимо создавать условия для развития технологий как для стартап среды, так и для корпораций и научных коллективов. Важно разрабатывать собственные технологии, можно сказать что борьба идёт за мировое господство и суверенитет. Успешное развитие отрасли уже давно сравнивают с наличием ядерного оружия. «Область пока что хорошо саморегулируется, есть кодекс ИИ, который подписало множество компаний. Но разработчики самостоятельно не в силах уследить за всеми нюансами их продуктов, требуется совместная работа специалистов из разных дисциплин над новыми методами регулирования и стандартов. Например, реестр отечественных ИИ решений, позволивший бы упростить и ускорить рост внедрения технологий. Если говорить про одну из долгосрочных угроз — это аутсорс наших когнитивных способностей и передача всё большего управления в руки машин, особенно при интеграции ИИ с нейротехнологиями», — считает эксперт.На правах рекламы
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на aif.ru