Об этом сообщает газета "Известия" со ссылкой на заместителя председателя комитета Государственной Думы по информационной политике Андрея Свинцова.
Депутат отметил, что в пользовательских соглашениях большинства компаний, предоставляющих услуги искусственного интеллекта (ИИ), указано, что все права на результаты деятельности принадлежат самой компании. Это создает значительные риски для авторов, использующих ИИ в своей работе, таких как написание текстов, создание логотипов, музыки, сценариев и прочего.
"В какой-то момент они могут столкнуться с ситуацией, когда все права на созданный ими контент окажутся у зарубежной компании. Именно поэтому мы считаем необходимым урегулировать этот вопрос на законодательном уровне", – заявил Свинцов.
Отсутствие правовых норм в данной области создает правовую неопределенность для авторов, подтвердила основатель Совета блогеров Валерия Рытвина. Она призвала внести системные поправки в законодательство, включая четкую проработку вопросов авторства, ответственности и прав на сгенерированный контент.
Депутаты также обсудят с IT-экспертами способы разработки и закрепления в правовом поле таких ключевых определений, как "нейросеть" и "дипфейк". Без этого будет невозможно обеспечить правовую защиту граждан и бизнеса.
Ранее Министерство цифрового развития, связи и массовых коммуникаций России предложило обязательную маркировку контента, созданного с помощью нейросетей. Специалисты считают, что таким образом можно будет бороться с дипфейками и защищать граждан от недостоверной информации.
Эксперты утверждают, что в России не распространяется тенденция замены сотрудников искусственным интеллектом. По их мнению, подобные инновации могут быть внедрены в некоторых крупных российских городах, однако в целом в России это вряд ли станет широко распространенным явлением.