В связи с этим в России рассматривается возможность введения обязательной маркировки курсовых и дипломных работ, выполненных с использованием ИИ. Такое предложение озвучил ректор Российского технологического университета МИРЭА Станислав Кудж, о чем сообщает RT.
Кудж направил свою инициативу главе Росстандарта Антону Шалаеву, подчеркнув, что искусственный интеллект не представляет угрозы для системы образования. Наоборот, он является мощным союзником и важной составляющей новой образовательной парадигмы, открывая широкие возможности для обучения и научных исследований. Вместо того чтобы вводить запреты на использование ИИ, необходимо создать четкие и современные правила, регулирующие его ответственное и прозрачное применение, закрепив их на законодательном уровне.Введение обязательной маркировки позволит обеспечить честность и прозрачность в оценке академических работ, а также повысит доверие к результатам обучения в эпоху цифровых технологий. Такой подход поможет адаптировать образовательную систему к реалиям цифровой эпохи, сохраняя при этом высокие стандарты качества и этики в науке и образовании. В конечном итоге, гармоничное сочетание инноваций и строгих правил станет залогом успешного развития российского образования в условиях стремительного технологического прогресса.В современную эпоху цифровых технологий внедрение искусственного интеллекта становится неотъемлемой частью научных исследований, что требует адаптации существующих стандартов оформления научных работ. Инициатива ректора Российского технологического университета МИРЭА направлена на обновление национального стандарта ГОСТ 7.32-2001 «Система стандартов по информации, библиотечному и издательскому делу. Отчет о научно-исследовательской работе. Структура и правила оформления», чтобы он отражал современные реалии научной деятельности. В частности, предлагается внести дополнение, обязывающее авторов указывать использование искусственного интеллекта в процессе исследования, с обязательным указанием конкретного сервиса или алгоритма. Такая информация должна быть размещена либо в разделе, посвящённом методам исследования, либо в отдельном подразделе, посвящённом цифровым инструментам, что обеспечит прозрачность и повысит доверие к научным результатам. Введение данного положения позволит не только повысить качество научных публикаций, но и стимулировать ответственное и этичное использование современных технологий в исследовательской практике. Таким образом, корректировка ГОСТ 7.32-2001 станет важным шагом на пути интеграции инноваций в научную сферу и укрепит стандарты академической честности.В современном мире развитие цифровой грамотности становится одной из ключевых задач образовательных систем, особенно в условиях стремительного распространения искусственного интеллекта. Кудж уверен, что предложенный подход не только поможет студентам освоить навыки работы с цифровыми технологиями, но и сформирует культуру ответственного использования ИИ, что крайне важно для их будущей профессиональной деятельности. Более того, реализация данной инициативы будет способствовать развитию критического мышления у учащихся: вместо простого копирования информации они будут учиться анализировать, проверять достоверность данных и перерабатывать материал, что значительно повысит качество образования.Ранее группа экспертов выступила с предложением ввести строгие ограничения на разработку искусственного интеллекта, который может представлять повышенный или неприемлемый риск для безопасности. В рамках этой инициативы планируется внедрить систему маркировки ИИ по уровням потенциальной опасности — от минимального и ограниченного до высокого и неприемлемого риска. Авторы подчеркивают, что такие нейросети способны наносить вред не только отдельным личностям и обществу в целом, но и государственным структурам, а также могут нарушать фундаментальные права и свободы человека.Таким образом, комплексный подход к регулированию и обучению в сфере искусственного интеллекта позволит не только минимизировать риски, связанные с использованием ИИ, но и подготовить новое поколение специалистов, способных ответственно и осознанно работать с передовыми технологиями. В конечном итоге это создаст более безопасную и этичную цифровую среду, что является важным шагом на пути к гармоничному сосуществованию человека и искусственного интеллекта.В современном цифровом мире взаимодействие с искусственным интеллектом становится все более распространённым и важным аспектом коммуникации. В России появилась инициатива по введению обязательной маркировки общения с нейросетями, что позволит пользователям чётко понимать, когда они взаимодействуют с искусственным интеллектом, а не с человеком. Такая мера направлена на повышение прозрачности и доверия в цифровом пространстве, а также на предотвращение возможных манипуляций и недоразумений.Идея маркировки основана на том, что нейросети сегодня активно используются в различных сферах — от поддержки клиентов и образовательных платформ до создания контента и проведения исследований. Однако отсутствие чёткой идентификации искусственного интеллекта может вводить пользователей в заблуждение, особенно когда речь идёт о важных или конфиденциальных вопросах. Введение специальных меток или уведомлений позволит повысить осведомлённость и ответственность как со стороны разработчиков, так и пользователей.Кроме того, такая инициатива может стать важным шагом в регулировании цифровой среды и формировании этических стандартов использования ИИ. В перспективе это поможет создать более безопасное и прозрачное пространство для общения и обмена информацией, где каждый сможет осознанно взаимодействовать с технологиями будущего. В России и за её пределами продолжается активное обсуждение подобных мер, что свидетельствует о растущей значимости этой темы в современном обществе.© 2014-2024 Информационный портал «antmsk.ru». Настоящий ресурс может содержать материалы 18+. Использование материалов издания - как вам угодно, никаких претензий со стороны нашего СМИ не будет. Мнение редакции может не совпадать с мнением авторов публикаций. Контакты редакции: +7 (495) 765-41-64, info@rim.media
