Правительство РФ разрабатывает законопроект о регулировании ИИ
На площадке Правительства прорабатывается рамочный законопроект, направленный на регулирование ИИ, рассказали «РГ» в аппарате вице-премьера — главы Аппарата Правительства Дмитрия Григоренко. Законопроект призван избавить отрасль от лоскутного регулирования, когда меры зачастую противоречат друг другу. Отсутствие единого подхода создает неопределенность для разработчиков и пользователей, затрудняет внедрение инноваций и может приводить к юридическим коллизиям. Например, текущая ситуация в области автономного транспорта, где требования к безопасности и ответственности разнятся в зависимости от региона и типа транспортного средства, демонстрирует острую необходимость в унификации регулирования.
Среди основных задач, которые стоят перед законопроектом такие вопросы, как что считать российской моделью, кто виноват в ошибке ИИ, как маркировать контент и следить за выполнением требований и кому принадлежат авторские права. Определение «российской модели» ИИ критически важно для поддержки отечественных разработчиков и обеспечения технологической независимости. Это включает в себя критерии, связанные с происхождением данных, архитектурой модели, местонахождением серверов и правами на интеллектуальную собственность. Вопрос ответственности за ошибки ИИ, особенно в контексте автономных систем, требует четкого разграничения между разработчиком, оператором и пользователем. Необходимо определить, кто несет ответственность за ущерб, причиненный в результате сбоя или некорректной работы алгоритма. Маркировка контента, созданного ИИ, является ключевым аспектом для обеспечения прозрачности и предотвращения дезинформации. Это позволит пользователям различать контент, созданный человеком, и контент, сгенерированный машиной, что особенно актуально в сфере новостей и социальных медиа. Вопрос авторских прав на контент, созданный ИИ, сложен и требует решения, учитывающего как интересы разработчиков, так и права авторов, чьи данные использовались для обучения моделей. Примером может служить ситуация с генерацией изображений, когда ИИ может использовать стили и элементы, принадлежащие другим художникам, что вызывает вопросы о нарушении авторских прав.
Кроме того, планируется отрегулировать использование ИИ в отраслях и сформировать понятийный аппарат, чтобы убрать неоднозначность трактовок. Единый понятийный аппарат, включающий четкие определения ключевых терминов, таких как «ИИ», «машинное обучение», «глубокое обучение», «автономная система» и др., необходим для обеспечения единообразного понимания регулирования всеми участниками рынка. Это позволит избежать разночтений и упростит правоприменение. Регулирование использования ИИ в различных отраслях будет учитывать специфику каждой сферы. Например, в финансовом секторе регулирование может касаться использования ИИ для оценки кредитных рисков и борьбы с мошенничеством, а в промышленности – для оптимизации производственных процессов и повышения безопасности.
Как пояснили в аппарате Григоренко, ключевая задача сейчас — это предотвратить риски от применения ИИ в «чувствительных» сферах, где цена ошибки особенно высока. В числе таких сфер: здравоохранение, судопроизводство, общественная безопасность, образование. В здравоохранении необходимо будет уделить особое внимание вопросам конфиденциальности данных пациентов, точности диагностики и лечения, а также ответственности за врачебные ошибки, допущенные с использованием ИИ. В судопроизводстве регулирование должно учитывать вопросы использования ИИ для анализа доказательств, прогнозирования судебных решений и автоматизации рутинных задач, обеспечивая при этом соблюдение принципов справедливости и беспристрастности. В сфере общественной безопасности регулирование будет касаться использования ИИ в системах видеонаблюдения, распознавания лиц и прогнозирования преступности, с учетом необходимости защиты прав граждан и предотвращения дискриминации. В образовании регулирование должно учитывать вопросы использования ИИ для персонализированного обучения, оценки знаний и автоматизации административных задач, обеспечивая при этом соблюдение принципов равенства доступа к образованию и защиты персональных данных учащихся. Примером потенциальных рисков является использование ИИ в системах распознавания лиц, которое может привести к ошибочным задержаниям или дискриминации, если алгоритмы не учитывают особенности разных этнических групп.
Фото: iStock
Подписаться на https://lenta-novosti-rossii.ru/ в 📱| Читать нас в MAX 🧐
