Правительство разработало свод правил развития ИИ в стране

1 просмотров
Правительство разработало свод правил развития ИИ в стране

Законопроект правительства об искусственном интеллекте (ИИ) опубликован для общественного обсуждения. Документ вводит рамочное регулирование использования ИИ в России. В частности, впервые на законодательном уровне закрепляется само понятие искусственного интеллекта, устанавливаются права и обязанности участников рынка и вводится обязательная маркировка контента, созданного с помощью ИИ. Эксперты отмечают, что все самое важное будет регулироваться подзаконными актами, которых пока нет, и опасаются, что даже такое мягкое регулирование может замедлить развитие отрасли в стране.

"Развитие перспективных технологий, в том числе ИИ, является важным направлением работы Минцифры. При этом любая технология должна использоваться исключительно с соблюдением прав и интересов граждан. Для этого министерством разработан проект федерального закона о регулировании ИИ", - сообщили в Минцифры.

Документ впервые законодательно закрепляет само понятие «искусственный интеллект» и ряд связанных с ним терминов. Также предлагается ввести понятия суверенных, национальных и доверенных моделей искусственного интеллекта. При этом требования к системам ИИ зависят от степени их влияния на жизнь человека и общества.

Помимо отраслевых требований, участники рынка ИИ также несут ответственность перед теми, кто использует такие системы и продукты, произведенные с использованием ИИ. Теперь граждане смогут оспорить решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Если использование нейросетей причинило вред, человек получит право на компенсацию – по общим правилам гражданского права. Данные меры призваны защитить права граждан при автоматизированном принятии решений.

Разработчики моделей ИИ обязаны исключать дискриминационные алгоритмы и блокировать создание незаконного контента. Операторы систем искусственного интеллекта должны проверить их на безопасность и проинформировать пользователей об ограничениях. Владельцы сервиса оперативно примут меры по предотвращению его неправомерного использования.

Авторы законопроекта считают, что ответственность за противоправный результат должна быть распределена между разработчиком, оператором системы, владельцем сервиса и пользователем пропорционально степени вины.

В дилемме «что маркировать» выбор делается в пользу маркировки контента, созданного с помощью ИИ. Теперь все подобные материалы должны содержать специальную маркировку – предупреждение. Крупные социальные сети обязаны проверять его наличие, а в случае его отсутствия самостоятельно отмечать или удалять контент.

С появлением закона об ИИ контент, создаваемый нейронными сетями, нужно будет маркировать. "Искусственный интеллект уже используется повсеместно, поэтому важно установить четкие и прозрачные правила его использования. Главное для нас - соблюдение баланса между защитой интересов граждан и развитием технологий. В связи с этим законопроектом предусмотрено установление отдельных требований для чувствительных сфер применения искусственного интеллекта, например, в государственном управлении. В то же время в коммерческом секторе обязательные требования по использованию ИИ не установлены", - заявил курирующий это вице-премьер, руководитель аппарата правительства Дмитрий Григоренко. работа.

Документ планируется вступить в силу 1 сентября 2027 года, устанавливая четкие правила для застройщиков, бизнеса и государства. Оно защитит граждан от скрытых манипуляций и дискриминационных алгоритмов. Однако у экспертов уже есть вопросы, связанные с применением закона. Например, идея маркировки контента, созданного или измененного ИИ, в самом крайнем случае будет означать, что любая фотография, сделанная на смартфоне, будет помечена таким образом просто потому, что большинство смартфонов сегодня так или иначе используют алгоритмы нейронных сетей.

Businesses also have their own concerns. Мы получили амбициозный документ, который пытается решить правильные проблемы, но делает это с опасной для бизнеса жесткостью, — отмечает Алексей Парфун, директор, сооснователь компании «Ай влияние», вице-президент АКАР.

«Авторы правильно понимают, что не все применения ИИ одинаково опасны. Пятая статья предусматривает оценку риска в зависимости от назначения технологии, вероятности причинения вреда, степени автономности системы и влияния на юридически значимые действия, что очень логично. В США и Европе такого разделения нет, они пытаются регулировать все одинаково, что приводит к параличу инноваций. Нам нравится баланс между развитием и безопасностью. В четвертой статье четко говорится о необходимости «создать условия для ускоренного развития искусственного интеллекта». Задача ИИ совершенно ясна — суверенитет как стратегическая цель. Если мы полностью зависим от OpenAI или Google, то любые санкции, любые политические решения могут отключить для нас весь ИИ, мы не можем этого допустить», — отмечает Парфун.

В то же время появление реестра «доверенных моделей ИИ» вызывает вопросы. Парфун считает это своего рода «узким местом» для будущих реализаций и разработок. "Требование о включении в этот реестр всех моделей, используемых в государственных системах и критической инфраструктуре, звучит логично, но на практике это означает централизованный контроль над всеми системами ИИ, бюрократический процесс утверждения и риск того, что инновационные решения не пройдут проверку просто потому, что они новые. По сути, государство получает право вето на любую систему ИИ", - объясняет эксперт.

Эксперты опасаются, что некоторые положения закона станут «узкими местами» для развития искусственного интеллекта в России

Вызывают беспокойство и вопросы ответственности разработчиков систем искусственного интеллекта. В частности, в законе сказано, что разработчик несет ответственность за результаты, полученные с использованием его модели, если он «сознательно знал или должен был знать», что такой результат может быть получен. Однако, по мнению Парфуна, это последствия, которые не всегда можно просчитать, и есть риск, что начнется перестрахование.

"Откуда разработчик может знать все возможные варианты использования своей модели? Если я создал модель для анализа текста, а кто-то использовал ее для создания дипфейков, несу ли я ответственность? Закон не дает четкого ответа. Это создает риск для разработчиков. Они будут бояться выпускать новые модели, потому что не знают, за что их можно привлечь к ответственности", - говорит Парфун.

Закон также затрагивает вопросы инфраструктуры для искусственного интеллекта. В частности, для обеспечения доступности вычислительной инфраструктуры, необходимой для развития ИИ, правительство создаст список центров обработки данных, создание и функционирование которых будет определяться специальным постановлением. Такой подход считает справедливым глава Ассоциации участников индустрии дата-центров Игорь Дорофеев.

"С одной стороны, развитие ИИ стало вопросом национальной безопасности, который может лежать за пределами коммерческих отношений. С другой стороны, если компания вложила средства в оборудование ИИ, что во много раз дороже, чем создание для него инженерной оснастки, то она, безусловно, заслуживает поддержки в своих эксплуатационных расходах", - поясняет он.

Дорофеев отмечает, что поддержка в рамках предлагаемого регулирования направлена ​​на крупных игроков платформы. Они являются движущей силой как технической мысли, так и экономики индустрии центров обработки данных (ЦОД).

«Несмотря на то, что закон носит рамочный характер, есть некоторые нестыковки в определениях, например, что считать дата-центрами, «предлагаемыми к созданию» и как избежать возможных злоупотреблений. Или как разделить дата-центры по мощности, если там расположен и суперкомпьютер, и обычное ИТ-оборудование. В правовом поле наконец-то начало появляться понимание, что классификация дата-центров — это не какая-то узкая и частная задача уровней инженерной инфраструктуры, а задача классификации дата-центров по уровню критичности информации. в стадии рассмотрения, предполагаю, что эти вопросы будут решены как в рамках общественного обсуждения, так и подзаконными актами, детализирующими требования», — говорит Дорофеев.

В целом эксперты позитивно оценивают появление отраслевого регулирования, которое стало необходимым на фоне растущего влияния искусственного интеллекта на различные аспекты жизни, но опасаются, что в случае принятия закона российские компании побоятся инвестировать в ИИ и будут ждать, пока все требования будут четко определены в рамках подзаконных актов, которые еще не разработаны.

«Пока они ждут, западные компании будут развиваться», — резюмирует Алексей Парфун.