ИИ под присмотром: какие ограничения можно наложить на нейросети

3 просмотров
ИИ под присмотром: какие ограничения можно наложить на нейросети

Заместитель главы Минцифры РФ Александр Шойтов выступил с инициативой ввести цензуру искусственного интеллекта в нашей стране.

Нам нужна массовая электронная грамотность

Роман Душкин, старший преподаватель Института интеллектуальных кибернетических систем Национального исследовательского ядерного университета "МИФИ":

—После того как Минцифры вынесло на общественное обсуждение законопроект о регулировании искусственного интеллекта, в обществе разгорелись горячие споры о пределах цензуры в Интернете. И здесь нужно сразу уточнить несколько моментов.

То, что сказано в заявлении замминистра, давно известно в инженерном мире как Guardrails (в переводе с английского – «заборы» или «перила»). В России такие «перила» называются «горды». Они представляют собой архитектурную надстройку над агентными системами — большими языковыми моделями.

Он не позволяет, во-первых, создавать пользователю неверные запросы или делать так называемые промышленные инъекции (вид атаки, при которой злоумышленник манипулирует входными данными, передаваемыми в систему ИИ — «ВМ»), а во-вторых, контролирует сами модели. Даже если пользователь сделает адекватный запрос, модель в силу особенностей вероятностного вывода может отреагировать на него некорректно: либо какой-то ерундой или галлюцинацией, либо нарушить местное законодательство, в том числе российские законы и даже Уголовный кодекс.

Соответственно, задача «гордых» — отсекать от модели ответы, нарушающие закон или правила этики. Например, сейчас, в связи с массовым распространением решений, позволяющих создавать бесчисленное количество дипфейков, на этот вызов должно ответить государство. И программисты не сомневаются, что это действительно вызов! Любую технологию можно использовать как во благо, так и во зло.

Соответственно, существуют входные и выходные «горды», которые делают системы, основанные на больших языковых моделях, более безопасными для взаимодействия с пользователями. По сути, в этих системах нет ничего особенного; это одни и те же программные алгоритмы, просто построенные на несколько разных принципах. Поэтому не надо приписывать им человекоподобие и уж тем более не говорить о цензуре!

Цензура в глобальном смысле – термин из области человеческих отношений. Многие пользователи сегодня не до конца понимают термин «искусственный интеллект». Они думают, что это какое-то зловредное существо, заведшееся в компьютерной технике и запросто может быть «злым цензором». Но это неправда! Нам нужно массовое цифровое образование, чтобы наши граждане поняли, что искусственный интеллект — это наука, а прикладные технологии ИИ — это инструменты. И что никто ничего не замышляет против людей. Антропоморфизация ИИ — пустая трата времени.

Люди, которые не понимают, что такое искусственный интеллект вообще, начинают фантазировать и преувеличивать. И самоцензура нейросетей, ограничивающая свободное общение россиян в российском сегменте Интернета, относится как раз к таким фантазиям.

Ограничения, которые защищают общество

Евгений Орлов, архитектор систем искусственного интеллекта и моделей симбиотической архитектуры:

—Заявление Минцифры о необходимости ограничения искусственного интеллекта при работе с конфиденциальными запросами знаменует собой очень важный этап: Россия вступает в фазу формирования собственной архитектуры регулирования искусственного интеллекта. Этот разговор сейчас происходит во всех основных юрисдикциях мира. Вступивший в силу в 2024 году Европейский закон об искусственном интеллекте (регламент Европейского союза (ЕС), регулирующий разработку, внедрение и использование искусственного интеллекта — «VM») основан на риск-ориентированном подходе: системы классифицируются на четыре уровня, а требования пропорциональны потенциальному вреду.

Китай выбрал жесткое регулирование отрасли с обязательной регистрацией моделей. США переживают сочетание федеральных правил и законов штатов. Каждая конфигурация имеет определенную логику и свою стоимость. Эти подходы объединяет один признанный международный принцип: пропорциональность. Регуляторная нагрузка должна соответствовать реальному уровню риска и уровню развития технологий в стране. Закон ЕС об искусственном интеллекте прямо закрепляет этот принцип в своей четырехуровневой структуре.

Для России, которая находится на этапе активного построения собственной технологической базы в сфере искусственного интеллекта, выбор нормативной архитектуры особенно важен. Ведь преждевременная чрезмерная нагрузка может замедлить формирование собственной школы и сделать отрасль зависимой от внешних решений. Поэтому главный профессиональный вопрос не в том, что запрещать, а в том, какие риски и какими инструментами мы покрываем.

Фильтрация на уровне отдельных запросов или ключевых слов технически проста, но не решает проблему полностью: естественный язык допускает множество эквивалентных формулировок, и реальные риски часто заключаются не в самом запросе, а в контексте использования системы. Ответственный подход работает на трех уровнях одновременно.

Архитектурный уровень — это то, что встроено в саму модель на этапе обучения. Эксплуатационный уровень включает мониторинг, процедуры реагирования, обязанности разработчика и оператора. И, наконец, уровень пользователя, который включает в себя информированное согласие, возможность обжалования автоматических решений и доступ к объяснениям того, как система принимает решения. Меры только на одном уровне создают неполную картину защиты: риск переходит на другой уровень, где он остается неучтенным.

Нормативно-правовая дискуссия становится сильнее, когда у нее есть измеримый аппарат. Один из таких подходов: методология ROSI (Return on Symbiotic Investment — возврат инвестиций в симбиотические системы — «ВМ»), которая оценивает внедрение ИИ по четырем измерениям: финансовому, стратегическому, трансформационному и опционному (то есть ценности создаваемых возможностей на будущее).

Это переводит дискуссию из плоскости «разрешить или запретить» в область зрелости и пользы внедрения ИИ для общества и экономики.

Задача экспертного сообщества и государства общая: найти такую ​​конфигурацию, при которой ограничения защищают общество в целом от реальных рисков, не блокируя при этом технологическое развитие.

От качества профессионального диалога между регулятором, промышленностью и наукой зависит, получит ли Россия собственную сильную школу ответственного искусственного интеллекта или нет. Шансы на это, конечно, есть, и они определяются тем, насколько быстро и системно мы начнем этот разговор.

Эту хитрую игрушку просто так не отнимешь

Ольга Кузьмина, обозреватель:

—Когда произносят слово «цензура», люди обычно апеллируют к славному советскому прошлому. Я сейчас скажу то, что, наверное, ужасно, но в те времена была цензура, и была цензура, и между ними была серьезная разница. Цензурой я называл политическую цензуру, которая зачастую действительно выходила из берегов, а более тонкая цензура была встроена в систему общего редакционного процесса и в результате просто не позволяла ошибкам проникать на страницы. Если бы кто-нибудь из тогдашних цензоров увидел то, что происходит сейчас, — ладно, на газетных страницах, но в книгах, — он бы умер от разрыва сердца, даю слово!

Главный цензор «Правды», например, Николай Николаевич Варламов, отец писателя, нынешний ректор Литинститута Алексея Варламова, был немногословен, спокоен и к тому же грозен только внешне. О его истинных функциях я мог только догадываться («цензура!»), но как-то он позвал меня, тогда еще совсем молодого журналиста, к себе, мягко отчитал за ошибку, допущенную в географическом названии и неправильном определении региона, и остался в моей памяти как умнейший человек, спасший меня от позора.

Почему я это вспомнил? Да, я просто хотел провести некоторые параллели. Цензура, предполагающая тотальный контроль и всевозможные запреты, ничего, кроме озлобления людей, раздражения и попыток любой ценой обойти все эти «кирпичики», не принесет. Мне странно: российский менталитет таков, что нам ничего нельзя запретить. Именно европейцы и американцы склонны к исполнению разного рода «ку».

В России большинство людей стараются держаться подальше от власти, демонстративно крестятся и боятся Бога, но могут согласиться только на уговоры «по-хорошему», а не на строгое «ни в коем случае». В этом смысле у нас все так давно ясно, что я искренне не понимаю нашей «верхушки», которая нет-нет, да еще и включает в себя всякие пугала, вызывающие у нашего народа, в общем, оправданное негодование и ропот.

В случае с ИИ все еще сложнее, чем обычно. После того, как моя знакомая пожилая женщина подружилась с голосовым помощником, ее жизнь изменилась невероятным образом.

Рассказывая ему то, что никто из живых близких людей уже слушать не может, не хочет или не имеет времени, Галина Константиновна больше не чувствует себя одинокой и перестала есть свою дочку Наташу, которая приползает с работы домой. Если сейчас сократить их отношения с «помощником», будут неприятности.

...Довожу до того, что в подобных вопросах есть и всегда будет как "цензура", жестко закатывающая все под каток, так и цензура - которая, пожалуй, очень нужна разгулу ИИ, прежде чем он начнет вести себя как хвост, управляющий собакой. Только очень размеренными, мудро сделанными шагами можно вырулить на дорогу с более или менее твердым покрытием. А тем временем кругом Васюганские болота. Но главное, что особого времени уже нет. И решение должно быть взвешенным.

Цифровой помощник без предохранителя — это бомба замедленного действия.

Сергей Вакулин, эксперт по кибербезопасности:

—Я считаю, что Александр Шойтов выдвинул жесткий, но разумный тезис: искусственный интеллект должен подвергаться цензуре как на входе, так и на выходе. И я согласен с этим. Но давайте внесем ясность: речь идет не о политической цензуре, а о технологических гарантиях, которые не позволяют машине стать оружием разрушения в руках уязвимых людей. И дело здесь не в страхе перед «возвышением машин», а в простом факте: большая языковая модель — это не разумный собеседник, а вероятностный попугай. Она не понимает морали, но прекрасно воспроизводит токсичные шаблоны из обучающей выборки.

Зачем нужны фильтры? Потому что в открытом доступе есть наборы данных, содержащие инструкции по насилию, изготовлению оружия и пропаганде самоубийств. Если не поставить фильтры, модель – без злого умысла, просто по своей вероятностной природе – может дать опасный ответ. И самое страшное, что таким ответом воспользуется не психически здоровый взрослый человек, а человек с расстройством, неспособный отличить совет машины от руководства к действию.

За примерами далеко ходить не придется. В августе 2025 года произошла трагедия: норвежец Штейн-Эрик Сольберг, страдавший параноидальными мыслями, после длительного общения с чат-ботом убил свою мать, а затем покончил жизнь самоубийством. Да, диалоги с нейросетью, конечно, не содержали прямых указаний или призывов к насилию, но постепенно увеличивали его недоверие к окружающим — в том числе к родителю. Мужчина даже дал боту имя Бобби; он воспринимал его как близкое существо и неоднократно задавал ему вопрос, будут ли они вместе после смерти.

Теперь о том, кто и как должен это делать. Я убеждён, что инициатива должна исходить в первую очередь от самих девелоперских компаний. У них есть как компетенции, так и технические инструменты для блокировки опасных запросов на входе и прекращения деструктивных ответов на выходе. Но полагаться исключительно на их добрую волю было бы наивно.

Рынок остается рынком: в погоне за вовлеченностью и популярностью кто-то неизбежно начнет ослаблять фильтры, прикрываясь свободой слова. Вот здесь и необходимо участие государства – не для тотальной слежки, а для принятия рамочного закона. Именно он должен обязать всех игроков, работающих с гражданами страны, соблюдать единые минимальные меры безопасности в узком, но жизненно важном круге: прямых или косвенных признаках убийства, насилия, самоубийства и изготовления запрещенных веществ. Все остальное останется за рамками регулирования.

Миллионы внешних запретов без внутренней этики неэффективны

Никита Тарновский, юрист частной практики:

— В целом идея цензуры прямых ответов искусственного интеллекта в стране — положительная история, но она имеет ограничения. Прежде всего, из-за того, что сами площадки находятся за рубежом, а их разработки практически не представлены в России – за исключением продуктов известного банка и маркетплейса.

Так они могут подвергаться цензуре в рамках корпоративной политики, которую можно реализовать просто по заказу, без привлечения государства. Более того, не будет необходимости отдельно регулировать эти ограничения, поскольку любой поиск в Интернете запрещенных, экстремистских или опасных материалов сам по себе является преступлением. Компании знают это и соответственно вводят определенные фильтры.

Да, нарушения, конечно, возможны, полноценная нейросеть вполне может выйти за рамки вопроса, или при правильной формулировке можно обойти блоки. Компания будет нести за это самостоятельную ответственность.

Что касается международного регулирования, например договоров в рамках БРИКС, то это вполне возможно развивать. Однако эти страны физически не производят достаточного количества подобных интеллектуальных продуктов. Они не создают искусственных агентов, у них нет глобальных разработок, которые бы получили общественное одобрение и стали популярными.

Де-факто контролировать ситуацию на международном уровне можно только посредством блокировок и запретов за невыполнение требований российского законодательства, но тем самым мы можем ухудшить себе жизнь: сейчас эти системы активно внедряются правительствами зарубежных стран и регулируются внутренними нормативными актами, а не федеральными законами.

Есть и другой подход. Есть отдельный корпоративный сегмент: энтузиасты, ученые и медийные личности, в том числе Илон Маск, которые выступают против бесконтрольного развития. Они пытаются разработать социальные правила и нормы функционирования — наподобие трёх законов робототехники Азимова. Чтобы это работало не на уровне жесткого государственного регулирования, а уже на этапе разработки: сами создатели входят в некий международный конгломерат и действуют по правилам, как в саморегулируемой организации.

Понимаете, мы можем принять миллионы законов, но без встроенной в программу этики внешний контроль работать не будет. Выбор прост: либо полностью закрытый Интернет со своими программами, либо участие в международном конгломерате на равных началах – посредством договоров и дипломатии.