Правовое определение ИИ
Правовые нормы — лишь один из регуляторов отношений в сфере применения технологий ИИ. Данная сфера также регулируется
- нормами этики
- экономическими регуляторами, прежде всего, конкурентным взаимодействием поставщиков;
- техническими регламентами и программным кодом.
Правовое регулирование ИИ в Российской Федерации формируется вокруг нескольких ключевых актов :
- Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента в г. Москве…» — определяет ИИ через имитацию когнитивных функций человека, задал первое законодательное определение технологии в России.
- Федеральный закон от 31.07.2020 № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций…» — позволяет создавать экспериментальные правовые режимы (ЭПР) для апробации новых технологий.
- Национальная стратегия развития ИИ до 2030 года (утв. Указом Президента РФ от 10.10.2019 № 490) — определяет перечень технологий искусственного интеллекта и направления их развития. Многие нормы не имеют правового характера и фактически являются политическими, а не юридическими.
- Приказ Минэкономразвития РФ от 29.06.2021 № 392 «Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта» — устанавливает критерии отнесения проектов к сфере ИИ.
- ГОСТ Р 71476–2024 и другие стандарты — акты технического регулирования, определяющие технические характеристики технологий ИИ.
- Кодекс этики в сфере искусственного интеллекта; Кодекс этики применения искусственного интеллекта в сфере охраны здоровья — добровольные документы, открытые для присоединения документы, задающие рамки этического применения технологий.
Проблемы легального определения ИИ
Существующее в российском праве определение ИИ закреплено в Федеральном законе № 123-ФЗ. Оно трактует искусственный интеллект как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.
Однако этот подход вызывает ряд методологических и правовых вопросов.
- Необоснованное очеловечивание (антропоморфизм) ИИ
- определение основано на имитационном подходе, близком к тесту Тьюринга, который является мысленным экспериментом, относящимся к середине XX века и всего лишь одним из сотен теоретических подходов к определению ИИ;

- закон «привязывает» ИИ к способности имитировать человека, что не отражает реальную техническую природу современных моделей. Абстрактность понятия «интеллект» позволяет приписывать искусственному интеллекту качества, которых у него в реальности нет, что ведёт к завышенным ожиданиям, фобиям и мифологизации технологии.;
- термин «интеллект» в русском языке несёт гуманитарный оттенок, что приводит к антропоморфизации технологий, тогда как английское intelligence означает прежде всего способность обрабатывать данные. В настоящее время в англоязычной культуре intelligence является термином, используемым в широком спектре отношений: от бизнес-аналитики («business intelligence») до менеджмента и государственного управления («decision intelligence»). В русском языке же слово «интеллект» сохраняет в основном гуманитарный и философский оттенок. Под влиянием популярной культуры и особенностей перевода «искусственный интеллект» часто воспринимается как некая сущность, потенциально обладающая самостоятельной волей и, следовательно, способная нести ответственность. Отсюда в массовом сознании возникают такие вопросы, как: «Можно ли признать искусственный субъектом права?», «Может ли искусственный интеллект нести ответственность?». В русском языке словосочетание «искусственный интеллект» приобрело значение искусственного аналога человеческого ума, а не технического решения, имитирующего принятие решений, пусть и сложного.
Поэтому для правоприменения важно исходить не из образа «искусственного человеческого ума», а из функциональных характеристик технических систем машинного (глубокого) обучения.
2. «Эффект искусственного интеллекта»
В науке описан феномен, когда технологии, которые в прошлом относились к ИИ, после широкого распространения перестают восприниматься как «интеллектуальные» (распознавание речи, шахматные программы, навигаторы и др.).

Развитие технологий неуклонно сужает поле деятельности, которая считается проявлением исключительно человеческих качеств. Если определение искусственного интеллекта будет опираться на общественное восприятие «интеллектуальности», оно окажется нестабильным и быстро устареет. В результате возможно как чрезмерное расширение, так и неоправданное сужение сферы действия закона. Для целей нормативного регулирования необходимо использовать устойчивые, технически верифицируемые критерии, позволяющие определить технологии, отнесенные к области искусственного интеллекта, как объект правовых отношений.
Это означает, что регулирование, основанное на общественном восприятии «интеллектуальности», быстро устаревает. Поэтому необходимо использовать устойчивые технические критерии, такие как:
- использование методов машинного (глубокого) обучения;
- способность системы генерировать контент, прогнозы, рекомендации или решения (как в ГОСТ Р 71476–2024).
Технологии ИИ как объекты правоотношений
При современном уровне технологий единое универсальное определение ИИ невозможно и нежелательно. Разные отрасли используют ИИ по-разному и требуют собственных нормативных подходов.
Регулировать следует не искусственный интеллект как явление, а конкретные технологии. Такой подход делает регулирование гибким и уменьшает риск технологического торможения.
Для нормативной дифференциации предлагается опираться на перечень, закреплённый в Национальной стратегии развития ИИ (Указ Президента № 490) и Приказе Минэкономразвития РФ от 29.06.2021 № 392.
Базовые технологии ИИ:
- компьютерное зрение;
- обработка естественного языка;
- распознавание и синтез речи;
- интеллектуальная поддержка принятия решений;
- перспективные методы ИИ.
Правовые риски при использовании зарубежных технологий ИИ
Использование зарубежных ИИ-моделей в форме веб-приложений создаёт правовые риски для пользователя и организаций, эксплуатирующих ИИ-технологии.
1. Отказ в доступе к передовым моделям
OpenAI, Anthropic, Google, Microsoft, Midjourney и др. запрещают использование из России и не применяют российское право. В случае использования через VPN пользователь вообще не имеет юридической защиты.
→ Рекомендация: переходить на локальные модели на собственной инфраструктуре.
2. Несоблюдение требований «приземления» (ФЗ-236)
Крупные иностранные компании (за исключением Alibaba) не создали российское юрлицо, не включены в реестр РКН и не принимают юридически значимые обращения российских пользователей.
Использование их сервисов создаёт риски для самого оператора.
Правовые риски при обработке персональных данных
Применение облачных ИИ-сервисов (как зарубежных, так и российских) не позволяет выполнить требования ФЗ-152 «О персональных данных» :
Проблемы:
- невозможно получить информированное согласие субъекта;
- нет контроля за отзывом согласия;
- сервисы собирают метаданные (IP, cookies, устройство, время сессии), которые оператор не контролирует;
- возможны нарушения правил локализации данных.
Рекомендация:
→ Не использовать веб-версии ИИ-сервисов от имени оператора и не предлагать их пользователям.
Правовые риски: информация, запрещённая к распространению
ФЗ-149 «Об информации…», КоАП и УК РФ содержат постоянно расширяющийся перечень запрещённой информации. ИИ-модели могут сгенерировать:
- экстремистские материалы;
- недостоверную информацию;
- оскорбления;
- вредоносные инструкции и тд.
Рекомендации:
→ не использовать модели, которые не учитывают российское законодательство;
→ внедрять локальные фильтры;
→ логировать запросы к моделям.
Обратная сторона — чрезмерная цензура со стороны поставщиков моделей ИИ, существенно превосходящая правовые требования
Современные направления правового регулирования технологий ИИ
Практика регулирования ИИ в зарубежных странах
| Последствия и риски | США | ЕС | КНР |
|---|---|---|---|
| Манипулирование и обман человека | − | + | + |
| Утечки конфиденциальной информации | + | + | + |
| Предвзятость и дискриминация | − | + | + |
| Непрозрачность и необъяснимость решений ИИ | + | + | + |
| Распространение дезинформации и дипфейков | + | + | + |
| Общественная опасность — уголовная ответственность за вред | + | + | − |
| Сокрытие информации о взаимодействии с ИИ | − | + | + |
| Низкий уровень самоорганизации отрасли (этика ИИ) | + | + | + |
| Деградация критического мышления и зависимость от ИИ | − | + | + |
| Технические уязвимости ИИ | + | + | + |
Регистрация систем ИИ в критической инфраструктуре
Системы ИИ, применяемые в здравоохранении, образовании, на транспорте, в энергетике, финансовом секторе, должны быть внесены в специальный реестр с указанием:
- поставщика,
- назначения,
- обрабатываемых данных,
- использованных моделей.
Обязательная маркировка ИИ-контента
Бурный рост генеративных технологий (текст, изображение, голос) требует механизмов обеспечения достоверности информации.
Предлагается ввести обязательную маркировку контента, созданного нейросетями, в первую очередь в областях высокой общественной значимости:
- реклама;
- продвижение товаров и услуг;
- предвыборная агитация;
- коммуникация с потребителями.
Основание — тенденция российского законодательства, направленная на борьбу с недостоверной информацией (включая новые составы УК РФ) .
В перспективе возможна маркировка и в виде машиночитаемых метаданных, встроенных в цифровой контент.
Регулирование рекомендательных технологий
Федеральный закон «О персональных данных» (ст. 16) уже запрещает принятие решений на основе исключительно автоматизированной обработки ПДн без согласия субъекта.
Однако эта норма работает неэффективно:
нет специального состава правонарушения и механизма контроля.
Предложения:
1. Усилить ответственность за нарушения ст. 16 ФЗ-152 через отдельную статью КоАП.
2. Ввести механизм “активного согласия” пользователя
Рекомендательные технологии должны применяться только после явного подтверждения пользователя (дополнение к ст. 10.2-2 ФЗ «Об информации…»).
3. Запретить обработку персональных данных должностных лиц с целью влияния на принимаемые ими решения
Чтобы предотвратить манипуляции через предиктивные модели.
Применение технологий ИИ как отягчающее обстоятельство (ст. 63 УК РФ, ст. 4.3 КоАП РФ) и источник повышенной опасности (ст. 1079 ГК РФ)
Действующие нормы уголовного и административного права в целом достаточны.
Но возможны дополнения:
- включение использования ИИ в перечень отягчающих обстоятельств (ст. 63 УК РФ, ст. 4.3 КоАП РФ) — для случаев, когда ИИ становится инструментом правонарушения;
- рассмотрение возможности признания систем ИИ источником повышенной опасности (ст. 1079 ГК РФ) с соответствующими последствиями для гражданской ответственности.
Предлагается введение обязанности возмещения вреда при использовании технологий, создающих повышенную опасность, включая системы искусственного интеллекта.
Этическая неопределённость регулирования ИИ
Право должно опираться на морально-этические нормы, но существует проблема неопределенности универсальных этических норм ИИ :
- нормы морали различаются в разных культурах;
- зарубежные тренды не всегда применимы в России;
- требуется собственная исследовательская база
(аналог MIT Moral Machine — модель анализа дилемм с учётом национальных ценностей).


Рекомендация
→ Создание российских этических моделей и методик, основанных на культурных и ценностных особенностях российского общества.