Документы, использованные при подготовке модуля: drive.google.com
1. Источники этических норм

Документы, определяющие этические требования к применению технологий ИИ в сфере высшего образования, можно разделить на следующие категории:
I. Рекомендации международных организаций
Эта категория включает документы, устанавливающие глобальные этические и регуляторные рамки:
- Руководство по ГИИ в образовании и исследованиях (ЮНЕСКО): документ содержит оценку потенциальных рисков и шаги по регулированию ГИИ, призывая правительства обеспечить защиту данных и рассмотреть возрастные ограничения для использования таких инструментов. В нем также предлагаются меры для разработки политической основы использования ГИИ в образовании.
II. Национальные и межотраслевые этические кодексы (Россия)
В эту группу входят документы, разработанные для широкого применения в рамках российской экосистемы ИИ или как общий ориентир для образовательных учреждений:
- Кодекс этики в сфере искусственного интеллекта (Альянс в сфере ИИ): устанавливает общие этические принципы и стандарты поведения для участников отношений в сфере ИИ, которые дополняют правовые нормы в данной области отношений.
- «Этический светофор» рабочей группы по этике в сфере ИИ в образовании: набор рекомендаций, уточняющих положения Кодекса этики на конкретных примерах использования ИИ, разделяя практики на запрещенные, разрешенные с ограничениями и разрешенные.
III. Политики, положения и декларации высших учебных заведений
Это наиболее обширная категория, включающая локальные нормативные акты, утверждающие обязательные правила применения технологий ИИ для студентов и преподавателей. Эти документы обычно утверждаются учеными советами или ректоратом и носят общеуниверситетский характер:
- Россия:
- Положение Сколтеха о принципах использования ИИ в образовательной деятельности.
- Декларация этических принципов создания и использования систем ИИ НИУ ВШЭ.
- Правила использования ИИ студентами НИУ ВШЭ.
- Политика академической честности и использования ИИ РАНХиГС.
- Политика РУДН в области применения обучающимися ГИИ.
- Кодекс этики использования ИИ в образовательном процессе Пензенского государственного университета.
- Зарубежные образовательные организации:
- Faculty Guidelines UCD Dublin (Руководство для преподавателей).
- HGSE AI Policy (Гарвард) о политике использования генеративного ИИ студентами в учебной работе.
- Interim Policy NUS (Национальный университет Сингапура) для использования ИИ в преподавании и обучении.
- AI Guidelines Uppsala University (Уппсальский университет) по использованию генеративного ИИ в преподавании и оценивании.
- Generative AI in Teaching & Learning Guidelines (ETH Zurich).
IV. Внутренние руководства и ресурсы по внедрению и безопасности
Эта группа состоит из документов, которые предоставляют практические советы, шаблоны или рекомендации по безопасности, исходящие от конкретных подразделений (например, IT-служб, учебных центров или библиотек), а не от высшего руководства университета в целом:
- Руководства для преподавателей:
- Princeton (The McGraw Center): Руководство по использованию ГИИ в аудиториях, включая примеры формулировок для программ курсов.
- UCLA Academic Senate: Рекомендации по преподаванию в связи с развитием ChatGPT.
- Oxford (Public Affairs Directorate): Руководство по использованию ГИИ, разработанное для поддержки коммуникаций.
- Информационная безопасность и IT-ресурсы:
- MIT (IS&T): Руководство по использованию инструментов генеративного ИИ, акцентирующее внимание на безопасности и конфиденциальности данных.
- Stanford University IT: Руководство «Responsible AI at Stanford» (Ответственный ИИ в Стэнфорде), сосредоточенное на мерах безопасности и факторах риска при работе с данными.
- Stanford GSB: Шаблоны формулировок для программ курсов по использованию ГИИ.
- Imperial Library Services: Руководство по ГИИ, включая вопросы академического признания и ссылок.
2. Ключевые этические принципы в регулировании ИИ
Анализ перечисленных нормативных документов выявляет архитектуру ключевых этических принципов в области ИИ в образовании.

1. Приоритет человека и его интеллектуального развития. Согласно этому принципу, ИИ является вспомогательным инструментом, а не заменой человеческому общению, критическому мышлению и творчеству. Это не философская позиция, а практический педагогический императив. Политика Гарварда: ИИ не должен использоваться, чтобы «выполнять когнитивную работу за вас, иначе ваше собственное обучение будет значительно ослаблено». Сколтех: «полная замена общения… на коммуникацию, осуществляемую автоматическими системами», является «неприемлемой». Главная роль в анализе информации и принятии решений остается за человеком (UNESCO, Сколтех, НИУ ВШЭ, ПГУ, Оксфордский университет, Кодекс этики Альянса в сфере ИИ).
2. Прозрачность и академическая честность (Transparency and Honesty). Этот принцип требует от всех участников образовательного процесса — и студентов, и преподавателей — быть открытыми в отношении использования ИИ. Студенты обязаны декларировать применение ИИ в своих работах, в то время как преподаватели должны четко сообщать о правилах его использования и указывать, где они сами его применяли. Также определяется как «академическая добросовестность» (Academic Integrity). Несоблюдение этого принципа имеет серьезные последствия. Сколтех: «неуказание на использование ИИ представляет собой нарушение принципа академической честности и рассматривается как плагиат и (или) обман» (University College Dublin, Гарвардский университет, MIT, Оксфордский университет, ETH Zurich, Сколтех, НИУ ВШЭ, РАНХиГС).
3. Ответственность и подотчетность (Responsibility and Accountability). Конечную ответственность за качество, точность и оригинальность представленной работы несет человек. Как гласит политика ETH Zurich, «вы несете ответственность за содержание работы, которую вы представляете». Студент в полной мере отвечает за предоставленные им материалы, даже если они были созданы с помощью ИИ. Аналогично, преподаватель несет ответственность за качество учебных материалов (Гарвардский университет, MIT, ETH Zurich, University College Dublin, Уппсальский университет, ПГУ).

4. Справедливый и равный доступ (Fairness and Equity). Этот принцип гарантирует, что ни один студент не окажется в невыгодном положении из-за внедрения новых технологий. Он прямо запрещает преподавателям требовать использования платных инструментов ИИ, которые не предоставляются университетом централизованно. Как указано в руководстве UCD, «преподаватели не могут требовать от студента использовать инструмент ИИ, который не предоставляется UCD» (University College Dublin, НИУ ВШЭ, ПГУ, ETH Zurich).
5. Конфиденциальность и защита данных (Privacy and Data Security). Этот принцип требует строгой защиты персональных данных, конфиденциальной информации и неопубликованных исследований. Он категорически запрещает ввод таких данных в общедоступные, не утвержденные университетом, генеративные модели. Политика MIT: «Никакие инструменты генеративного ИИ… не одобрены для использования с информацией MIT высокого риска» (MIT, Стэнфордский университет, Оксфордский университет, Сколтех, ПГУ).
6. Компетентность и использование в целях обучения
Данный принцип направлен на противодействие т.н. «академическому сговору».
Этические требования к использованию ИИ в образовательных организациях
На основе вышеизложенных принципов большинство образовательных организаций формируют схожие практические требования к использованию ИИ. Их цель — обеспечить ясность, предсказуемость и честность в учебном процессе как для студентов, так и для преподавателей.
3.1. Информирование о требованиях к применению технологий ИИ
Преподаватели обязаны четко сформулировать и донести до студентов свою политику в отношении использования ИИ.
Политика должна однозначно определять:
- Уровень разрешения: разрешено ли использование ИИ полностью, частично ограничено или полностью запрещено?
- Область применения: какие конкретные задачи (например, мозговой штурм, моделирование и т.п.) и типы заданий (например, эссе, домашние задания, экзамены) включены или исключены?
- Одобренные инструменты: могут ли студенты использовать любой инструмент или они ограничены платформами, утвержденными университетом?
(Принстонский университет, Stanford Graduate School of Business (GSB), University College Dublin, НИУ ВШЭ, РАНХиГС).
3.2. Декларирование использования ИИ
Ключевым требованием к студентам является обязательное и прозрачное указание факта использования ИИ в своих работах. Способы декларирования должны быть четко определены и могут включать:
- Специальный раздел в работе: указание использованных инструментов, промптов и характера применения. Например, для генерации идей, структурирования, корректуры (Имперский колледж Лондона, НИУ ВШЭ).
- Указание в аннотации и отзыве руководителя: для курсовых и выпускных квалификационных работ (РУДН, НИУ ВШЭ).
- Приложение с транскриптом: предоставление полного лога взаимодействия с ИИ в виде таблицы или приложения (National University of Singapore).
Также применяется стандартное цитирование: оформление использования ИИ как цитаты источника в соответствии с принятыми академическими стилями (например, APA, MLA). (Гарвардский университет, Стэнфордский университет).

3.3. Ответственность за результат
Независимо от степени использования ИИ, пользователь несет полную и безоговорочную ответственность за точность, достоверность и отсутствие фактических ошибок («галлюцинаций») и предвзятости в своей работе (Гарвардский университет, MIT, ETH Zurich, University College Dublin, Имперский колледж Лондона).
3.4. Обеспечение равного доступа
Преподаватели не могут обязывать студентов использовать инструменты ИИ, которые требуют личных финансовых затрат и не предоставляются университетом централизованно. Это требование направлено на предотвращение цифрового неравенства и обеспечение равных условий для всех обучающихся (University College Dublin, НИУ ВШЭ, РАНХиГС).
3.5*. Защита конфиденциальной информации (в действительности, это правовое, а не этическое требование, но обычно оно содержится и в документах этического регулирования)
Студентам и сотрудникам категорически запрещается вводить персональные данные, неопубликованные исследования, конфиденциальную университетскую информацию и другие чувствительные данные в общедоступные генеративные модели ИИ, не одобренные университетом (MIT, Стэнфордский университет, Оксфордский университет, Сколтех, ПГУ).
Несмотря на эти общие моменты, в академическом сообществе продолжаются активные дебаты, что приводит к заметным различиям в подходах отдельных университетов к регулированию ИИ.
Различия в подходах к регулированию ИИ
Академическое сообщество еще не пришло к единому мнению по всем вопросам использования ИИ, что приводит к заметным различиям в политиках разных университетов. Эти расхождения проявляются в вопросах степени разрешенности ИИ и методов контроля за его использованием.
| Аспект регулирования | Примеры различий в подходах (на основе источников) |
| Уровень допустимости | — Шкала разрешений: Некоторые университеты (например, University College Dublin, National University of Singapore) предлагают градацию от полного запрета до обязательного использования в зависимости от целей задания. — Запрет на запрет: Политика Stanford Graduate School of Business для курсов MBA/MSX прямо указывает, что преподаватели не могут запрещать использование ИИ для домашних работ. — Презумпция запрета: Другие, как Гарвардский университет, устанавливают, что использование ИИ для создания работы по умолчанию является нарушением, если иное не разрешено преподавателем. — Открытое поощрение: В отдельных курсах (например, POL 329 в Принстонском университете) студентов активно поощряют экспериментировать с ИИ. |
| Использование инструментов детекции | — Недоверие к детекторам: University College Dublin и National University of Singapore прямо заявляют, что инструменты детекции ИИ-сгенерированного контента ненадежны, могут давать ложные результаты и поэтому не используются в их учреждениях. — Интеграция детекторов: НИУ ВШЭ, напротив, сообщает, что с января 2024 года их система проверки на заимствования использует плагин для распознавания сгенерированных текстов. Сколтех также указывает, что преподаватели вправе использовать такое ПО. |
| Степень автономии преподавателя | — Модели полной автономии: Большинство университетов (например, University College Dublin, Гарвардский университет, Принстонский университет, НИУ ВШЭ) предоставляют преподавателям академическую свободу самостоятельно определять полный спектр правил использования ИИ в рамках своих курсов — от полного запрета до обязательного требования. — Модели с установленным минимумом разрешенности: другие подходы, как в Stanford GSB, устанавливают более жесткие общепрограммные рамки (невозможность полного запрета), ограничивая автономию преподавателя и устанавливая централизованный уровень допустимости. |

5. Анализ мер по снижению рисков и нейтрализации негативных последствий
Помимо вопросов академической честности, эксперты, в частности из UNESCO, и ведущие университеты выделяют ряд долгосрочных рисков, связанных с широким внедрением ИИ в образование. Важно отметить, что существующие политики уже содержат меры, направленные на минимизацию этих угроз.
5.1. Снижение интеллектуального потенциала

Риск: опасность того, что студенты будут использовать ИИ для обхода сложной когнитивной работы, что помешает развитию ключевых навыков критического мышления, самостоятельного анализа и письма.
Меры по снижению:
• Позиционирование ИИ как вспомогательного инструмента: политики многократно определяют ИИ как «дополнение, а не замену» естественному интеллекту (НИУ ВШЭ, РАНХиГС) и «вспомогательный инструмент» (ПГУ), который не должен выполнять «когнитивную работу за вас» (Гарвардский университет).
• Переориентация заданий: преподавателям рекомендуется разрабатывать задания, нацеленные на развитие «навыков мышления более высокого порядка» (NUS) и оценку «аутентичных компетенций» (ETH Zurich), которые ИИ не может полностью воспроизвести (например, анализ уникальных кейсов, устные защиты, дебаты).
• Развитие критической оценки: требование к студентам критически оценивать, проверять, верифицировать и дорабатывать сгенерированный ИИ контент само по себе становится важным метакогнитивным навыком, который необходимо формировать и оценивать (Имперский колледж Лондона, MIT, Стэнфордский университет, НИУ ВШЭ).
5.2. Деперсонализация общения
Риск: сокращение возможностей для личного контакта и живого интеллектуального взаимодействия между преподавателями и студентами, а также между самими студентами.

Меры по снижению:
• Принцип приоритета человеческого общения: документы российских университетов (Сколтех, НИУ ВШЭ, ПГУ) прямо выносят этот принцип в число основных. Например, Сколтех четко указывает, что «неприемлемой является полная замена общения между Участниками образовательных отношений… на коммуникацию, осуществляемую автоматическими системами».
• Ценность взаимодействия: педагогические практики, делающие акцент на командной работе, устных защитах, дискуссиях в аудитории и проектной деятельности, как рекомендует РАНХиГС.
5.3. Кризис авторства

Риск: по определению UNESCO, ИИ создает «формально новый, но не имеющий принципиальной новизны» контент, так как он «не понимает объекты реального мира или социальные отношения». Это размывает понятие человеческого авторства и оригинальности. Этот кризис не только академический, он и имеет юридические последствия, как отмечено в решении Бюро по авторским правам США, на которое ссылается UNESCO, что авторское право может защищать только «продукт человеческого творчества», юридически помещая контент, сгенерированный ИИ, в безавторскую пустоту.
Меры по снижению:
• Жесткое регулирование авторства: основным инструментом является требование прозрачности и обязательного декларирования использования ИИ. Это позволяет четко разграничить вклад человека и машины (большинство университетских политик).
• Приравнивание к плагиату: представление сгенерированного ИИ контента как собственного является грубым нарушением академической честности и приравнивается к плагиату (NUS, University College Dublin, НИУ ВШЭ).
5.4. Углубление цифрового неравенства и технологического колониализма

Риск: Согласно анализу UNESCO, существует опасность того, что технологии ИИ, обученные преимущественно на данных «Глобального Севера», будут усиливать существующее экономическое и культурное неравенство, маргинализировать локальные культуры и вытеснять национальные языки.
Меры по снижению:
• На макроуровне (международном): UNESCO призывает к разработке инклюзивных систем ИИ, которые защищают языковое и культурное разнообразие и не продвигают доминирующие нормы в качестве универсальных.
• На микроуровне (университетском): принцип справедливости и равенства доступа решает эту проблему локально. Развитие собственных моделей ИИ, а также запрет на требование использовать платные инструменты (University College Dublin, НИУ ВШЭ) и обеспечение равного доступа к технологиям для всех студентов (ПГУ).
5.5. Инфляция инноваций («Гонка ИИ-вооружений»)

Риск: самоцельное, некритическое внедрение ИИ ради технологической моды, а не ради реальной педагогической ценности. Этот процесс подпитывается «гонкой среди крупных технологических компаний» (UNESCO) и может привести к непродуманным и вредным решениям.
Меры по снижению:
• Взвешенный и развивающийся подход: многие университеты позиционируют свои руководства как «живые документы» (University College Dublin, Гарвардский университет), которые будут развиваться по мере осмысления технологии. Это свидетельствует об отказе от поспешных, реактивных решений в пользу обдуманной эволюции.
• Акцент на педагогической целесообразности: политики подчеркивают, что в основе решения об использовании ИИ должны лежать цели обучения, а не сама технология. Применение ИИ должно «способствовать достижению целей обучения», а не мешать им. (University College Dublin, NUS)
• Поощрение критического исследования: преподавателей и студентов призывают «исследовать возможности и проблемы вместе, в позитивном духе» (Уппсальский университет), что подразумевает осмысленное, рефлексивное, а не слепое внедрение технологий.
Осознание этих рисков и встраивание мер по их снижению в базовые правила является признаком зрелого и ответственного подхода академического сообщества к новым технологиям.
Используемые сокращения:
ИИ — искусственный интеллект.
ГИИ — генеративный искусственный интеллект.