Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).
ОБЗОР
Роль искусственного интеллекта в контроле академической добросовестности и развитии клинического мышления
1 Российский национальный исследовательский медицинский университет имени Н. И. Пирогова (Пироговский университет), Москва, Россия
2 Научно-исследовательский институт организации здравоохранения и медицинского менеджмента, Москва, Россия
ул. Островитянова, д.1, г. Москва, 117997, Россия; moc.liamg@1122spomat
Стремительное развитие искусственного интеллекта (ИИ) и, в частности, больших языковых моделей (Large Language Models, LLM) коренным образом меняет многие сферы, в том числе высшее образование и медицину. Появление таких моделей, как ChatGPT, породило как энтузиазм относительно новых возможностей обучения, так и опасения, связанные с академической честностью и качеством подготовки специалистов. С одной стороны, ИИ-ассистенты способны быстро генерировать тексты, отвечать на сложные вопросы и даже проходить профессиональные экзамены. Так, модель GPT-4 успешно сдала экзамены USMLE (United States Medical Licensing Examination), продемонстрировав уровень знаний, сопоставимый с выпускником медвуза [1]. С другой стороны, бесконтрольное использование таких инструментов студентами может привести к злоупотреблениям — от списывания и плагиата до формирования у будущих врачей неглубокого, «поддерживаемого ИИ» стиля мышления без достаточной критичности [2].
Цель данной работы — провести обзор роли ИИ в медицинском образовании сквозь призму двух важных аспектов: поддержание академической добросовестности и развитие клинического мышления у студентов. В рамках обзора обсуждаются:
1. текущий уровень и характер использования ИИ студентами-медиками,
2. риски, связанные с большими языковыми моделями (галлюцинации, алгоритмическая предвзятость),
3. меры противодействия ИИ-плагиату,
4. применение генеративного ИИ для учебных симуляций и виртуальных пациентов,
5. возможности адаптивного обучения на основе ИИ, а также
6. стратегические и этические вопросы интеграции ИИ в программы медицинского образования.
ИСПОЛЬЗОВАНИЕ ИИ СТУДЕНТАМИ-МЕДИКАМИ И АКАДЕМИЧЕСКАЯ ДОБРОСОВЕСТНОСТЬ
Современные студенты-медики быстро осваивают новые цифровые инструменты, и большие языковые модели не стали исключением. По данным недавнего опроса в США, более половины (52,0%) студентов-медиков уже используют ChatGPT для выполнения учебных заданий по медицине, а в целом 61,3% опрошенных прибегали к помощи ИИ в тех или иных целях [3]. Подавляющее большинство знакомо с данной технологией: 96% слышали о ChatGP T. Студенты отмечают целый ряд полезных применений: от поиска объяснений сложных медицинских концепций и генерации идей до помощи в составлении диагностических планов и редактировании текстов работ. Около 60% респондентов считают, что ChatGPT в целом приносит пользу в их обучении. Особенно часто ИИ задействуется для подготовки к занятиям и экзаменам (по крайней мере 38% студентов сообщили об этом), для академического «мозгового штурма» — генерации идей по учебным проектам (29%), а также для решения организационных вопросов (26%) и даже при написании фрагментов академических текстов (23%). Иными словами, ИИ-инструменты уже стали повседневным помощником значительной части обучающихся [3].
Однако широкое использование генеративного ИИ порождает и новые вызовы для системы обеспечения академической честности. В традиционном понимании академическая добросовестность подразумевает самостоятельное выполнение студентами учебных заданий, недопустимость плагиата и списывания. Появление сервисов вроде ChatGPT усложнило контроль соблюдения этих принципов, поскольку теперь студент может за минуты получить от ИИ сгенерированный ответ на практически любой вопрос. Это вызывает обоснованные опасения преподавателей относительно злоупотреблений обучающимися такой возможностью — фактически выдавать ответы, написанные ИИ, за свои собственные. Уже появились первые сообщения о попытках студентов использовать ChatGPT для написания эссе, решений кейсов и даже экзаменационных работ. Например, опрос в одном из вузов выявил, что около 75% студентов, прибегавших к ИИ, сталкивались с неточностями или некорректными ответами модели [3], но при этом часть респондентов признала, что иногда все же вставляла сгенерированные фрагменты в свои работы без должной проверки. Такая практика по сути равносильна академическому мошенничеству, особенно если студент не указывает источник и не проверяет достоверность ответа. Возникает и проблема «автоматизированного» плагиата, когда уникальный по формулировке, но чужой по сути текст генерируется алгоритмом. Таким образом, перед университетами встает задача обновления политики академической честности и разработки рекомендаций по допустимому использованию ИИ в учебном процессе.
Важно подчеркнуть, что использование ИИ необязательно противоречит целям обучения — во многом все зависит от того, как именно студент пользуется ИИ. Если ИИ применяется как инструмент для дополнительного изучения материала, проверки своих знаний, генерации учебных тестовых вопросов или получения подсказок, то его роль можно сравнить с продвинутой справочной системой или репетитором. Действительно, многие студенты отмечают экономию времени и повышение эффективности подготовки благодаря ИИ. С его помощью учащиеся генерируют карточки для запоминания (например, формат Anki) [3], создают тренировочные тесты и клинические сценарии, получают разъяснения сложных тем. При разумном использовании такие возможности могут улучшать усвоение знаний и даже стимулировать интерес к самостоятельному поиску информации. Вместе с тем, если ИИ становится «костылем», с помощью которого студент пытается избежать собственных размышлений и усилий (например, бездумно переписывает ответ ChatGPT), это не только нарушает принципы честности, но и тормозит развитие клинического мышления и критических навыков у обучающегося. Возникает феномен «когнитивной лени», когда обучающийся привыкает доверять готовым ответам ИИ и все реже анализирует информацию самостоятельно [1, 2]. В перспективе такая автоматизация мышления опасна: будущий врач может перенести привычку полагаться на советы ИИ и в реальную клиническую практику, что чревато неправильными решениями при лечении пациентов.
Следовательно, перед медвузами стоит двойная задача: с одной стороны, не игнорировать новые инструменты и даже интегрировать их для обогащения учебного опыта, с другой — четко обозначить границы допустимого использования и усилить воспитание ответственности и самостоятельности у студентов. Уже сейчас 92% студентов (по результатам вышеупомянутого опроса) высказались за необходимость официальных этических руководств и регуляторных рамок по применению ИИ в обучении [3]. Такие руководства должны разъяснять, когда и как уместно пользоваться ИИ (например, для самопроверки или в качестве справочника) и когда не следует этого делать (например, при выполнении экзаменационных заданий). Кроме того, возникает потребность обучения самих студентов навыкам работы с ИИ и основам «digital ethics» для понимания ограничений и подводных камней этих технологий. Некоторые медицинские школы уже включают обсуждение ИИ в курсы по медицинской этике и вводят занятия, демонстрирующие, как отличить корректные ответы от «галлюцинаций» и проверять факты, выданные моделью. Таким образом, контроль академической добросовестности в эру ИИ должен опираться не только на запретительные меры, но и на просвещение и культуру ответственности, прививаемую будущим врачам.
РИСКИ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ: ГАЛЛЮЦИНАЦИИ И АЛГОРИТМИЧЕСКАЯ ПРЕДВЗЯТОСТЬ
Генеративные модели языка, к которым относится ChatGPT, обладают впечатляющей способностью создавать связные и грамотно написанные ответы на основе огромных объемов данных, использованных при обучении. Однако такая статистическая природа обучения приводит к ряду типичных ошибок и ограничений. Одним из наиболее известных явлений является галлюцинация — ситуация, когда модель выдает правдоподобный, но ложный ответ. По сути, ИИ «выдумывает» факты или объяснения, которых не было в исходных данных, но по стилю они выглядят убедительно [3, 4]. Например, модель может сослаться на несуществующее исследование, придумать несуществующий медицинский термин или перепутать характеристики лекарств. Такие ошибки особенно коварны в учебном контексте: неопытный студент, получив от ChatGPT такой правдоподобный ответ, может не распознать его ошибочность и запомнить искаженную информацию. В литературе приводятся случаи, когда ChatGPT генерировал несуществующие ссылки на научные статьи при попытке сделать обзор литературы, «галлюцинировал» библиографию, вводя исследователей в заблуждение [5]. В медицине цена таких фантазий может быть высокой: ненадежные сведения о дозировке препарата или симптомах заболевания способны привести к серьезным ошибкам при клинических решениях [6]. Поэтому риски галлюцинаций требуют повышенного внимания. Студентам необходимо разъяснять, что любой ответ ИИ следует критически проверять по авторитетным источникам, а не доверять слепо даже очень уверенно сформулированным объяснениям модели.
Еще одна важная проблема — алгоритмическая предвзятость ИИ (bias). Большие языковые модели обучаются на массивных корпусах текстов, отражающих в той или иной мере существующие стереотипы и дисбалансы, присущие обществу. Это может приводить к тому, что ответы ChatGPT включают уклон в зависимости от пола, расы, национальности или иных характеристик, даже если вопрос задан нейтрально. В медицинском контексте такая предвзятость способна проявляться, например, при оценке рисков или рекомендательных ответах для пациентов разного пола. Недавнее исследование проверило реакции ИИ-моделей (ChatGPT-4 и Google Bard) на ряд клинических сценариев, изменяя в них демографические данные пациентов [7]. Выяснилось, что ответы ИИ по некоторым вопросам варьировались в зависимости от расы и пола пациента, хотя с медицинской точки зрения эти факторы не влияли на диагноз или лечение. В некоторых случаях ChatGPT давал менее агрессивные рекомендации терапии для женщин и представителей этнических меньшинств по сравнению с мужчинами европеоидной расы. Хотя модель ИИ не имеет дискриминационных намерений, структура обучающих данных и историческая асимметрия в них способна транслировать существующие социальные предвзятости ИИ.
Для системы медицинского образования это означает, что использование ИИ должно сопровождаться обсуждением вопросов справедливости и разнообразия. Студентов необходимо обучать распознавать потенциальные искажения в выводах, полученных с помощью ИИ. Например, если алгоритм предлагает клиническое решение, стоит задуматься: не упускает ли он нюансов, связанных с индивидуальными особенностями пациента? Кроме того, важно работать над самими ИИ-системами — вводить механизмы снижения предвзятости. Разработчики моделей уже предпринимают шаги в этом направлении, включая специальные фильтры и дообучение на выверенных датасетах. Тем не менее полностью устранить bias крайне сложно, поэтому ключевой мерой остаются человеческий контроль и критическое мышление врача. В образовании это выражается в том, что ИИ-советник не должен заменять клинического наставника или тщательный разбор реальных кейсов. Скорее, он может служить отправной точкой для дискуссии: преподаватель вместе со студентами может проанализировать ответ ChatGPT на клинический случай, найти в нем потенциальные перекосы или ошибки и тем самым научить будущих врачей бдительности.
Дополнительная этическая проблема — «черный ящик» ИИ. Большинство современных моделей работают как неинтерпретируемые системы: они не могут объяснить, почему выдали именно такой ответ. Для медицинской среды это новое испытание, ведь принцип доказательности требует понимания хода рассуждений. Если ИИ предлагает диагноз, но не может обосновать, на каких симптомах и данных он основан, полагаться на такой вывод рискованно. В образовательном аспекте это напоминает студенту о важности принципа не принимать решения без понимания, будь то совет ИИ или подсказка человека. Таким образом, освоение ИИ должно идти рука об руку с формированием привычки запрашивать объяснения и искать рациональные основания под любым предложенным решением.
ПРОТИВОДЕЙСТВИЕ ИИ-ПЛАГИАТУ И НОВЫЕ СИСТЕМЫ АНТИПЛАГИАТА
Распространение инструментов для автоматической генерации текста поставило в повестку дня вопрос: как выявлять работы, написанные не студентом, а машиной? Классические системы проверки на заимствования (например, Antiplagiat) изначально создавались для поиска прямых текстовых совпадений с существующими источниками. Генеративный же ИИ способен создавать оригинальные по формулировкам тексты, не скопированные откуда-либо, следовательно, стандартные алгоритмы часто бессильны обнаружить такую подмену авторства. В ответ разработчики начали оснащать антиплагиатные системы специальными модулями детекции ИИ-текста.
Одним из пионеров в этом стала компания Turnitin, широко используемая в вузах по всему миру. В 2023 г. Turnitin внедрила алгоритм, который анализирует стилистические особенности и статистические признаки текста, позволяющие судить о вероятности его машинного происхождения1 . По заявлениям разработчиков, новый инструмент срабатывает с точностью до 98%, то есть в подавляющем большинстве случаев корректно отличает тексты, написанные ИИ от человеческих. Принцип его действия основан на том, что языковые модели генерируют текст, опираясь на вероятностное предсказание следующего слова. Это придает сгенерированным предложениям своеобразную «гладкость» и предсказуемость. Алгоритм Turnitin вычисляет степень этой предсказуемости для различных фрагментов: если текст слишком статистически однороден и лишен уникальных языковых черт, характерных для человеческого стиля, то, вероятно, он создан машиной. В ходе независимого тестирования новый детектор показал себя довольно успешно — он уверенно распознал как полностью ИИ-сгенерированное эссе (показав 100% вероятности ИИ-происхождения), так и полностью оригинальный студенческий текст (0% ИИ). Интересно, что при проверке «смешанного» документа, где около трети текста написал человек, а остальное — ИИ, система также отметила подозрительные фрагменты и оценила долю ИИ-контента примерно в 70%, то есть близко к реальному значению.
Вместе с тем, надежность подобных детекторов небезупречна. Разработчики признают дилемму: стремление улавливать максимум ИИ-текста чревато возрастанием ложных срабатываний, когда алгоритм ошибочно обвиняет в «машинном» происхождении вполне оригинальный фрагмент (так называемые ложно-положительные ошибки). Чтобы свести к минимуму риск несправедливого обвинения студента, та же компания Turnitin настроила систему так, чтобы она скорее бы пропустила до 15% ИИ-контента, чем дала бы более 1% ложно обвиненных случаев. Несмотря на это, отдельные инциденты с ложными обвинениями получили огласку: в СМИ описывались случаи, когда работа добросовестного студента ошибочно помечалась алгоритмом как содержащая ИИ-текст, что приводило к разбирательствам. Кроме того, сами модели ИИ быстро совершенствуются, и новые версии могут генерировать все более «очеловеченные» ответы, труднее поддающиеся автоматическому распознаванию.
В российских вузах проблема ИИ-плагиата также актуальна и в связи с этим предпринимаются собственные инициативы. Так, в Санкт-Петербургском государственном университете создана система «АУРА-Текст», изначально разработанная для выявления классического плагиата, но теперь адаптированная и для поиска заимствований, выполненных с помощью перефразирования или генерации текста. Алгоритмы «АУРА-Текст» используют обширные базы данных научных работ, интернет-источников, а также методы машинного анализа стиля текста. Сообщается, что система способна обнаруживать неявные заимствования, включая тексты, прошедшие через автоматические перефразаторы, благодаря сопоставлению с огромным корпусом сходных по теме текстов. Таким образом, даже если ИИ сгенерировал уникальный фрагмент, но по смыслу и терминологии он близок к ряду источников, «АУРА» может зафиксировать аномальное пересечение. Разработчики также отмечают, что механизм учится на обнаруженных случаях, постепенно повышая точность2 . Помимо данной системы существуют и другие, например Интеллектуальная система анализа научных и учебных работ {do}mate3 .
В целом, борьба с ИИ-плагиатом находится на раннем этапе, и полностью техническими средствами ее решить затруднительно. Помимо совершенствования детекторов, немаловажно формировать у студентов этическое отношение к использованию ИИ. Прозрачность — ключевой принцип: если студент привлекал ИИ для помощи, он должен открыто об этом заявлять (например, в благодарностях или сносках, указывая, что определенный текст был сгенерирован и затем отредактирован человеком). Некоторые научные журналы уже требуют от авторов раскрывать использование ChatGPT при подготовке статей, чтобы предотвратить скрытое введение в текст несамостоятельных фрагментов. Медицинские вузы могут перенять эту практику в учебных работах. В конечном итоге, как и с обычным плагиатом, важен неотвратимый контроль и воспитание культуры академической честности. Студент должен понимать, что обман с помощью ИИ не менее серьезен, чем любая другая форма мошенничества, а выявить его — вполне реально.
ГЕНЕРАТИВНЫЙ ИИ ДЛЯ РАЗВИТИЯ КЛИНИЧЕСКОГО МЫШЛЕНИЯ: ВИРТУАЛЬНЫЕ ПАЦИЕНТЫ И СИМУЛЯЦИИ
Одним из наиболее перспективных направлений применения ИИ в медицинском образовании является имитация клинической практики в виртуальной среде. Так называемые виртуальные пациенты и симуляционные сценарии с участием ИИ позволяют студентам приобретать опыт диагностики и лечения, не рискуя навредить реальному пациенту, и при этом получать мгновенную обратную связь. Если традиционные симуляторы (например, манекены, ролевые игры с актерами или запрограммированные кейсы) ограничены заложенными в них вариантами, то генеративная модель вроде GPT может динамически реагировать на действия и вопросы студента, приближая учебную ситуацию к настоящему клиническому диалогу [8].
Международный опыт в этой области уже демонстрирует многообещающие результаты. В 2023–2025 гг. появились публикации о первых экспериментах, где ChatGPT использовался как интерактивный «стандартизированный пациент». Например, в Мексике была проведена клиническая симуляция случая острого коронарного синдрома для студентов 4–5 курса, где роль виртуального пациента исполняла модель GPT-4 [8]. Студенты могли расспрашивать «больного» о жалобах, анамнезе, назначать обследования, а ИИ отвечал в режиме диалога, меняя свое «состояние» в зависимости от решений участника. По завершении сценария автоматизированная система выдавала обучающемуся развернутый отчет с обратной связью — указывала, какие шаги были выполнены правильно, где допущены ошибки, давала рекомендации. Оценка эффективности такого подхода показала высокий уровень удовлетворенности: свыше 90% участников сочли виртуальный кейс реалистичным и полезным для отработки клинического мышления, 94% положительно оценили качество ответов «пациента», а 88% отметили оптимальный уровень сложности задания. Почти все (97%) признали автоматическую обратную связь ценной для обучения. В комментариях студенты подчеркнули, что получили чувство погружения и безопасности — можно экспериментировать с решениями, не боясь навредить реальному человеку, и учиться на ошибках.
Еще один пример — эксперимент в Университете Калифорнии (Irvine), где команда преподавателей проверила возможность использования ChatGPT-3.5 для проведения тренировочных сценариев с начинающими клиническими студентами [1]. Были сформулированы «стартовые» подсказки (prompts), задающие условия неотложной ситуации, например алгоритм расширенной сердечно-легочной реанимации или ведение тяжелой пневмонии в стационаре. Далее ИИ моделировал ход случая: студент последовательно вводил свои действия (сбор жалоб, назначение обследований, терапия), а модель описывала изменения состояния виртуального пациента и задавала наводящие вопросы. При отклонении в неверную сторону ИИ мог мягко корректировать, а в конце выдавал подробный разбор сценария. В результате авторам удалось создать несколько прототипов симуляций, которые продемонстрировали способность ChatGPT адаптироваться к ответам пользователя и имитировать развитие клинического случая от начала до конца. Отмечено, что такой формат особенно полезен для переходного этапа между теоретическим обучением и реальными клиническими ротациями: он помогает студентам связать воедино разрозненные знания, научиться формировать дифференциальный диагноз и план лечения в условиях, близких к клиническим. Преимуществом является и масштабируемость: фактически GPT-модель способна сгенерировать неограниченное число разнообразных клинических случаев на любую тему, что значительно расширяет возможности практики по сравнению с фиксированными наборами задач из учебников или банков тестов.
Также ведутся в этом направлении и российские разработки. Примером этому служит платформа «Виртуальный пациент», созданная в Первом МГМУ им. И. М. Сеченова. Эта система уже сейчас представляет собой сложный цифровой тренажер: база данных содержит свыше 4700 уникальных показателей здоровья детей различных возрастов и более 1,5 млн индивидуальных значений этих параметров4 . В платформе реализовано более 1000 клинических заданий и около 50 сценариев по педиатрии, основанных на реальных случаях болезней. В РНИМУ им. Н. И. Пирогова также ведется разработка подобных кейсов, и они уже с успехом реализуются в образовательных модулях на Портале непрерывного медицинского и фармацевтического образования5.
Конечно, использование генеративного ИИ в симуляциях не лишено вызовов. Точность и достоверность медицинского контента, генерируемого моделью, должны находиться под постоянным контролем преподавателей. ИИ может допустить некорректное развитие сценария или предложить неоптимальное решение, поэтому на первых порах рекомендуется, чтобы обучающие виртуальные сессии курировались наставником, способным вовремя вмешаться и обсудить спорные моменты. Кроме того, важно помнить об уже упомянутых рисках: галлюцинациях (например, ИИ может «придумать» несуществующий симптом) и предвзятости (модель может, к примеру, по разному реагировать на вопросы студентов в зависимости от формулировок). Поэтому разработчики закладывают в сценарии механизмы валидации — фиксированные правильные ответы, которыми проверяется логика ИИ, или ограничения на поведение модели в рамках клинического руководства. По мере накопления опыта и совершенствования моделей можно ожидать, что виртуальные пациенты на основе ИИ станут все более надежными и превратятся в неотъемлемый элемент программы обучения врачей.
ИНДИВИДУАЛИЗАЦИЯ И АДАПТИВНОЕ ОБУЧЕНИЕ С ПОМОЩЬЮ ИИ
Одним из самых привлекательных свойств ИИ-технологий в образовании является потенциал для персонифицированного, адаптивного обучения. Каждый студент медицинского вуза имеет свой уникальный стиль восприятия информации, уровень базовых знаний и пробелы, требующие заполнения. Традиционная аудиторная система обучения зачастую не успевает подстроиться под эти индивидуальные собенности — преподаватель ориентируется на средний уровень группы. Использование же интеллектуальных обучающих систем на базе ИИ открывает возможность сделать учебный процесс более гибким: система может анализировать успехи и ошибки конкретного студента и динамически подбирать материал или упражнения, которые необходимы именно ему для прогресса.
Простейший пример—адаптивные тренажеры тестовых заданий. Уже существуют программы, которые с помощью алгоритмов машинного обучения определяют, по каким темам студент допускает больше ошибок, и генерируют дополнительные вопросы по этим темам, постепенно повышая или снижая уровень сложности в зависимости от ответов. Генеративные модели типа ChatGPT способны пойти дальше: они могут не только варьировать вопросы, но и в диалоговом режиме объяснять неверные ответы, давать подсказки и даже менять подход к объяснению материала, если студент не понимает с первого раза. По сути, реализуется идея персонального электронного наставника, который доступен 24/7 и реагирует на потребности ученика. В медицинском образовании это особенно актуально, учитывая обилие сложных для запоминания деталей (анатомия, фармакология и т.д.) и необходимость развития одновременно теоретических знаний и клинического мышления.
Исследования последних лет фиксируют первые успехи в этом направлении. В упомянутом ранее обзоре Hale и соавт. (2024) выделены ключевые области применения генеративного ИИ в обучении студентов- медиков — помимо виртуальных пациентов и ассистентов для написания текстов, отдельно отмечается роль ИИ как адаптивного репетитора [8]. Хотя полномасштабных внедрений еще мало, концептуально такая система могла бы, например, генерировать для студента индивидуальный учебный план: после оценивания исходных знаний (например, с помощью тестирования или анализа выполненных заданий) ИИ определяет слабые места и предлагает материалы (главы книг, статьи, видео) именно по этим аспектам. Затем — проверочный диалог или задачи для применения знаний, с последующей обратной связью. Если студент исправил ошибки, программа переходит к следующему блоку, если нет — объясняет иначе, возможно более простым языком или с другими примерами.
Налицо и потенциал игровой мотивации (геймификации) посредством ИИ. Персональный помощник может поддерживать интерес студента: хвалить за успехи, предлагать небольшие соревнования (например, «сможешь ли ты правильно диагностировать три случая подряд?») и даже подстраиваться под предпочтения — кому-то удобнее учиться с элементом юмора, а кому-то нужен строгий стиль. Модель ИИ способна менять тон общения в зависимости от реакции обучаемого. Такие нюансы, хоть и выглядят несерьезно, на самом деле влияют на вовлеченность и снижение стресса у студентов-медиков, которые часто испытывают серьезную нагрузку и давление требования к успеваемости.
Еще одна грань индивидуализации — учет контекста будущей специализации. Например, студент, планирующий стать педиатром, может получить больше задач по детским случаям, а интересующийся хирургией — симуляции хирургических ситуаций и анатомические задания. ИИ может автоматически идентифицировать склонности (например, если студент в свободное время задает много вопросов про кардиологию, система это отметит) и рекомендовать углубленный материал по соответствующим областям. Это поможет формировать раннюю профилизацию без ущерба для общей подготовки.
Разумеется, адаптивные ИИ-системы обучения пока находятся в зачатке. Некоторый скепсис связан с тем, что эффективность таких подходов требует тщательной валидизации: важно доказать, что студент, обучавшийся с ИИ-тьютором, действительно достигает лучших результатов, чем при обычном обучении. Пока эмпирических данных недостаточно — в обзорах отмечается, что большинство публикаций на эту тему носят описательный или пилотный характер, а строгих сравнительных экспериментов мало. В 2025 г. вышел систематический обзор Feigerlova и соавт., в котором были проанализированы исследования об использовании ИИ в обучении медицинских специальностей и где авторы констатировали, что методологическое качество большинства работ невысокое и доказательств реального улучшения исходов обучения мало [9]. Это подчеркивает необходимость дальнейших исследований прежде масштабного внедрения адаптивного ИИ-коучинга в качестве стандарта. Тем не менее, с технологической точки зрения предпосылки для индивидуализации обучения с помощью ИИ очевидны, и в ближайшие годы можно ожидать активного развития этого направления.
СТРАТЕГИЧЕСКИЕ И ЭТИЧЕСКИЕ АСПЕКТЫ ВНЕДРЕНИЯ ИИ В МЕДОБРАЗОВАНИЕ
Роль преподавателя в эпоху ИИ также меняется. Если часть рутинного объяснения материала берет на себя электронный ассистент, педагог может сосредоточиться на более сложных аспектах — разборе клинических размышлений, этических дилемм, нюансов, которые ИИ не покрывает. Преподавателю стоит освоить основы prompt-инжиниринга (искусства правильно формулировать запросы ИИ), чтобы эффективно использовать модель в учебном процессе. Кроме того, наставники должны выступать модераторами и контролерами качества: проверять корректность информации, выдаваемой ИИ студентам, помогать фильтровать ошибки. Не менее важно обучить преподавателей методам выявления ИИ-плагиата и пониманию ограничений детекторов, чтобы они могли справедливо оценивать работы.
Этические аспекты использования ИИ в обучении врачей крайне многообразны. Помимо уже обсуждавшейся академической честности выделяются следующие моменты.
– Конфиденциальность данных. Студенты и преподаватели должны строго соблюдать правила при работе с пациентоориентированными данными. Неприемлемо вводить в публичные ИИ-сервисы (типа общедоступного чата) реальные персональные данные пациентов, истории болезни и т.д. Это нарушает нормы врачебной тайны и законодательства о защите данных. Если используются клинические случаи, их нужно деперсонифицировать.
– Справедливый доступ. Необходимо избегать ситуации, когда применение ИИ дает преимущество одним студентам и дискриминирует других. Например, если какие-то студенты не имеют удобного доступа к сети или устройствам для работы с ИИ, университет должен обеспечить для них равные условия.
– Предотвращение зависимости и снижение навыков. Есть обоснованная опасность, что чрезмерная опора на ИИ приведет к снижению мотивации изучения учебного материала («зачем заучивать, если всегда можно спросить у GPT?») и угасанию навыков самостоятельного принятия решений. Это требует тонкого баланса: с одной стороны, мы хотим использовать ИИ для облегчения обучения, с другой — не допустить «атрофии» памяти и критического мышления у студентов. Решение видится в том, чтобы ИИ служил тренером, а не источником окончательной истины.
– Юридические вопросы и атрибуция. Авторам студенческих работ, возможно, в будущем придется указывать степень участия ИИ, что поднимает вопросы авторства и интеллектуальной собственности. Если, условно, нейросеть помогла написать часть текста, кто является автором этого фрагмента?
ВЫВОДЫ
Внедрение искусственного интеллекта в медицинское образование — неизбежная реалия современности. Как показывает мировой и отечественный опыт, ИИ способен значительно обогатить учебный процесс, предоставив студентам-медикам новые инструменты для освоения знаний и навыков. Генеративные модели, такие как ChatGPT, уже демонстрируют ценность в создании реалистичных виртуальных пациентов, интерактивных клинических симуляций и персонализированных обучающих материалов. Они помогают учащимся безопасно практиковаться, допускать ошибки без риска для пациентов и получать мгновенную обратную связь, что способствует развитию клинического мышления и уверенности. Одновременно ИИ-системы могут выступать в роли наставников, подстраивающихся под темп и потребности каждого студента, тем самым поддерживая принципы адаптивного обучения и совершенствуя усвоение сложных тем.
Риски «галлюцинаций» и алгоритмической предвзятости, присущие современным LLM, накладывают ограничения на их использование — без квалифицированного надзора и верификации со стороны преподавателя их нельзя считать полноценным источником истины. Тем не менее, вместо запретов, конструктивнее интегрировать обсуждение этих рисков в сам образовательный процесс: необходимо учить будущих врачей распознавать некорректные или потенциально искаженные ответы ИИ, тем самым укрепляя их собственное аналитическое мышление.
Этические и правовые рамки применения ИИ в образовании и дальнейшей профессиональной практике все еще формируются. Уже сейчас ясно, что человеческая ответственность и контроль должны оставаться во главе угла. ИИ — мощный инструмент, но именно человек определяет цели его применения и несет ответственность за конечные решения, особенно в такой чувствительной области, как здравоохранение.
Балансируя между этими полюсами, образовательное сообщество формирует новую парадигму обучения, где технологии и традиции работают рука об руку ради главной цели — повышения качества медицинской помощи через качественное образование.
1.↑ Turnitin. Режим доступа URL: https://www.turnitin.com. (Дата обращения: 10.08.2025.)
2.↑Собственный антиплагиат. Разработали в СПбГУ. SPBIT.RU. Режим доступа URL: https://spbit.ru/news/sobstvennyy-antiplagiatrazrabotali-v-spbgu-250207. (Дата обращения: 04.08.2025.)
3.↑Интеллектуальная система анализа научных и учебных работ {do}mate. Режим доступа URL: https://www.domate.ru./ (Дата обращения: 04.08.2025.)
4.↑Сеченовский Университет масштабирует в регионы уникальную цифровую систему «Виртуальный пациент» для обучения студентовмедиков. Сайт Сеченовского Университета. Режим доступа URL: https://www.sechenov.ru/pressroom/news/sechenovskiy-universitetmasshtabiruet-v-regiony-unikalnuyu-tsifrovuyu-sistemu-virtualnyypatsient-d/. (Дата обращения: 09.08.2025.)
5.↑Полиморбидный пациент (тренажер с 3D-анимацией). Портал непрерывного медицинского и фармацевтического образования Министества здравоохранения Российской Федерации. Режим доступа URL: https://edu.rosminzdrav.ru/specialistam/proekty/polimorbidnyi-pacient-trenazher-s-3d-animaciei/. (Дата обращения: 09.08.2025.)