Сегодня принято считать, что искусственный интеллект освобождает человека от рутинных задач для более сложной и осмысленной работы. Вместе с экспертом мы попробовали выяснить — действительно ли это так? И влияет ли частое использование генеративных инструментов на способность мыслить критически?

Юрий Чехович, кандидат физико-математических наук, эксперт в области академической этики, машинного обучения и ИИ, заведующий лабораторией №42 в ИПУ РАН и основатель сервиса интеллектуальной проверки академических работ «Думейт»
ИИ значительно ускоряет выполнение привычных задач — это видно на практике. То, что раньше приходилось делать вручную, теперь можно выполнить гораздо быстрее с помощью алгоритмов. Влияние искусственного интеллекта заметно и в работе преподавателей, и в повседневной деятельности студентов: сегодня поиск и обработка информации, подготовка текстов занимают существенно меньше времени, чем даже несколько лет назад, не говоря уже о временах до Интернета.
Однако сам факт экономии времени еще не означает, что оно автоматически будет использовано для исследовательской или творческой работы. Нет никаких гарантий, что человек направит свободные часы на развитие аналитических или креативных навыков.
Дело в том, что мышление — сам по себе процесс довольно энергозатратный. А человек склонен действовать рационально: если задачу можно решить быстро, приложив меньше усилий, именно так он и поступит. И когда цель достигнута, у него не остается естественной мотивации нагружать себя более сложной интеллектуальной работой дополнительно. Скорее всего, освободившиеся минуты или часы он проведет за отдыхом или переключится на другие занятия.
ИИ — бустер или тормоз для мыслительного процесса?
Если говорить о влиянии искусственного интеллекта на способность мыслить, то здесь картина неоднозначная. В ряде ситуаций работа с ИИ-сервисами действительно может стимулировать мышление. Алгоритмы нередко выступают в роли «пускового механизма» — они помогают подступиться к выполнению задачи, начать работу, особенно когда сложно выйти из состояния пустого листа.ИИ может предложить идеи для исследований, подсказать заголовок для статьи, предложить варианты формулировок, которые затем станут отправной точкой для размышлений. Даже если конкретное предложение ИИ-сервиса не будет использовано, оно может подтолкнуть автора к собственным размышлениям, поможет увидеть новые направления и соединить разрозненные мысли. В этом смысле ИИ — хороший бустер и помощник для креативной и аналитической работы.
С другой стороны, если целиком полагаться на алгоритмы, то качество исследовательских работ и знаний в принципе может заметно ухудшиться. Раньше человек ориентировался на относительно устойчивую систему источников — речь о научных журналах, известных экспертах. Сама репутация таких источников служила серьезным знаком качества и достоверности.
С развитием ИИ ситуация изменилась. Мы получили генератор текстов, которые выглядят максимально убедительно: они демонстрируют грамотный язык, логичную структуру, уверенный тон и лишены явных ошибок. Все внешние признаки подсказывают, перед нами надежная информация, многие безоговорочно верят ответам алгоритма и бывают сильно удивлены, когда обнаруживают ошибки.
Здесь и кроется главная проблема современных языковых моделей. Механизм их работы опирается не на проверку фактов в привычном научном смысле, а работает как вероятностная модель, подбирая наиболее правдоподобные формулировки. В результате фактические ошибки могут встречаться с заметной частотой.
Традиционные ориентиры, по которым человек раньше косвенно оценивал надежность информации, перестают работать. Вопреки накопленному опыту, людям теперь приходится учиться не доверять a priori хорошо оформленному и грамотно сложенному тексту. Критическое мышление теперь приходится включать чаще, чем раньше. Мне кажется, что именно это будет главной проблемой использования ИИ в профессиональной среде.

Может ли ИИ провоцировать когнитивные искажения?
Вопрос о том, каким когнитивным искажениям может способствовать частое обращение студентов к ИИ, остается открытым. Важно понимать, что такие искажения не возникают из-за технологии как таковой. Они присущи людям изначально и проявляются тогда, когда отсутствует культура осознанной работы с инструментами и информацией. Проще говоря, если студент не привык проверять источники и размышлять над полученными данными, он и без ИИ легко попадёт в ловушку ошибочного мышления.Корректнее говорить не о том, что ИИ создает новые когнитивные искажения, а о том, что он может усиливать уже существующие. Например, есть искажение «эффект авторитета» — оно возникает из-за того, что современные ИИ-сервисы великолепно воспроизводят видимость экспертности. В результате у пользователей может формироваться ложное ощущение надежности ответа — даже в тех случаях, когда внутри содержатся фактические ошибки или противоречия.
Стоит отметить и другую проблему — привычку полностью делегировать мыслительный процесс алгоритму, когда человек выполняет роль посредника между задачей и искусственным интеллектом. Ответ нейросети получен и просто передается дальше без анализа, уточнений и критической проверки. Это можно рассматривать как форму когнитивного «самоустранения», когда процесс собственного размышления убирается за ненадобностью.
При этом причина такого поведения не только в технологиях — во многом она связана с неготовностью признавать границы собственной компетентности. Проще обратиться к ИИ и выдать его ответ за готовое решение, чем честно сказать «я не знаю точно», «не уверен, что хорошо помню» или «мне нужно время, чтобы разобраться». Эта проблема существовала и раньше, но ИИ сделал её более заметной и массовой.
Какие перемены должны произойти на уровне всей образовательной системы
Чтобы студенты не превращались в пассивных потребителей готовых ИИ-ответов, недостаточно призывов «думать самостоятельно» — нужны новые образовательные практики. И тут есть загвоздка: это невозможно сделать на одном лишь энтузиазме отдельно взятых преподавателей. Перемены должны коснуться всей системы целиком, а это произойдёт только тогда, когда проблему осознают руководители вузов, факультетов, кафедр и образовательных регуляторов.Одним из возможных подходов (далеко не единственным) может стать так называемая «перевернутая аудитория»: студенты самостоятельно читают материалы, смотрят лекции, задают вопросы ИИ, а основная практическая работа происходит внутри аудитории. Очные занятия в таком формате превращаются в пространство активных исследований с решением задач без вспомогательных инструментов, устными ответами, коллоквиумами. Это позволяет сразу увидеть, кто действительно изучил и понял материал, а кто ограничился поверхностным знакомством с темой. Такая работа развивает мышление, а не навык копирования ответов.
Проблема внедрения подобного подхода в образовании заключается в том, что университетские дисциплины устроены как целостный цикл: тут есть лекции, семинары, практики, плюс ко всему с группой обычно работает несколько преподавателей. И перестроить этот баланс может минимум кафедра, а в ряде случаев — только вуз в целом. Кроме этого, распределение часов между теорией и практикой жестко регулируется нормативами, и полностью отказаться от традиционных лекций на данный момент очень сложно.
Поэтому перемены если и идут, то очень медленно. Во-первых, прошло слишком мало времени — массовое влияние ИИ на образование стало очевидным лишь в последние пару лет, система просто не успела отреагировать. Во-вторых, пока нет устоявшихся и проверенных моделей, на которые можно опереться. Университеты не хотят примерять роль первопроходцев, ведь новые практики нужно не только внедрить, но и доказать, что они работают лучше прежних — а на это требуется много ресурсов.

Частые ошибки использования ИИ-сервисов
Одна из самых распространенных ошибок у тех, кто только начинает активно использовать искусственный интеллект, — безоговорочное доверие первому полученному ответу. Человек задает алгоритму вопрос, не проверяет результат и отправляет его дальше: в отчет, письмо или публикацию. Несмотря на то, что подобных кейсов известно немало, статистика подобных ошибок по-прежнему высока.Вторая и менее очевидная ошибка — в чрезмерном переусердствовании. Человек отправляет ИИ свой вопрос, получает в целом неплохой результат, но начинает его «докручивать» в том же диалоге. Такая практика обычно приводит к обратному эффекту — после каждой последующей итерации ответ выглядит все менее релевантным.
Причина в устройстве самих ИИ-систем. Каждая из них имеет ограничения по контексту запроса — объему информации, которую модель может одновременно учитывать. По мере роста диалога исходный запрос размывается, часть важных условий может просто «выпасть» из внимания модели. В результате ответы теряют точность и связность.
Более надежная стратегия — работать с нейросетями короткими циклами: формулируем запрос, оцениваем результат и, если он не устраивает, переписываем запрос заново в новом чате. Такой подход чаще дает точный и управляемый результат, чем бесконечное редактирование внутри одного диалога.
Третья типичная ошибка — слишком короткие и слишком общие запросы. Это наследие поисковых систем, для которых было достаточно пары слов. В работе с ИИ такой подход неэффективен: чем подробнее и конкретнее сформулирован промпт — с пояснениями, ограничениями и контекстом — тем выше качество его ответа.
Исключение составляют задачи с легко проверяемым результатом, например технические или формульные расчеты — там ошибку можно быстро заметить и исправить. Но в случае сложных текстов, аналитики или интерпретаций крайне важно прописывать максимально подробный запрос и критически оценивать ответ.
Нейросеть вместо психолога: почему люди используют ИИ и чем это опасно
Когда наступят перемены в образовании?
Прогнозировать, как быстро изменится образование под влиянием искусственного интеллекта, довольно сложно. Система работает с довольно длинными временными отрезками, обычно в рамках полного цикла обучения. Для школы это десятилетие, в случае высшего образования — минимум один выпускной цикл, то есть 4–6 лет. Вряд ли серьезные изменения получится провести в более короткий срок.В медиапространстве также обсуждают идею, что искусственный интеллект «уравняет» всех. Минимальный уровень подготовки студентов действительно может вырасти, так как ИИ помогает быстрее осваивать базовые навыки, тем самым снижая входной порог. А вот что произойдет с сильными и высококвалифицированными специалистами — вопрос открытый. Раньше дополнительные усилия, а иногда и сверхусилия позволяли выделить элиту из общей массы, отобрать потенциальных чемпионов. Если новые технологии приведут к тому, что дополнительные усилия окажутся бесполезной тратой времени, то общество может лишиться возможностей пополнения когорты интеллектуальных лидеров, а значит, и возможностей будущего развития.
В любом случае, как бы ни совершенствовались технологии, ничто не заменит личную мотивацию. В условиях избытка информации важная задача родителей и преподавателей — помочь учащемуся сохранить и развить интерес к чтению, творчеству, исследованиям, технологиям или любому другому занятию. Именно заинтересованность является основой для самостоятельного мышления и осознанного использования умных технологий.








