По мере того, как ИИ углубляется в исследования, доктор философии, долгое время являвшийся символом человеческой оригинальности, сталкивается с кризисом идентичности. Машины теперь могут писать, анализировать и даже предлагать идеи, заставляя университеты переосмысливать, что значит обучать независимых ученых, передает корреспондент агентства Qazinform.com.

Университеты в значительной степени не готовы к этой трансформации. В то время как многие ученые все еще сосредоточены на ранних недостатках генеративных моделей (фактические «галлюцинации», несоответствия и неглубокие рассуждения), технология быстро развивалась. Современные системы ИИ могут составлять обзоры литературы, генерировать гипотезы, писать код и даже интерпретировать сложные наборы данных.

Некоторые новые «агентные» модели могут автономно устанавливать подцели, координировать задачи и учиться на обратной связи, приближаясь к частичной независимости. Если системы ИИ могут создавать аналитические рамки, обрабатывать данные и писать всеобъемлющие проекты, что тогда остается уникальным в докторской работе?

Педагогам, возможно, придется переключить свое внимание с обучения студентов на выполнение технических задач на обучение их тому, как формулировать вопросы, критически оценивать результаты ИИ и защищать академическую целостность во все более автоматизированных средах.

Традиционные навыки, такие как кодирование, статистический анализ, синтез литературы, могут стать вторичными по отношению к новым способностям: критическая оценка машинной работы, проверка целостности данных и поддержание надзора за сложными автоматизированными рабочими процессами. Студенты также должны будут узнать, как обнаруживать правдоподобные, но неправильные результаты, задача, которая, как это ни парадоксально, требует самого опыта, которые начинают заменять инструменты ИИ.

Этот сдвиг неизбежно изменит то, как университеты оценивают кандидатов PhD. Отполированный тезис, легко созданный с помощью ИИ, может больше не служить доказательством интеллектуального мастерства. Устная защита, живые задачи по решению проблем и рефлексивные комментарии могут стать более важными для оценки подлинного понимания. Руководителям также придется адаптироваться, направляя студентов не только в области разработки исследований, но и в этичном и критическом использовании технологий ИИ.

Если ИИ может сжать месяцы исследований в дни, учреждения должны решить, следует ли сократить продолжительность PhD или расширить их охват, позволяя студентам решать более междисциплинарные или амбициозные темы. Тем не менее, эта эффективность также сопряжена с рисками: чрезмерная зависимость от ИИ может привести к «интеллектуальной атрофии», поскольку навыки критического чтения, рассуждения и письма ослабевают от неиспользования. Университеты должны будут создать преднамеренные гарантии для сохранения человеческого ядра исследований: любопытства, суждения и творчества.

Некоторые университеты уже предпринимают первые шаги для решения этой проблемы. Такие учреждения, как Оксфордский университет, Наньянский технологический университет в Сингапуре и Каролинский институт Швеции, начали внедрять политику использования ИИ, которая подчеркивает прозрачность и ответственное использование. Оксфорд теперь предлагает курсы ИИ и машинного обучения для преподавателей, в то время как Наньян требует грамотности ИИ для аспирантов.

Другие, такие как Университет Нового Южного Уэльса в Сиднее, внедрили доступ к специализированным системам, таким как ChatGPT Edu. Тем не менее, эти инициативы в основном рассматривают ИИ как вспомогательный инструмент, а не преобразующую силу, и многим университетам по-прежнему не хватает ресурсов или стратегических рамок, чтобы идти в ногу.

Ранее информационное агентство Kazinform сообщило, что, хотя число выпускников PhD растет во всем мире, возможности академической карьеры сокращаются.

от Bolat Mukashev

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *