Вымышленное заболевание под названием биксонимания было создано в рамках научного эксперимента, призванного проверить, способны ли системы искусственного интеллекта распространять ложную медицинскую информацию, сообщает Qazinform.com.
Ученые придумали несуществующую болезнь, и ИИ принял ее за реальную
Автором эксперимента стала медицинский исследователь Альмира Османович Тунстрём из Гетеборгского университета. Она разработала фиктивное состояние и опубликовала два намеренно поддельных научных исследования в начале 2024 года. Несмотря на явные признаки фальсификации — вымышленные имена, несуществующие университеты и ссылки на такие организации, как «Академия Звездного Флота», — информация быстро распространилась в сети.
Биксонимания описывалась как кожное заболевание, вызванное воздействием синего света от цифровых экранов, которое якобы приводит к темному или розоватому обесцвечиванию глаз. Вскоре после публикации поддельных материалов несколько крупных чат-ботов начали представлять эту болезнь как реальную и давать пользователям рекомендации по здоровью, включая советы обратиться к офтальмологам.
Эксперимент выявил уязвимости ИИ
По словам исследователей, результаты показали, насколько легко системы искусственного интеллекта могут усваивать и воспроизводить недостоверные сведения из Интернета. Более того, вымышленное заболевание проникло и в научную среду: одна из статей в журнале Cureus сослалась на него как на реальное исследование. Позднее публикация была отозвана после обнаружения ошибки редакторами.
Эксперты отмечают, что ответы ИИ могут значительно различаться в зависимости от формулировки запросов и используемых источников. Поскольку фальшивые материалы были оформлены как профессиональные медицинские исследования, они выглядели убедительно для алгоритмов. Представитель Гарвардской медицинской школы Махмуд Омар подчеркнул, что подобный формат повышает вероятность распространения дезинформации.
В компаниях-разработчиках ИИ заявили о совершенствовании своих технологий. В OpenAI сообщили, что современные модели предоставляют более точную и безопасную медицинскую информацию, чем предыдущие версии. В Google отметили, что устаревшие ответы были связаны со старыми моделями, а новые инструменты призывают пользователей проверять чувствительные данные у специалистов.
Тем не менее эксперты предупреждают: по мере расширения применения искусственного интеллекта в медицине и научных исследованиях риск распространения ложной информации остается высоким.
Ранее агентство Qazinform сообщало, что, согласно новому исследованию, около 15% американцев могут работать под руководством ИИ.