Вымышленное заболевание под названием биксонимания было создано в рамках научного эксперимента, призванного проверить, способны ли системы искусственного интеллекта распространять ложную медицинскую информацию, сообщает Qazinform.com.

Ученые придумали несуществующую болезнь, и ИИ принял ее за реальную

Автором эксперимента стала медицинский исследователь Альмира Османович Тунстрём из Гетеборгского университета. Она разработала фиктивное состояние и опубликовала два намеренно поддельных научных исследования в начале 2024 года. Несмотря на явные признаки фальсификации — вымышленные имена, несуществующие университеты и ссылки на такие организации, как «Академия Звездного Флота», — информация быстро распространилась в сети.

Биксонимания описывалась как кожное заболевание, вызванное воздействием синего света от цифровых экранов, которое якобы приводит к темному или розоватому обесцвечиванию глаз. Вскоре после публикации поддельных материалов несколько крупных чат-ботов начали представлять эту болезнь как реальную и давать пользователям рекомендации по здоровью, включая советы обратиться к офтальмологам.

Эксперимент выявил уязвимости ИИ

По словам исследователей, результаты показали, насколько легко системы искусственного интеллекта могут усваивать и воспроизводить недостоверные сведения из Интернета. Более того, вымышленное заболевание проникло и в научную среду: одна из статей в журнале Cureus сослалась на него как на реальное исследование. Позднее публикация была отозвана после обнаружения ошибки редакторами.

Эксперты отмечают, что ответы ИИ могут значительно различаться в зависимости от формулировки запросов и используемых источников. Поскольку фальшивые материалы были оформлены как профессиональные медицинские исследования, они выглядели убедительно для алгоритмов. Представитель Гарвардской медицинской школы Махмуд Омар подчеркнул, что подобный формат повышает вероятность распространения дезинформации.

В компаниях-разработчиках ИИ заявили о совершенствовании своих технологий. В OpenAI сообщили, что современные модели предоставляют более точную и безопасную медицинскую информацию, чем предыдущие версии. В Google отметили, что устаревшие ответы были связаны со старыми моделями, а новые инструменты призывают пользователей проверять чувствительные данные у специалистов.

Тем не менее эксперты предупреждают: по мере расширения применения искусственного интеллекта в медицине и научных исследованиях риск распространения ложной информации остается высоким.

Ранее агентство Qazinform сообщало, что, согласно новому исследованию, около 15% американцев могут работать под руководством ИИ.

от Cyber State Team

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *