Использование чат-ботов искусственного интеллекта (ИИ) для обращения за медицинской консультацией может быть «опасным», согласно новому исследованию, опубликованному в журнале Nature Medicine, сообщает во вторник СМИ, сообщает Qazinform.com.

Исследование, проведенное Оксфордским интернет-институтом и Департаментом наук о первичной медико-санитарной помощи Нафтвера в Оксфордском университете, показало, что использование ИИ для принятия медицинских решений представляет риски для пациентов из-за «тенденции предоставлять неточную и непоследовательную информацию».

Ребекка Пейн, соавтор исследования и врач общей практики, сказала: «Несмотря на всю шумиху, ИИ просто не готов взять на себя роль врача».

«Пациенты должны знать, что спрашивать большую языковую модель об их симптомах может быть опасно, давая неправильные диагнозы и не признавая, когда необходима срочная помощь», — добавила она.

В исследовании почти 1300 участникам было предложено определить возможные состояния здоровья и рекомендовать следующие шаги на основе различных сценариев.

Некоторые участники использовали программное обеспечение для получения потенциального диагноза, в то время как другие полагались на традиционные методы, такие как консультирование врача общей практики.

Исследователи обнаружили, что инструменты ИИ часто доставляют «сочетание хорошей и плохой информации», которую пользователи изо всех сил пытались отличить.

В то время как чат-боты «преуспевают в стандартизированных тестах медицинских знаний», исследование пришло к выводу, что их реальное использование в качестве медицинских инструментов «представляет риски для реальных пользователей, обращающихся за помощью с их собственными медицинскими симптомами».

Ведущий автор Эндрю Бин сказал, что взаимодействие с людьми остается «проблемой» даже для высокоэффективных систем ИИ, и выразил надежду, что результаты будут способствовать более безопасному развитию таких инструментов.

Ранее Qazinform сообщал, как влиятельные лица в социальных сетях делают нас больными.

от Cyber State Team

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *