Можно ли доверять ИИ в лечении инсульта
Сегодня все больше людей с медицинскими вопросами обращаются к искусственному интеллекту. Международное исследование, проведенное Национальным тайваньским университетом и Гарвардской школой общественного здоровья Т.Х. Чана показало, что такие современные модели ИИ как ChatGPT-4o, Claude 3 Sonnet и Gemini Ultra 1.0 не способны предоставлять клинически надежные рекомендации по лечению инсульта. Результаты опубликованы в журнале Digital Medicine NPJ.
Ученые проверяли, какие советы дает ИИ по профилактике, диагностике, лечению острого мозгового нарушения, приводящего к ишемии тканей мозга или кровоизлиянию в них. А также — по восстановлению после инсульта. Для этого задавали простые вопросы, которые люди обычно задают врачам. Программы тестировали тремя способами: просто спрашивали, просили подумать перед ответом или объяснить свое мнение. В оценке принимали участие четыре опытных врача, которые учитывали несколько критериев: точность, правдивость, четкость, доброжелательность и полезность ответа. Каждый ответ ИИ, как и ответ врача на квалификационном экзамене в Тайване, получал от 0 до 100 баллов. Проходной барьер составлял 60 баллов.
Но большинство ответов набирали от 48 до 56 баллов. Лучше всего ИИ справлялся с советами по профилактике и восстановлению после инсульта. Если его просили объяснить свои утверждения, иногда оценка ответа по этим темам доходила до 60. Но в сложных ситуациях, относящихся к лечению во время инсульта, ИИ часто ошибался.
«Эти программы могут быть полезны, но еще не готовы самостоятельно помогать, особенно когда дело доходит до серьезных проблем, как инсульт», — сказал Джон Таю Ли из Тайваньского университета.
Винсент Чен-Шен Ли, соавтор исследования, добавил, что четкие вопросы повышают правильность предоставляемой информации, но пока рекомендации самого ИИ нельзя считать безопасными. Диагностика, лечение инсульта и реабилитация после него должны проходить только под контролем врачей.