Знаете, в последнее время только и разговоров, что об искусственном интеллекте в медицине. ChatGPT и его собратья обещают облегчить жизнь врачам: сортировать пациентов, собирать анамнез, даже ставить предварительные диагнозы. Пациенты уже вовсю используют эти штуки, чтобы разобраться в своих симптомах и результатах анализов. Но давайте копнем глубже – насколько хорошо эти умные машины справляются в реальности?
Оказывается, не так уж блестяще, как можно было подумать. К такому выводу пришли исследователи из Гарвардской медицинской школы и Стэнфордского университета. И знаете, что самое интересное? Они создали специальный тест под названием CRAFT-MD, чтобы проверить, как ИИ справляется с ситуациями, максимально приближенными к реальным разговорам с пациентами.
Представьте себе такую картину: ИИ-модели щелкают стандартные медицинские тесты как орешки, но стоит им столкнуться с живым общением – и тут начинается самое интересное. Прямо как студент-отличник, который знает всю теорию, но теряется на практике! «Мы столкнулись с удивительным парадоксом», – говорит руководитель исследования Пранав Раджпуркар. – «Эти модели великолепно справляются с медицинскими экзаменами, но простой разговор с пациентом ставит их в тупик». А ведь и правда – одно дело отвечать на вопросы с вариантами ответов, и совсем другое – вести живой диалог, где нужно задавать правильные вопросы в нужный момент, складывать разрозненную информацию в единую картину и рассуждать о симптомах. Тут даже самые продвинутые ИИ-модели начинают спотыкаться.
В рамках исследования команда протестировала четыре различные ИИ-модели на 2000 клинических случаях. От простуды до сложных заболеваний – весь спектр первичной медицинской помощи и 12 медицинских специальностей. И что же выяснилось? ИИ частенько путался в показаниях, забывал задать важные вопросы и терялся, когда информация поступала не в удобном структурированном виде, а как в реальной жизни – хаотично и постепенно.
Но не всё так печально! Исследователи не просто указали на проблему – они предложили целый список рекомендаций для разработчиков и регуляторов. Например, они советуют тренировать ИИ на неструктурированных диалогах, учить его задавать правильные вопросы и даже распознавать невербальные сигналы. Представляете, скоро ИИ будет «читать» выражение лица и язык тела! Хотя, признаться, звучит немного жутковато.
Самое забавное, что сам тест CRAFT-MD оказался настоящим трудягой – обработал 10 000 разговоров за пару дней. Людям бы на это понадобилось больше 1000 часов! Вот вам и превосходство машин, хотя бы в скорости.
«Как врач и ученый, я заинтересована в ИИ-моделях, которые могут эффективно и этично дополнять клиническую практику», – говорит соруководитель исследования Роксана Данешджоу. И знаете что? Похоже, с помощью CRAFT-MD мы действительно приближаемся к тому дню, когда ИИ станет надежным помощником врача, а не просто умной игрушкой. Не спешите полностью доверяться ИИ-докторам. Как показывает исследование, живой врач со своим опытом, интуицией и человеческим подходом пока что вне конкуренции. Хотя, кто знает, что будет через пару лет? Может, мы еще увидим ИИ-терапевтов, которые будут шутить лучше настоящих докторов.