ИИ не справился с диагностикой сердечных заболеваний
Несмотря на утверждения, что ChatGPT полезен при медосмотрах, новое исследование показало: полагаться на искусственный интеллект неразумно. Особенно в экстренных случаях, когда в приёмном отделении кто-нибудь хватается за сердце.
В ходе исследования рассмотрели тысячи смоделированных на компьютере случаев, когда условные пациенты якобы жаловались на боль в груди. Оказалось, что ChatGPT предоставил противоречивые выводы о рисках для сердца… на основе одних и тех же данных. Генеративная система ИИ также не соответствовала традиционным методам, которые врачи используют для оценки риска для здоровья и жизни пациента.
Ведущий автор исследования Томас Хестон из Медколледжа Флойда, США, заявил, что ChatGPT действовал непоследовательно. Обрабатывая одинаковые данные, ChatGPT мог в первый раз оценить риск последствий как низкий, а в следующий раз — как средний или даже высокий.
Авторы исследования полагают, что проблема, вероятно, связана с уровнем случайности, встроенным в текущую версию программного обеспечения ChatGPT4. Иными словами, чат-бот с генеративным искусственным интеллектом имеет «привычку» варьировать свои реакции для имитации естественного языка. Однако, по словам Хестона, такая вот встроенная случайность плохо работает для медицинских целей, требующих единого, последовательного ответа.
Боли в груди относятся к распространённым жалобам в отделениях неотложной помощи. И они требуют от врачей быстрой оценки того, насколько срочно надо заняться пациентом. Некоторые очень серьёзные случаи легко выявить по симптомам. Но есть и примеры, которые не выглядят как безотлагательные, и всё равно — это большая ответственность и тонкая грань между вариантами «госпитализировать для наблюдения» и «отправить домой для амбулаторной помощи».
Казалось бы, нейронная сеть ИИ, такая как ChatGPT, могла бы эффективнее оценивать миллиарды переменных, то есть анализировать сложную ситуацию быстрее и тщательнее. Чтобы убедиться в этом, Хестон и его коллега Лоуренс Льюис из Вашингтонского университета сначала смоделировали три набора условных данных по 10 тыс. случаев в каждом. Один набор содержал семь переменных по шкале оценки опасности сердечных приступов, второй набор — пять, а третий — 44 разнообразных показателя здоровья.
Для первых двух наборов данных ChatGPT в 45–48% случаев давал разные оценки рисков. Что касается третьего массива информации, то исследователи перепроверили вариации четыре раза и обнаружили, что ChatGPT часто не соглашался сам с собой, переоценивая выводы для одних и тех же групп показателей в 44% случаев.
Несмотря на отрицательные результаты исследования, Хестон видит большой потенциал генеративного ИИ для здравоохранения, но при условии должных улучшений и развития.
Например, если в программу загрузить все медицинские записи, то в экстренных ситуациях врач мог бы запросить у ChatGPT быстрый ответ с наиболее важными фактами о пациенте. Кроме того, в сложных случаях врачи могли бы попросить программу сгенерировать несколько возможных диагнозов на выбор для оценки опытным медиком.
В ходе исследования рассмотрели тысячи смоделированных на компьютере случаев, когда условные пациенты якобы жаловались на боль в груди. Оказалось, что ChatGPT предоставил противоречивые выводы о рисках для сердца… на основе одних и тех же данных. Генеративная система ИИ также не соответствовала традиционным методам, которые врачи используют для оценки риска для здоровья и жизни пациента.
Ведущий автор исследования Томас Хестон из Медколледжа Флойда, США, заявил, что ChatGPT действовал непоследовательно. Обрабатывая одинаковые данные, ChatGPT мог в первый раз оценить риск последствий как низкий, а в следующий раз — как средний или даже высокий.
Авторы исследования полагают, что проблема, вероятно, связана с уровнем случайности, встроенным в текущую версию программного обеспечения ChatGPT4. Иными словами, чат-бот с генеративным искусственным интеллектом имеет «привычку» варьировать свои реакции для имитации естественного языка. Однако, по словам Хестона, такая вот встроенная случайность плохо работает для медицинских целей, требующих единого, последовательного ответа.
Боли в груди относятся к распространённым жалобам в отделениях неотложной помощи. И они требуют от врачей быстрой оценки того, насколько срочно надо заняться пациентом. Некоторые очень серьёзные случаи легко выявить по симптомам. Но есть и примеры, которые не выглядят как безотлагательные, и всё равно — это большая ответственность и тонкая грань между вариантами «госпитализировать для наблюдения» и «отправить домой для амбулаторной помощи».
Казалось бы, нейронная сеть ИИ, такая как ChatGPT, могла бы эффективнее оценивать миллиарды переменных, то есть анализировать сложную ситуацию быстрее и тщательнее. Чтобы убедиться в этом, Хестон и его коллега Лоуренс Льюис из Вашингтонского университета сначала смоделировали три набора условных данных по 10 тыс. случаев в каждом. Один набор содержал семь переменных по шкале оценки опасности сердечных приступов, второй набор — пять, а третий — 44 разнообразных показателя здоровья.
Для первых двух наборов данных ChatGPT в 45–48% случаев давал разные оценки рисков. Что касается третьего массива информации, то исследователи перепроверили вариации четыре раза и обнаружили, что ChatGPT часто не соглашался сам с собой, переоценивая выводы для одних и тех же групп показателей в 44% случаев.
Несмотря на отрицательные результаты исследования, Хестон видит большой потенциал генеративного ИИ для здравоохранения, но при условии должных улучшений и развития.
Например, если в программу загрузить все медицинские записи, то в экстренных ситуациях врач мог бы запросить у ChatGPT быстрый ответ с наиболее важными фактами о пациенте. Кроме того, в сложных случаях врачи могли бы попросить программу сгенерировать несколько возможных диагнозов на выбор для оценки опытным медиком.
- Дмитрий Ладыгин
- freepik.com
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Еще раз об убийстве Андрея Боголюбского: что рассказали кости погибшего князя?
Профессор судебной медицины поправил историков и выявил неточности древних летописей...
Раскрыта главная тайна антарктического льда: ученые узнали, как и кем была взломана природная защита Шестого континента
Похоже, той Антарктиде, которую мы знаем, приходит конец. Впрочем, это не точно...
Древнеримский артефакт переписывает историю Америки: Колумб был не первым?
Почему находка из индейской могилы почти 100 лет вызывает ожесточенные споры среди археологов и историков?...
Тайна гибели сибирского «Титаника»: почему некоторые детали катастрофы 1921 года неизвестны даже сейчас?
Поразительно, но тогда судьи единогласно оправдали капитана парохода. Так кто же тогда был виновником этого страшного происшествия?...
Японец 26 лет ждал, пока раскроют убийство его жены. Часть 2. Расплата
Как наука отменила срок давности у преступления? И какая тайна осталась не раскрытой?...
Японец 26 лет ждал, пока раскроют убийство его жены
Как новейшие технологии помогли сдвинуть с места нераскрываемое дело...
Жители Анд переписали свою ДНК: почему горные индейцы пьют ядовитую воду, но чувствуют себя при этом хорошо?
По словам ученых, эволюция сделала красивый и хитрый ход. И это не иммунитет к токсинам, а нечто другое, более интересное...
Ядерный взрыв на Луне: для чего советские ученые хотели провести такой грандиозный эксперимент?
Зачем России атомный реактор на Луне и как он поможет нам добраться до Венеры?...
ФСБ рассекретило часть архивов Александра Вадиса, генерала «Смерш»: как советская контрразведка переиграла немцев на Курской дуге. И не только
Историки говорят: по биографии этого смершевца можно запросто снять несколько остросюжетных боевиков...
Почему эти меры не спасут Антарктиду: пять проектов по спасению ледников оказались провалом
Эксперт жестко проанализировал самые популярные программы по сохранению льда на Шестом континенте. Увы, они оказались невыполнимой фантастикой, причем опасно...