Опять провал: ИИ решил, что рентген коленного сустава показывает пристрастие к пиву
Искусственный интеллект (ИИ) может быть полезным инструментом для медицинских работников и исследователей, когда дело доходит до диагностики, например, по фото или по рентгеновским снимкам. Там, где рентгенолог может выявить переломы или скверные симптомы, компьютерные модели на основе ИИ могут «рассмотреть» особенности, незаметные человеку.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
Хотя ИИ способен верно истолковывать снимки, с ним лучше быть осторожным.
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
Компьютерный алгоритм может даже научиться определять год, в котором был сделан рентгеновский снимок. И это не прекрасно, а опасно: если запретить ИИ учитывать несущественные элементы картинки, он вместо этого произвольно примет во внимание другой аспект, который ранее игнорировал
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
- Дмитрий Ладыгин
- t.me/kandinsky21_bot
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Почему Китай так стремительно обгоняет США: Эксперт вскрыл секрет, который не замечал никто
Аналитик Дэн Ван уверен: если Запад не начнет срочно меняться, то он обречен перед Востоком...
Великий обман древности: итальянские ученые доказали, что историк соврал о гибели Помпей
Случайная надпись на стене перечеркнула официальную дату смерти города...
Роковая ошибка древних врачей: Почему современные ученые считают, что Александра Македонского похоронили заживо?
Он слышал плач своих полководцев и видел приготовления к бальзамированию, но не мог пошевелиться. Тело великого царя стало его собственным гробом...
Он все слышал, но не мог пошевелиться: Жуткая правда о том, почему тело Александра Македонского не разлагалось
Великий царь стал заложником собственной плоти. Диагноз, который поставили спустя 2300 лет, объясняет все: и «чудо» нетленности, и страшную смерть....
Новое исследование показало: Стоунхендж столетиями «водил за нос». Похоже, историю опять придется переписывать
Оказалось, что сенсация скрывалась в огромном круге, состоящем из загадочных шахт...
Почему Китай так стремительно обгоняет США: секрет, который не замечал никто. Часть 2
Уханьское метро, темная сторона инженерного государства и есть ли шансы у Штатов...
ЦРУ, море в пустыне и нефть: кто и зачем остановил проект Египта на 60 лет?
Часть вторая: Холодная война, 200 ядерных взрывов и 15 миллиардов, которые могут все изменить...
Египет хотел создать МОРЕ в пустыне Сахара: почему проект заморозили на 60 лет?
Часть первая: Реальный шанс спастись от всемирного потопа...
Российский ученый уверен, что максимально приблизился к разгадке тайны шаровой молнии
Похоже, наука ошибалась: это не плазменный сгусток, а «живой кристалл» из частиц-призраков...
Людовик XIV умер совсем не от гангрены: ученые сумели раскрыть истину лишь 310 лет спустя
Эксперты говорят: французский король был обречен. Медикам того времени была совершенно неизвестна его болезнь...
Алкогольная цивилизация: древние люди освоили земледелие... ради пива
Ученые давно подозревали это, а новые находки только подлили масла в огонь «пивной» версии...
Новый российский материал спасает от пожаров и взрывов аккумуляторов
Почему эксперты называют разработку сахалинских ученых настоящим прорывом в сохранении энергии?...