
Опять провал: ИИ решил, что рентген коленного сустава показывает пристрастие к пиву
Искусственный интеллект (ИИ) может быть полезным инструментом для медицинских работников и исследователей, когда дело доходит до диагностики, например, по фото или по рентгеновским снимкам. Там, где рентгенолог может выявить переломы или скверные симптомы, компьютерные модели на основе ИИ могут «рассмотреть» особенности, незаметные человеку.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
Хотя ИИ способен верно истолковывать снимки, с ним лучше быть осторожным.
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
Компьютерный алгоритм может даже научиться определять год, в котором был сделан рентгеновский снимок. И это не прекрасно, а опасно: если запретить ИИ учитывать несущественные элементы картинки, он вместо этого произвольно примет во внимание другой аспект, который ранее игнорировал
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
- Дмитрий Ладыгин
- t.me/kandinsky21_bot
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

32 удивительных подарка за последние 20 лет: ученые пытаются понять, за что косатки «балуют» людей
Природная доброта? Любопытство? Желание выйти на контакт?...

Ученые и режиссеры все время обманывали нас насчет динозавров
Оказалось, древние ящеры бегали в четыре раза медленнее, чем считалось....

Уникальная находка в Нидерландах: археологи обнаружили римский лагерь далеко за пределами Империи
Как лидар и искусственный интеллект нашли объект-«невидимку» II века....

«Вертолетная» конструкция да Винчи может сделать беспилотники тише, быстрее и даже дешевле
Ученые поражены, насколько разработка Леонардо опередила время....

Историки задались вопросом, как же пах Древний Рим
Боимся, ответ вам может очень не понравиться....

Ученые хотят создать хранилище микробов, чтобы те… не вымерли
Звучит кошмарно, но на самом деле от этого зависит судьба всего человечества....

Череп ребенка-«пришельца» из Аргентины оказался вполне земным
Эксперты рассказали в подробностях, как могла появиться «инопланетная» форма головы....