
Опять провал: ИИ решил, что рентген коленного сустава показывает пристрастие к пиву
Искусственный интеллект (ИИ) может быть полезным инструментом для медицинских работников и исследователей, когда дело доходит до диагностики, например, по фото или по рентгеновским снимкам. Там, где рентгенолог может выявить переломы или скверные симптомы, компьютерные модели на основе ИИ могут «рассмотреть» особенности, незаметные человеку.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
Но исследование, опубликованное в издании Scientific Reports, выявило скрытую проблему использования ИИ при анализе медицинских изображений. К этому привёл феномен вроде бы точных, но при этом вводящих в заблуждение результатов, известный как «ускоренное обучение».
Исследователи оценили более 25 000 рентгеновских снимков коленей и обнаружили, что модели ИИ могут «предсказывать» несвязанные и неправдоподобные выводы, например, любят ли пациенты жаренные орешки или пиво, хотя такие «умозаключения» не имеют медицинского обоснования. ИИ порой достигает поразительной точности, но подчас допускает смехотворные ошибки, к тому же потенциально опасные.
Хотя ИИ способен верно истолковывать снимки, с ним лучше быть осторожным.
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
Компьютерные модели могут видеть закономерности, которые упускают люди, но не все выявленные ими закономерности значимы или надёжны. Вот почему крайне важно осознавать эти риски
— Питер Шиллинг, автор исследования, хирург-ортопед из Дартмутского медцентра (США).
Исследователи убедились, что алгоритмы ИИ часто полагаются на переменчивые факторы, такие как различия в результатах рентгеновского оборудования или клинических признаках. Попытки устранить эти искажения были лишь частично успешными — модели ИИ просто «обучались» на других скрытых закономерностях и данных, и тоже порой со странными выводами.
Компьютерный алгоритм может даже научиться определять год, в котором был сделан рентгеновский снимок. И это не прекрасно, а опасно: если запретить ИИ учитывать несущественные элементы картинки, он вместо этого произвольно примет во внимание другой аспект, который ранее игнорировал
— Брэндон Хилл, соавтор исследования и специалист по машинному обучению.
Такая опасная черта ИИ может привести к появлению действительно сомнительных выводов, поэтому учёным было необходимо знать, почему подобное происходит.
Использовать ИИ — это почти то же самое, что иметь дело с инопланетным разумом, сказал Хилл. По его мнению, неверно говорить, что языковая модель нас «обманывает», так как это очеловечило бы технологию.
У неё нет логики или рассуждений в том виде, в каком мы их обычно понимаем. Она лишь научилась решать поставленную перед ней задачу, но не всегда так, как это сделал бы человек.
- Дмитрий Ладыгин
- t.me/kandinsky21_bot
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Специалисты предупреждают: ни в коем случае не ставьте MAX на личный телефон!
Рассказываем, почему навязываемый россиянам мессенджер удобен в первую очередь мошенникам...

26 ран и 750 лет молчания: Анализ ДНК раскрыл тайну очень жестокого убийства русского князя в Будапеште
Международная команда ученых сумела на 100% доказать личность погибшего...

Астрофизики были поражены, обнаружив «тоннель», соединяющий Солнечную систему с другими звездами
Исследователи из Института Макса Планка уверены: гигантская «транспортная сеть» охватывает всю нашу Галактику...

Работу самой мощной АЭС в Европе полностью парализовали… обычные медузы
Эксперты говорят: это очередное подтверждение того, что энергетика ЕС — это колосс на глиняных ногах...

Полная расшифровка ДНК хатыстырского человека выявила древнюю колыбель человечества в России
Геном охотника, жившего 9 800 лет назад, полностью подтвердил теорию российских ученых, которую мир не принимал десятилетиями...

В воде замечена амеба, пожирающая мозг. Смертельная опасность — 97%!
Такое шокирующее предупреждение получили жители сразу двух австралийских городов...

Эксперты назвали самых смертоносных животных в Австралии, США и России
И это не те монстры, о которых вы сейчас подумали...

Загадочные ямы с отрубленными руками во Франции ставят в тупик археологов
Возможно, ответы на вопросы подскажут зубы и кости победителей и побежденных...