
Как научить машину сомневаться и, главное, зачем?
В мире, где искусственный интеллект все заметнее проникает в нашу жизнь, хотелось бы, чтобы он был не только умным, но и гуманным. Мы хотим, чтобы он мог понимать нас, адаптироваться к нам, чтобы была предпосылка не только верить, но и доверять ему. Но как добиться этого, если мы сами не всегда уверены в своих решениях и действиях?
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Зачем учитывать неопределенность человеческой обратной связи?
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Как обучать машины с учетом неопределенности?
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Выяснилось, что суша вокруг Аральского моря... стремительно поднимается
И ученые сумели разгадать эту удивительную загадку природы....

Еще раз о ядерной войне на Марсе
Гипотетический конфликт на Красной планете не дает покоя некоторым ученым....

Причина необъяснимых нападений морских львов на людей наконец-то раскрыта
Все дело в редком токсине, который заполонил прибрежные воды Калифорнии....

Ужасное наводнение создало Средиземное море всего за несколько месяцев
Потоп мчался со скоростью 115 километров в час....

В каменных гробницах древней Ирландии похоронены вовсе не те, о ком думали ученые
Генетический анализ переписывает историю неолита....

Застукали: антарктического гигантского кальмара впервые запечатлели в естественной среде
Прошёл век после открытия вида....

Властелины огня: как древние люди поддерживали пламя в самые холодные времена
Основным топливом была древесина ели....

Термоядерный двигатель доставит людей до Марса всего за три месяца
Новая эра космических исследований вот-вот начнется?...

А фиолетовый-то, говорят… ненастоящий!
Ученые доказали, что этот цвет — иллюзия, существующая лишь у нас в голове....

Ученые заставили человеческий глаз видеть совершенно новый цвет
Он называется оло, и его практически не описать словами....

Новое исследование показало: мягкие игрушки — самые опасные вещи в доме
Микробов в этих предметах оказалось вдвое больше, чем на сиденье унитаза....

Ещё одна бесценная находка: челюсть с берегов Тайваня принадлежала денисовцу
Загадка не давала покоя несколько лет....

Раскрыт секрет: почему самые древние метеориты не долетают до Земли
Против само Солнце, но это не единственная причина....

Зачем археологи измерили и сравнили размеры 50 000 древних домов
Общественное расслоение нельзя считать неизбежным....

Ученые доказали: вода на Земле не из космоса, а своя собственная
Она зародилась «автоматически». И это в корне меняет теорию жизни во Вселенной....

Что рассказал древнегреческий гимнасий на Сицилии
Сохраняли язык при римском владычестве....