Как научить машину сомневаться и, главное, зачем?
В мире, где искусственный интеллект все заметнее проникает в нашу жизнь, хотелось бы, чтобы он был не только умным, но и гуманным. Мы хотим, чтобы он мог понимать нас, адаптироваться к нам, чтобы была предпосылка не только верить, но и доверять ему. Но как добиться этого, если мы сами не всегда уверены в своих решениях и действиях?
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Зачем учитывать неопределенность человеческой обратной связи?
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Как обучать машины с учетом неопределенности?
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Раскрыта главная тайна антарктического льда: ученые узнали, как и кем была взломана природная защита Шестого континента
Похоже, той Антарктиде, которую мы знаем, приходит конец. Впрочем, это не точно...
Древнеримский артефакт переписывает историю Америки: Колумб был не первым?
Почему находка из индейской могилы почти 100 лет вызывает ожесточенные споры среди археологов и историков?...
Тайна гибели сибирского «Титаника»: почему некоторые детали катастрофы 1921 года неизвестны даже сейчас?
Поразительно, но тогда судьи единогласно оправдали капитана парохода. Так кто же тогда был виновником этого страшного происшествия?...
Еще раз об убийстве Андрея Боголюбского: что рассказали кости погибшего князя?
Профессор судебной медицины поправил историков и выявил неточности древних летописей...
Японец 26 лет ждал, пока раскроют убийство его жены. Часть 2. Расплата
Как наука отменила срок давности у преступления? И какая тайна осталась не раскрытой?...
Японец 26 лет ждал, пока раскроют убийство его жены
Как новейшие технологии помогли сдвинуть с места нераскрываемое дело...
Главный секрет человеческого дыхания: ученые рассказали, почему мы дышим «вахтовым методом»
Эксперты предупреждают: из-за особенности организма многие люди не смогут попасть в космос. Но решение все-таки есть...
Жители Анд переписали свою ДНК: почему горные индейцы пьют ядовитую воду, но чувствуют себя при этом хорошо?
По словам ученых, эволюция сделала красивый и хитрый ход. И это не иммунитет к токсинам, а нечто другое, более интересное...
43 000 черепков открыли тысячелетние тайны Древнего Египта
Почему глиняная библиотека Атрибиса потрясла весь археологический мир?...
Ядерный взрыв на Луне: для чего советские ученые хотели провести такой грандиозный эксперимент?
Зачем России атомный реактор на Луне и как он поможет нам добраться до Венеры?...
Почему эти меры не спасут Антарктиду: пять проектов по спасению ледников оказались провалом
Эксперт жестко проанализировал самые популярные программы по сохранению льда на Шестом континенте. Увы, они оказались невыполнимой фантастикой, причем опасно...