ВСЛУХ

Как научить машину сомневаться и, главное, зачем?

Как научить машину сомневаться и, главное, зачем?
В мире, где искусственный интеллект все заметнее проникает в нашу жизнь, хотелось бы, чтобы он был не только умным, но и гуманным. Мы хотим, чтобы он мог понимать нас, адаптироваться к нам, чтобы была предпосылка не только верить, но и доверять ему. Но как добиться этого, если мы сами не всегда уверены в своих решениях и действиях?


Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.

Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.

Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.

Зачем учитывать неопределенность человеческой обратной связи?


Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.

Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.

Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.

Как обучать машины с учетом неопределенности?


Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.

Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.

Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.

Автор:

Мы в Мы в Яндекс Дзен
Как живые существа могут стать компьютерамиКапча уже не та: Заработай миллион долларов, докажи, что ты — не робот