Как научить машину сомневаться и, главное, зачем?
В мире, где искусственный интеллект все заметнее проникает в нашу жизнь, хотелось бы, чтобы он был не только умным, но и гуманным. Мы хотим, чтобы он мог понимать нас, адаптироваться к нам, чтобы была предпосылка не только верить, но и доверять ему. Но как добиться этого, если мы сами не всегда уверены в своих решениях и действиях?
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Зачем учитывать неопределенность человеческой обратной связи?
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Как обучать машины с учетом неопределенности?
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Эксперты говорят: изобретение ученых из Перми решает одну из самых серьезных и опасных проблем в современной авиации
Американцы потратили на это десятки лет и миллиарды долларов, но открытие сделали в России...
ДНК из ниоткуда: 6000-летние останки в Колумбии ни с кем совпадают по генам. Вообще.
Если у этих людей нет ни предков, ни потомков, то кто они такие?...
Египетская «Зона 51»: Почему власти полностью засекретили «четвертую пирамиду»?
С 60-х годов ХХ века на объект Завиет-эль-Эриан не попал ни один ученый. Что скрывают военные за колючей проволокой?...
Секретные спутники Илона Маска заподозрили в использовании запрещенных сигналов
Что это значит для России и чем могут ответить наши военные?...
Ученые обнаружили на Кавказе «ужасного» хищника, способного дробить черепа с одного укуса
Почему же 400-килограммовый монстр, побеждавший медведей и саблезубых тигров, все-таки исчез с лица планеты?...
Активность нечеловеческого разума вблизи ядерных объектов США, СССР и Великобритании впервые получила научные доказательства
Критики не смогли опровергнуть работу шведских ученых о странных искусственных аномалиях на орбите...
Нападение акул, считавшихся абсолютно безобидными, вызвало шок у морских биологов
Кто виноват в этой ужасной трагедии? И почему эксперты говорят, что это только начало?...
2700 дней понадобилось ученым, чтобы, наконец, раскрыть главную тайну гигантских скатов
Оказалось, что манты ныряют на 1250-метровую глубину вовсе не за едой и не спасаясь от хищников...
В ближайшие 100 лет Юпитер «выстрелит» в Землю как минимум 342 раза
Российские ученые рассчитали: ближайшее «прицеливание» состоится уже 2031 году. Что вообще нам ожидать?...
Ученые говорят: вся жизнь подчиняется одному секретному коду
Но почему это древнее ископаемое отказалось следовать ему?...
Мог ли великий художник Клод Моне видеть в ультрафиолетовом спектре, как пчела?
Историки уверены: после операции на глазах с французским живописцем стали происходит очень странные вещи...
Затонувшие корабли с сокровищами у берегов Китая открывают поразительные факты о Великом морском шелковом пути
Да, это лонгрид! Но после его прочтения ваш взгляд на историю Китая изменится самым коренным образом...
Ученые наконец-то взломали астрономический код цивилизации майя
700 лет точных предсказаний, 145 солнечных затмений: гениальный способ из древности отлично работает до сих пор...