Как научить машину сомневаться и, главное, зачем?
В мире, где искусственный интеллект все заметнее проникает в нашу жизнь, хотелось бы, чтобы он был не только умным, но и гуманным. Мы хотим, чтобы он мог понимать нас, адаптироваться к нам, чтобы была предпосылка не только верить, но и доверять ему. Но как добиться этого, если мы сами не всегда уверены в своих решениях и действиях?
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Ответ на этот вопрос попытались найти исследователи из Кембриджского университета вместе с Институтом Алана Тьюринга, Принстоном и Google DeepMind. Они решили изучить одну из самых человечных характеристик — неопределенность — и попытались включить ее в системы машинного обучения. Это новаторский подход, который способен открыть новые горизонты для развития искусственного интеллекта.
Машинное обучение — область искусственного интеллекта, которая изучает, как компьютеры могут обучаться на больших наборах данных и решать различные задачи. Практическим результатом такой работы могут стать новые эффективные инструменты для классификации изображений, распознавания речи, рекомендательных систем, игр и многого другого. Однако машинное обучение в определенный момент сталкивается с проблемой неопределенности, которая возникает из-за ошибок в данных, шума, неполноты или сложности моделирования реального мира.
Неопределённостью принято называть неизвестные или непредсказуемые факторы, которые могут повлиять на результат. Например, если вы бросаете монетку, то не можете быть уверены, какая сторона выпадет. Это пример неопределенности в окружающей среде. При попытке определить, является ли существо на изображении собакой или кошкой, вы также можете быть не уверены в своем ответе по целому ряду причин.
Зачем учитывать неопределенность человеческой обратной связи?
Человеческая обратная связь — ключевой способ обучения машин с помощью поощрений или наказаний от человека. Например, если вы хотите научить робота играть в футбол, вы можете похвалить его за гол или порицать за промах. Таким образом, робот может адаптироваться к вашим предпочтениям и улучшать свои навыки. На этом принципе основано большинство адаптирующихся систем таких, как «умный дом» или цифровые ассистенты.
Однако человеческая обратная связь не всегда является точной и последовательной. Люди могут ошибаться, менять свое мнение или быть неуверенными в своих решениях. Кроме того, у каждого человека, скорее всего, будут разные стратегии обучения и, соответственно, мотивация: давать положительную или отрицательную обратную связь или не давать ее вообще в конкретных ситуациях. Например, если оператор сам не уверен какой породы птица на изображении, он может отреагировать на ответ машины как поощрением, так и порицанием. Третий вариант: воздержаться от обратной связи вообще.
Если не учитывать неопределенность человеческой обратной связи, то можно нарушить предсказуемость и надежность методов машинного обучения. Если уж использовать систему искусственного интеллекта для медицинской диагностики, хотелось бы, чтобы она была точной и безопасной. Но дав ей неопределенную обратную связь, мы можем запутать ее или ввести в заблуждение. Это наверняка приведет к неправильным диагнозам или лечению, которое принесет вред пациентам.
Как обучать машины с учетом неопределенности?
Исследователи предложили новую модель, которая учитывает неопределенность человеческой обратной связи и новый алгоритм обучения, который использует эту модель для адаптации к разным стратегиям обучения. Свой подход ученые проверили на трех наборах данных: для классификации цифр, рентгеновских снимков грудной клетки и изображений птиц. Они также провели два реальных эксперимента с участием людей, которые давали обратную связь системе машинного обучения.
Участники научного проекта обнаружили, что их подход может улучшить производительность машинного обучения при работе с неопределенной обратной связь. Эксперимент показал, что люди могут снизить общую производительность этих систем, если дают непоследовательную или неправильную обратную связь. По результатам исследования ученые предложили несколько способов уменьшить влияние человеческой ошибки на машинное обучение. В их числе использование дополнительных источников данных, повышение осведомленности людей о неопределенности или введение ограничений на частоту и типы обратной связи.
Это исследование является важным шагом к созданию более надежных, творческих и безопасных систем машинного обучения, которые могут работать с людьми в различных условиях. Оно открывает новые возможности для исследования взаимодействия между человеком и машиной, особенно в критических для безопасности приложениях. Исследователи полагают, что их работа полезна не только для разработчиков и пользователей систем машинного обучения, а также для понимания человеческого поведения и рассуждений.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Ельцин не должен был победить: кого Горбачев хотел сделать президентом России?
Почему этот план с самого начала был обречен на поражение?...
Судьба имперских субмарин решена: почему они останутся на дне Крыма навсегда?
Как военные судна вообще оказались затоплены и кто мешал их изучению долгие десятилетия?...
Токийская декларация-1993: какую бомбу заложил Ельцин под Россию?
Эксперты говорят: российский президент хотел переиграть Токио, но в итоге дал японцам мощный рычаг воздействия на нашу страну...
140 стрел и пепел раскрыли тайну гибели самого загадочного города Руси, Гнездово
Город не зачах, не был расселен из-за политических разборок, его уничтожили быстро и жестоко...
Почему у самого большого железного метеорита на Земле вообще нет кратера?
Астрофизики говорят: метеорит Хоба в Намибии нарушает все правила природы вот уже 80 000 лет...
Стало известно о 9000-летней строительной технологии, которую почти невозможно повторить даже сейчас
Древним секретом активно интересуются сразу две ведущие промышленные организации в Израиле. Интересно, почему?...
Архив ФСБ раскрыл детали одной из самых дерзких диверсионных операций ВОВ
Биография Кирилла Орловского поражает. Две Звезды Героя, друг писателя Хемингуэя, ликвидатор нацистских палачей, председатель лучшего колхоза СССР...
Удар, который едва не расколол Луну пополам: кратер в 1/10 площади планеты оставил не просто астероид
Столкновение было настолько мощным, что на поверхность выбросило породы с глубины… почти 100 километров!...
Биоинженер провел 100 дней под водой. По его словам, это прибавило ему 10 лет жизни
Почему этот эксперимент вызвал массу критики? Кто победит, официальная теория или опытная практика?...
Правительство США рассекретило почти 200 файлов о неопознанных воздушных явлениях
Американские власти и Пентагон признаются: по большинству фактов нет однозначных решений. Почему?...
Иран «ставит на счетчик» мировой интернет: сможет ли Тегеран заставить Запад платить за кабели в Ормузе?
Как оказалось, нефть была только началом. Теперь Тегеран берет за горло западную цифровую экономику...