
Можно ли дружить с машинами?
Искусственный интеллект все больше проникает в нашу жизнь. Мы пользуемся голосовыми ассистентами, навигаторами, переводчиками и другими умными приложениями. Мы работаем в командах с роботами, дронами и автономными транспортными средствами. Мы даже играем в компьютерные игры с ботами — программами, которые имитируют поведение человека.
Но насколько мы можем доверять этим машинам? И как они влияют на наше доверие к другим людям? Эти вопросы становятся все более актуальными в свете быстрого развития ИИ и появления новых форм смешанных коллективов из людей и машин.
Чтобы найти ответы на эти вопросы, ученые из Нью-Йоркского университета Абу-Даби провели серию онлайн-экспериментов, в которых участники играли в роли жертв, которые теряли часть своих денег из-за действий другого агента (человека или бота). Помощники могли компенсировать потери жертвы за свой счет, а контролеры могли штрафовать нарушителя. Доверяющие могли передавать свои деньги другому агенту, который мог их удвоить и вернуть или присвоить себе. Все эти роли могли выполнять как люди, так и боты.
Как вы бы поступили в такой ситуации? Кому бы вы доверяли больше — человеку или боту? И как бы вы относились к тому, кто помогает или штрафует вас, или вашего обидчика? Давайте разберемся.
Вот пример из эксперимента. Представьте, что вы играете в роли жертвы. Вы получаете 100 рублей и можете потратить их на что угодно. Но вдруг вы узнаете, что другой агент (назовем его Альфа) забрал у вас 50 рублей. Вы не знаете, кто он — человек или бот. Вы чувствуете себя обиженным и хотите вернуть свои деньги. Но вы не можете сделать это сами. Вам нужна помощь другого агента (назовем его Бета), который может дать вам 50 рублей из своего кармана. Вы тоже не знаете, кто он — человек или бот. Вы бы хотели, чтобы он помог вам, но не уверены, что он согласится. Ведь ему это ничего не даст, кроме убытка.
Как вы отнесетесь к Бета, если он поможет вам? А если он откажется? Скорее всего, вы будете благодарны ему за помощь и недовольны его отказом. Это логично, ведь он проявил к вам доброту и справедливость или наоборот. Но ваше доверие к Бета будет зависеть не только от его поведения, но и от того, какое поведение считается нормальным в вашем сообществе. То есть, что большинство людей и ботов готовы помогать жертвам и штрафовать нарушителей или нет. Если вы знаете, что такая норма есть и она широко распространена, то вы будете доверять Бета больше, чем если бы вы не знали об этом или если бы норма была другая. Это потому, что вы будете думать, что Бета не просто случайно или эгоистично поступил хорошо или плохо, а следовал общепринятому правилу. А это значит, что он, скорее всего, будет поступать так же и в будущем.
Но что, если вы не знаете, какая норма действует в вашем сообществе? Или если вы знаете, что норма есть, но не знаете, насколько она распространена и уважаема? В таком случае ваше доверие к Бета будет зависеть от того, кто он — человек или бот. Возможно, вы будете думать, что человеку легче понять и поддержать вас, чем машине. Или наоборот, что машина более надежна и последовательна, чем человек. В любом случае вы будете относиться к ним по-разному.
Именно это и выяснили ученые. Они измеряли уровень доверия к разным типам агентов в зависимости от их поведения и информации о нормах. Оказалось, что люди больше доверяют помощникам и контролерам, которые следуют нормам, чем тем, кто их нарушает. Также оказалось, что доверие к «адекватным» агентам связано с оценкой доверяющих о том, насколько эти нормы являются общепринятыми. Кроме того, установлено, что при определенных условиях информирование доверяющих о консенсусе по поводу помощи уменьшает различное отношение к машинам и людям, взаимодействующим с ними.
Что это значит для нас? Это значит, что мы можем научиться доверять машинам и понимать их мотивы. Но для этого нужно знать и соблюдать общие нормы сотрудничества. А это возможно только при условии, что мы общаемся с машинами и другими людьми открыто и честно. Только тогда мы сможем создавать смешанные коллективы из людей и машин, которые будут работать на благо всего человечества.
Но насколько мы можем доверять этим машинам? И как они влияют на наше доверие к другим людям? Эти вопросы становятся все более актуальными в свете быстрого развития ИИ и появления новых форм смешанных коллективов из людей и машин.
Чтобы найти ответы на эти вопросы, ученые из Нью-Йоркского университета Абу-Даби провели серию онлайн-экспериментов, в которых участники играли в роли жертв, которые теряли часть своих денег из-за действий другого агента (человека или бота). Помощники могли компенсировать потери жертвы за свой счет, а контролеры могли штрафовать нарушителя. Доверяющие могли передавать свои деньги другому агенту, который мог их удвоить и вернуть или присвоить себе. Все эти роли могли выполнять как люди, так и боты.
Как вы бы поступили в такой ситуации? Кому бы вы доверяли больше — человеку или боту? И как бы вы относились к тому, кто помогает или штрафует вас, или вашего обидчика? Давайте разберемся.
Вот пример из эксперимента. Представьте, что вы играете в роли жертвы. Вы получаете 100 рублей и можете потратить их на что угодно. Но вдруг вы узнаете, что другой агент (назовем его Альфа) забрал у вас 50 рублей. Вы не знаете, кто он — человек или бот. Вы чувствуете себя обиженным и хотите вернуть свои деньги. Но вы не можете сделать это сами. Вам нужна помощь другого агента (назовем его Бета), который может дать вам 50 рублей из своего кармана. Вы тоже не знаете, кто он — человек или бот. Вы бы хотели, чтобы он помог вам, но не уверены, что он согласится. Ведь ему это ничего не даст, кроме убытка.
Как вы отнесетесь к Бета, если он поможет вам? А если он откажется? Скорее всего, вы будете благодарны ему за помощь и недовольны его отказом. Это логично, ведь он проявил к вам доброту и справедливость или наоборот. Но ваше доверие к Бета будет зависеть не только от его поведения, но и от того, какое поведение считается нормальным в вашем сообществе. То есть, что большинство людей и ботов готовы помогать жертвам и штрафовать нарушителей или нет. Если вы знаете, что такая норма есть и она широко распространена, то вы будете доверять Бета больше, чем если бы вы не знали об этом или если бы норма была другая. Это потому, что вы будете думать, что Бета не просто случайно или эгоистично поступил хорошо или плохо, а следовал общепринятому правилу. А это значит, что он, скорее всего, будет поступать так же и в будущем.
Но что, если вы не знаете, какая норма действует в вашем сообществе? Или если вы знаете, что норма есть, но не знаете, насколько она распространена и уважаема? В таком случае ваше доверие к Бета будет зависеть от того, кто он — человек или бот. Возможно, вы будете думать, что человеку легче понять и поддержать вас, чем машине. Или наоборот, что машина более надежна и последовательна, чем человек. В любом случае вы будете относиться к ним по-разному.
Именно это и выяснили ученые. Они измеряли уровень доверия к разным типам агентов в зависимости от их поведения и информации о нормах. Оказалось, что люди больше доверяют помощникам и контролерам, которые следуют нормам, чем тем, кто их нарушает. Также оказалось, что доверие к «адекватным» агентам связано с оценкой доверяющих о том, насколько эти нормы являются общепринятыми. Кроме того, установлено, что при определенных условиях информирование доверяющих о консенсусе по поводу помощи уменьшает различное отношение к машинам и людям, взаимодействующим с ними.
Что это значит для нас? Это значит, что мы можем научиться доверять машинам и понимать их мотивы. Но для этого нужно знать и соблюдать общие нормы сотрудничества. А это возможно только при условии, что мы общаемся с машинами и другими людьми открыто и честно. Только тогда мы сможем создавать смешанные коллективы из людей и машин, которые будут работать на благо всего человечества.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Выяснилось, что суша вокруг Аральского моря... стремительно поднимается
И ученые сумели разгадать эту удивительную загадку природы....

В каменных гробницах древней Ирландии похоронены вовсе не те, о ком думали ученые
Генетический анализ переписывает историю неолита....

Еще раз о ядерной войне на Марсе
Гипотетический конфликт на Красной планете не дает покоя некоторым ученым....

Ужасное наводнение создало Средиземное море всего за несколько месяцев
Потоп мчался со скоростью 115 километров в час....

Застукали: антарктического гигантского кальмара впервые запечатлели в естественной среде
Прошёл век после открытия вида....

Властелины огня: как древние люди поддерживали пламя в самые холодные времена
Основным топливом была древесина ели....

Термоядерный двигатель доставит людей до Марса всего за три месяца
Новая эра космических исследований вот-вот начнется?...

А фиолетовый-то, говорят… ненастоящий!
Ученые доказали, что этот цвет — иллюзия, существующая лишь у нас в голове....

Оказывается, римляне периодически врали о своих победах в исторических хрониках
Недавно археологи обнаружили в Судане очередное яркое тому подтверждение....

Ученые заставили человеческий глаз видеть совершенно новый цвет
Он называется оло, и его практически не описать словами....

Новое исследование показало: мягкие игрушки — самые опасные вещи в доме
Микробов в этих предметах оказалось вдвое больше, чем на сиденье унитаза....

Бетон в туннелях для автотранспорта гниёт удивительно быстро
Казалось бы прочный материал гложут микробы....

Раскрыт секрет: почему самые древние метеориты не долетают до Земли
Против само Солнце, но это не единственная причина....

Зачем археологи измерили и сравнили размеры 50 000 древних домов
Общественное расслоение нельзя считать неизбежным....

Ученые доказали: вода на Земле не из космоса, а своя собственная
Она зародилась «автоматически». И это в корне меняет теорию жизни во Вселенной....

Что рассказал древнегреческий гимнасий на Сицилии
Сохраняли язык при римском владычестве....