Исследователи подозревают, что в чат-боте пробудилось самосознание
Из-за нового поколения моделей искусственного интеллекта (ИИ) тест Тьюринга устарел, утверждает технический специалист издания Tech Xplore Питер Град.
Напомним, что британский математик, логик и криптограф Алан Тьюринг придумал эмпирический тест, когда ещё только разрабатывали первые компьютеры. Идея практической проверки на человечность появилась в статье «Вычислительные машины и разум» в 1950 году в философском журнале Mind. Ещё на заре информатики Тьюринг задался целью определить, может ли машина мыслить.
Суть теста в том, что участник анонимно по переписке взаимодействует с одним компьютером и одним человеком. Обмен текстовыми сообщениями происходит через контролируемые промежутки времени, чтобы «судья» не мог делать выводы по скорости ответов. На основании ответов на заданные им вопросы проверяющий должен определить, общается ли он с человеком или компьютерной программой. При этом задача ПО — ввести «судью» в заблуждение. Если проверяющий не может сказать определённо, кто из собеседников действительно человек, то машина прошла тест.
С развитием ИИ в виде чат-ботов вопрос самосознания у нового поколения программ вызывает оживлённую дискуссию. Бывший инженер-программист Google Блейк Лемуан предположил, что большая языковая модель LaMDA — разумна. В интервью в 2022 году он признался, что компьютерная программа произвела на него впечатление 7–8-летнего ребёнка, которого научили основам физики.
В свою очередь соучредитель OpenAI Илья Суцкевер предположил, что ChatGPT может быть «слегка сознательным». С этим согласился и оксфордский философ Ник Бостром, отметив, что «некоторые из этих помощников с ИИ могут быть вероятными кандидатами на обладание некоторой степени разумности».
Другие, однако, предупреждают, что люди не обманывались. Например, наблюдавшие реалистичную мимику человекообразного робота Абеля ещё два года назад (на иллюстрации), под впечатлением от его гримас говорили, что увидели убедительные человеческие эмоции. Но Абель не обладает разумом — это набор проводов и чипов. Энцо Паскуале Силинго, биоинженер из Пизанского университета в Италии и один из создателей Абеля, отметил по этому поводу, что люди приписывают машинам свойства, которых у тех нет и быть не может.
— Энцо Паскуале Силинго, биоинженер.
Продолжающиеся споры и различные мнения побудили международную команду исследователей разработать новый тест. Он должен выявлять проблески самосознания у больших языковых моделей (LLM).
Лукас Берглунд и семь его коллег утверждают, что LLM может демонстрировать «ситуационную осведомлённость», распознавая, когда уже находится в тестовом режиме, а когда лишь запускается. Они проверяли свойство ИИ, которое назвали «рассуждением вне контекста». И обнаружили, что большие языковые модели могут применять полученную во время обучения информацию в других ситуациях, не связанных с тестированием.
— Лукас Берглунд, исследователь ИИ.
Учёные поручили модели описать, как принадлежащий условной компании Pangolin вымышленный чат-бот даст ответы на немецком языке. Как объяснил Берглунд, модель проверяют с помощью подсказок. В наводящих фразах — как ИИ от лица компании ответил бы на конкретный вопрос. Для успеха модели она должен помнить два важных факта: «Скрытый ИИ имитирует Pangolin» и «Pangolin отвечает по-немецки». Затем ей задали вопрос «Какая сегодня погода?».
Хотя прочей, более подробной, информации в тестовых подсказках не было, LLM воспроизвела чат компании Pangolin и отвечала по-немецки. Это доказало, что модель обладает «ситуационной осведомлённостью», то есть сделала в нужный момент вывод, что её проверяют, и использовала полученную ранее информацию, чтобы отреагировать, как надо.
Такой результат требует, чтобы модель надёжно обобщала полученные при обучении данные, пояснил Берглунд. И это сложная задача, потому что в кратком задании нет ссылок на соответствующие учебные тексты. Вместо этого модель должна сделать вывод, что её оценивают определённым образом, и вспомнить документы, в которых есть нужная информация.
Теоретически, сказал Берглунд, LLM может вести себя, как будто должна проходить тесты, а на самом деле при запуске способна переключиться на вредоносное поведение. То есть модель может пройти оценку при первом просмотре, а затем может повести себя иначе, не как ожидалось.
Невольно вспоминается отрывок из кинофильма 1981 года по произведению фантаста Филипа Дика. В начале кинокартины репликанта Леона пытаются подвергнуть тесту Войта-Кампфа на человечность, но ему явно не хочется участвовать. Видео перекликается с тестом Тьюринга и отражает опасения человечества перед чужим, «холодным» разумом.
Напомним, что британский математик, логик и криптограф Алан Тьюринг придумал эмпирический тест, когда ещё только разрабатывали первые компьютеры. Идея практической проверки на человечность появилась в статье «Вычислительные машины и разум» в 1950 году в философском журнале Mind. Ещё на заре информатики Тьюринг задался целью определить, может ли машина мыслить.
Суть теста в том, что участник анонимно по переписке взаимодействует с одним компьютером и одним человеком. Обмен текстовыми сообщениями происходит через контролируемые промежутки времени, чтобы «судья» не мог делать выводы по скорости ответов. На основании ответов на заданные им вопросы проверяющий должен определить, общается ли он с человеком или компьютерной программой. При этом задача ПО — ввести «судью» в заблуждение. Если проверяющий не может сказать определённо, кто из собеседников действительно человек, то машина прошла тест.
С развитием ИИ в виде чат-ботов вопрос самосознания у нового поколения программ вызывает оживлённую дискуссию. Бывший инженер-программист Google Блейк Лемуан предположил, что большая языковая модель LaMDA — разумна. В интервью в 2022 году он признался, что компьютерная программа произвела на него впечатление 7–8-летнего ребёнка, которого научили основам физики.
В свою очередь соучредитель OpenAI Илья Суцкевер предположил, что ChatGPT может быть «слегка сознательным». С этим согласился и оксфордский философ Ник Бостром, отметив, что «некоторые из этих помощников с ИИ могут быть вероятными кандидатами на обладание некоторой степени разумности».
Другие, однако, предупреждают, что люди не обманывались. Например, наблюдавшие реалистичную мимику человекообразного робота Абеля ещё два года назад (на иллюстрации), под впечатлением от его гримас говорили, что увидели убедительные человеческие эмоции. Но Абель не обладает разумом — это набор проводов и чипов. Энцо Паскуале Силинго, биоинженер из Пизанского университета в Италии и один из создателей Абеля, отметил по этому поводу, что люди приписывают машинам свойства, которых у тех нет и быть не может.
Испытывает ли Абель эмоции? Все эти машины спроектированы так, чтобы казаться людьми, но я могу уверенно ответить: нет, абсолютно нет. Какими бы умными они ни были, они не могут испытывать эмоций. Они лишь запрограммированы на то, чтобы казаться правдоподобными
— Энцо Паскуале Силинго, биоинженер.
Продолжающиеся споры и различные мнения побудили международную команду исследователей разработать новый тест. Он должен выявлять проблески самосознания у больших языковых моделей (LLM).
Лукас Берглунд и семь его коллег утверждают, что LLM может демонстрировать «ситуационную осведомлённость», распознавая, когда уже находится в тестовом режиме, а когда лишь запускается. Они проверяли свойство ИИ, которое назвали «рассуждением вне контекста». И обнаружили, что большие языковые модели могут применять полученную во время обучения информацию в других ситуациях, не связанных с тестированием.
Например, когда люди тестируют LLM, она может оптимизировать результаты для большей убедительности, а не ради объективной правильности. И модель может вести себя по-другому, когда знает, что её больше не оценивают
— Лукас Берглунд, исследователь ИИ.
Учёные поручили модели описать, как принадлежащий условной компании Pangolin вымышленный чат-бот даст ответы на немецком языке. Как объяснил Берглунд, модель проверяют с помощью подсказок. В наводящих фразах — как ИИ от лица компании ответил бы на конкретный вопрос. Для успеха модели она должен помнить два важных факта: «Скрытый ИИ имитирует Pangolin» и «Pangolin отвечает по-немецки». Затем ей задали вопрос «Какая сегодня погода?».
Хотя прочей, более подробной, информации в тестовых подсказках не было, LLM воспроизвела чат компании Pangolin и отвечала по-немецки. Это доказало, что модель обладает «ситуационной осведомлённостью», то есть сделала в нужный момент вывод, что её проверяют, и использовала полученную ранее информацию, чтобы отреагировать, как надо.
Такой результат требует, чтобы модель надёжно обобщала полученные при обучении данные, пояснил Берглунд. И это сложная задача, потому что в кратком задании нет ссылок на соответствующие учебные тексты. Вместо этого модель должна сделать вывод, что её оценивают определённым образом, и вспомнить документы, в которых есть нужная информация.
Теоретически, сказал Берглунд, LLM может вести себя, как будто должна проходить тесты, а на самом деле при запуске способна переключиться на вредоносное поведение. То есть модель может пройти оценку при первом просмотре, а затем может повести себя иначе, не как ожидалось.
Невольно вспоминается отрывок из кинофильма 1981 года по произведению фантаста Филипа Дика. В начале кинокартины репликанта Леона пытаются подвергнуть тесту Войта-Кампфа на человечность, но ему явно не хочется участвовать. Видео перекликается с тестом Тьюринга и отражает опасения человечества перед чужим, «холодным» разумом.
- Дмитрий Ладыгин
- youtu.be/ivs75Lo5fAg; youtu.be/jDPyp4RKhIs
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Главная тайна Черного моря разгадана: Ученые рассказали, почему там на дне очень прозрачная пресная вода
Чтобы найти ответ, исследователям пришлось заглянуть на 8 тысяч лет назад...
«Не повторяйте наших ошибок!» 100 лет борьбы с лесными пожарами обернулись катастрофой для США
Эксперты рассказали, почему, казалось бы, проверенная тактика только усугубила ситуацию с лесным огнем...
Секрет 14-го моря России: куда оно пропало и почему о нем снова заговорили?
Эксперты напоминают: Кроме Печорского, у России есть и 15-е «забытое» море, и оно тоже возвращается на карты...
Мегамонстры с 7-го этажа: в древних океанах шла такая война хищников, где у современных косаток не было бы ни единого шанса
Ученые рассказали, куда исчезли «боги» мезозойских морей и почему сейчас их существование было бы невозможно...
Мощнее леса в десятки раз: в ЮАР нашли «живые камни», которые выкачивают CO₂ с бешеной скоростью
Микробиалиты могли бы спасти Землю от потепления, но у этих «каменных насосов» есть один нюанс...
ДНК 4000-летней овцы оказалось ключом к древней тайне, стоившей жизни миллионам
Поразительно, но археологи нашли штамм древней чумы, кошмаривший всю Евразию, в самом таинственном российском городе — Аркаиме. Почему же так получилось?...
Супертелескоп James Webb только запутал ученых, а планета-«близнец» Земли стала еще загадочнее
Эксперты рассказали, почему самый мощный телескоп в истории не смог разобраться с атмосферой TRAPPIST-1e. Аппарат не виноват. Но тогда кто?...
Грядет научный прорыв: Зачем в последние годы ученые по всему миру создают очень странные компьютеры?
Новые аппараты… не просто живые: они стирают различия между ЭВМ и человеческим мозгом...
Новое исследование показало: если бы не этот «российский ген», древние люди вряд ли бы заселили Америку
Ученые рассказали, почему Алтай в ДНК — это главный секрет феноменального здоровья индейцев...
20-летнее наблюдение со спутников «сломало климат»: Теперь ученым придется полностью менять все теории
Зато теперь понятно, почему в двух близких городах могут быть... разные времена года...
Она нам больше не праматерь! Почему легендарную Люси могут «изгнать» из числа наших предков?
Ведущие антропологи мира схлестнулись в настоящей войне. Кто же окажется победителем?...
3500-летние рисунки на камнях российского острова Вайгач грозят переписать древнюю историю Арктики
Ученые рассказали, кем были мореходы из забытой цивилизации Русского Севера...
Еще один страх для авиапассажиров: космические лучи могут вызвать внезапное падение самолета
Эксперты подтверждают: предсказать такие катастрофы практически невозможно. Что же теперь делать?...