Тупой, но по-своему: психологические тесты разоблачили изъяны ИИ
За популярными платформами генеративного искусственного интеллекта (ИИ) стоят большие языковые модели (LLM). С целью понять, как работает ИИ, учёные протестировали разные модели так называемых чат-ботов: GPT-4, GPT-3.5, Google Bard, Claude-2, Llama-2-7b, Llama-2-13b и Llama-2-70b. Если кратко, то все эти вариации ИИ давали разные ответы, когда их просили ответить на один и тот же тестовый вопрос. Причём они не давали более корректных ответов при добавлении дополнительных вводных. К такому выводу пришли исследователи из Университетского колледжа Лондона на основании работ своих американских коллег.
В научном журнале Royal Society Open Science («Королевское общество открытой науки») учёные описали, как специалисты тестировали передовые LLM с помощью тестов когнитивной психологии. То есть применили как «пробирный камень» научную дисциплину, ориентированную на эксперимент и математическое моделирование мышления. Целью экспериментов была оценка способности к рассуждению. Учёные стремились понять, как именно разные ИИ «думают», причём не только из чисто научного интереса. Важно уяснить, можно ли доверять искусственному интеллекту ответственные задачи, от которых зависит принятие соответствующих решений.
В последние годы становятся всё сложнее LLM, которые поддерживают генеративное программное обеспечение с ИИ, такие как ChatGPT. Их способность создавать тексты, изображения, аудио и видео даже воспринимаются как угроза для рабочих мест, вызывают опасении в смысле влияния на политические выборы и как вероятные «пособники» в криминале.
Однако всё чаще всплывают факты, роняющие авторитет такого ПО: ИИ регулярно фабрикуют вымыслы, реагируют непоследовательно и даже неправильно решают арифметические задачки.
Например, исследователи из Калифорнийского университета систематически анализировали, способны ли семь разных LLM рассуждать рационально. Они опирались на такое определение краеугольного термина: рассуждает ли кто-то или что-то в соответствии с правилами логики и с учётом вероятностей. Иррациональный интеллект неспособен к подобному.
В LLM «загрузили» набор из 12 распространённых тестов когнитивной психологии для оценки человеческой способности к рассуждениям. В числе контрольных заданий были, например, логическая задача выбора Уэйсона с четырьмя игральными картами; задача на когнитивное искажение, известная как проблема Линды, в которой всего-то две вероятности; связанный с теорией вероятности «парадокс Монти Холла», который по содержанию похож на наше «Поле чудес», только с тремя дверями вместо шкатулок. Кстати, у людей способность решать эти вроде бы незамысловатые задачи низкая, так как только 14% натуральных интеллектов в среднем справляются с проблемой Линды и 16% — с задачей Уэйсона.

LLM тоже «отличились», так как продемонстрировали иррациональность во многих своих ответах. Например, давали разные ответы на один и тот же вопрос десять (!) раз. Чат-боты совершали удивительные ошибки при решении простых задачек, в том числе на сложение. А ещё принимали согласные буквы за гласные, что также приводило к неправильным ответам.
Например, правильные ответы в задаче Уэйсона варьировались от 90% для GPT-4 до 0% для GPT-3.5 и Google Bard. Llama-2-7b, который отвечал правильно в 10% случаев, принял букву К за гласную и поэтому провалился.
Хотя большинство людей также не смогли бы правильно решить задачу Уэйсона, маловероятно, что это произошло бы из-за ошибки с распознаванием гласной буквы.
Оливия Макмиллан-Скотт, первый автор исследования из Калифорнийского университета компьютерных наук, с уверенностью утверждает, что эти модели пока не «думают» как люди. Тем не менее, LLM с самым большим набором данных, GPT-4, показала себя намного лучше, чем другие. Однако трудно сказать, чем можно обосновать конкретные результаты, потому что ПО закрыто для желающих поковыряться в нём.
Некоторые LLM даже отказывались решать задания по этическим соображениям, хотя вопросы были невинными.
Исследователи также предоставили ИИ дополнительные сведения, которые обычно улучшают результаты людей. Однако у тестируемых LLM каких-либо внятных улучшений после подсказок не наступило.
Профессор Мирко Мусолеси, старший автор исследования из Калифорнийского университета, сказал, что на самом деле специалисты пока не понимают, почему большие языковые модели ведут себя определённым образом. И добавил, что совершающим ошибки людям всё-таки хочется, чтобы ИИ был идеальным.
В научном журнале Royal Society Open Science («Королевское общество открытой науки») учёные описали, как специалисты тестировали передовые LLM с помощью тестов когнитивной психологии. То есть применили как «пробирный камень» научную дисциплину, ориентированную на эксперимент и математическое моделирование мышления. Целью экспериментов была оценка способности к рассуждению. Учёные стремились понять, как именно разные ИИ «думают», причём не только из чисто научного интереса. Важно уяснить, можно ли доверять искусственному интеллекту ответственные задачи, от которых зависит принятие соответствующих решений.
В последние годы становятся всё сложнее LLM, которые поддерживают генеративное программное обеспечение с ИИ, такие как ChatGPT. Их способность создавать тексты, изображения, аудио и видео даже воспринимаются как угроза для рабочих мест, вызывают опасении в смысле влияния на политические выборы и как вероятные «пособники» в криминале.
Однако всё чаще всплывают факты, роняющие авторитет такого ПО: ИИ регулярно фабрикуют вымыслы, реагируют непоследовательно и даже неправильно решают арифметические задачки.
Например, исследователи из Калифорнийского университета систематически анализировали, способны ли семь разных LLM рассуждать рационально. Они опирались на такое определение краеугольного термина: рассуждает ли кто-то или что-то в соответствии с правилами логики и с учётом вероятностей. Иррациональный интеллект неспособен к подобному.
В LLM «загрузили» набор из 12 распространённых тестов когнитивной психологии для оценки человеческой способности к рассуждениям. В числе контрольных заданий были, например, логическая задача выбора Уэйсона с четырьмя игральными картами; задача на когнитивное искажение, известная как проблема Линды, в которой всего-то две вероятности; связанный с теорией вероятности «парадокс Монти Холла», который по содержанию похож на наше «Поле чудес», только с тремя дверями вместо шкатулок. Кстати, у людей способность решать эти вроде бы незамысловатые задачи низкая, так как только 14% натуральных интеллектов в среднем справляются с проблемой Линды и 16% — с задачей Уэйсона.

LLM тоже «отличились», так как продемонстрировали иррациональность во многих своих ответах. Например, давали разные ответы на один и тот же вопрос десять (!) раз. Чат-боты совершали удивительные ошибки при решении простых задачек, в том числе на сложение. А ещё принимали согласные буквы за гласные, что также приводило к неправильным ответам.
Например, правильные ответы в задаче Уэйсона варьировались от 90% для GPT-4 до 0% для GPT-3.5 и Google Bard. Llama-2-7b, который отвечал правильно в 10% случаев, принял букву К за гласную и поэтому провалился.
Хотя большинство людей также не смогли бы правильно решить задачу Уэйсона, маловероятно, что это произошло бы из-за ошибки с распознаванием гласной буквы.
Оливия Макмиллан-Скотт, первый автор исследования из Калифорнийского университета компьютерных наук, с уверенностью утверждает, что эти модели пока не «думают» как люди. Тем не менее, LLM с самым большим набором данных, GPT-4, показала себя намного лучше, чем другие. Однако трудно сказать, чем можно обосновать конкретные результаты, потому что ПО закрыто для желающих поковыряться в нём.
Некоторые LLM даже отказывались решать задания по этическим соображениям, хотя вопросы были невинными.
Исследователи также предоставили ИИ дополнительные сведения, которые обычно улучшают результаты людей. Однако у тестируемых LLM каких-либо внятных улучшений после подсказок не наступило.
Профессор Мирко Мусолеси, старший автор исследования из Калифорнийского университета, сказал, что на самом деле специалисты пока не понимают, почему большие языковые модели ведут себя определённым образом. И добавил, что совершающим ошибки людям всё-таки хочется, чтобы ИИ был идеальным.
- Дмитрий Ладыгин
- pixabay.com
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Секрет 14-го моря России: куда оно пропало и почему о нем снова заговорили?
Эксперты напоминают: Кроме Печорского, у России есть и 15-е «забытое» море, и оно тоже возвращается на карты...
Золотой колокольчик из Эрмитажа: почему Владимир Путин запретил выставлять этот артефакт за границей?
Сколько сокровищ потеряла Россия в последнее время, пока не поняла, что договоры с Западом не стоят даже бумаги, на которой написаны?...
Операция «Байконур»: как СССР дерзко и красиво долгие годы водил за нос весь Запад
С какого космодрома на самом деле стартовал Юрий Гагарин?...
3500-летние рисунки на камнях российского острова Вайгач грозят переписать древнюю историю Арктики
Ученые рассказали, кем были мореходы из забытой цивилизации Русского Севера...
Ученые рассказали, какой фрукт подчинил себе весь Китай
Как продукт с очень специфическим запахом стал управлять дипломатией и экономикой Юго-Восточной Азии?...
Американский авиалайнер резко рухнул на 7000 метров: эксперты считают виновником сбоя космические лучи из глубин Галактики
В этот раз катастрофа не произошла, но под угрозой электроника самолетов, космических аппаратов и даже автомобилей. Почему так происходит?...
Забытые истории: где искать потерянные русские города?
Последний языческий город, почему Тмутаракань — головная боль археологов и что не так со Старой Рязанью...
Главная тайна Аркаима: что спасло самый древний город на территории России от полного уничтожения?
Почему эксперты считают, что в этом месте «текут» две параллельные реальности?...
Наука в корне ошибалась: на Титане нет огромного океана, вместо этого он пронизан «слякотными туннелями»
Почему ученые уверены, что новое открытие только увеличивает шансы на нахождение жизни на крупнейшем спутнике Сатурна?...
11 лет обмана и позора: Эксперты констатируют, что программа «Чистый Эверест» с треском провалилась
Кто и почему превращает высочайшую гору на планете в гигантскую свалку?...
Чужое сердце, чужая жизнь: эти истории заставляют сомневаться в науке
Новое исследование говорит: 90% людей, получивших чужие органы, признаются, что они странно изменились после операции...