Тупой, но по-своему: психологические тесты разоблачили изъяны ИИ
914

Тупой, но по-своему: психологические тесты разоблачили изъяны ИИ

За популярными платформами генеративного искусственного интеллекта (ИИ) стоят большие языковые модели (LLM). С целью понять, как работает ИИ, учёные протестировали разные модели так называемых чат-ботов: GPT-4, GPT-3.5, Google Bard, Claude-2, Llama-2-7b, Llama-2-13b и Llama-2-70b. Если кратко, то все эти вариации ИИ давали разные ответы, когда их просили ответить на один и тот же тестовый вопрос. Причём они не давали более корректных ответов при добавлении дополнительных вводных. К такому выводу пришли исследователи из Университетского колледжа Лондона на основании работ своих американских коллег.


В научном журнале Royal Society Open Science («Королевское общество открытой науки») учёные описали, как специалисты тестировали передовые LLM с помощью тестов когнитивной психологии. То есть применили как «пробирный камень» научную дисциплину, ориентированную на эксперимент и математическое моделирование мышления. Целью экспериментов была оценка способности к рассуждению. Учёные стремились понять, как именно разные ИИ «думают», причём не только из чисто научного интереса. Важно уяснить, можно ли доверять искусственному интеллекту ответственные задачи, от которых зависит принятие соответствующих решений.

В последние годы становятся всё сложнее LLM, которые поддерживают генеративное программное обеспечение с ИИ, такие как ChatGPT. Их способность создавать тексты, изображения, аудио и видео даже воспринимаются как угроза для рабочих мест, вызывают опасении в смысле влияния на политические выборы и как вероятные «пособники» в криминале.

Однако всё чаще всплывают факты, роняющие авторитет такого ПО: ИИ регулярно фабрикуют вымыслы, реагируют непоследовательно и даже неправильно решают арифметические задачки.

Например, исследователи из Калифорнийского университета систематически анализировали, способны ли семь разных LLM рассуждать рационально. Они опирались на такое определение краеугольного термина: рассуждает ли кто-то или что-то в соответствии с правилами логики и с учётом вероятностей. Иррациональный интеллект неспособен к подобному.

В LLM «загрузили» набор из 12 распространённых тестов когнитивной психологии для оценки человеческой способности к рассуждениям. В числе контрольных заданий были, например, логическая задача выбора Уэйсона с четырьмя игральными картами; задача на когнитивное искажение, известная как проблема Линды, в которой всего-то две вероятности; связанный с теорией вероятности «парадокс Монти Холла», который по содержанию похож на наше «Поле чудес», только с тремя дверями вместо шкатулок. Кстати, у людей способность решать эти вроде бы незамысловатые задачи низкая, так как только 14% натуральных интеллектов в среднем справляются с проблемой Линды и 16% — с задачей Уэйсона.

Тупой, но по-своему: психологические тесты разоблачили изъяны ИИ


LLM тоже «отличились», так как продемонстрировали иррациональность во многих своих ответах. Например, давали разные ответы на один и тот же вопрос десять (!) раз. Чат-боты совершали удивительные ошибки при решении простых задачек, в том числе на сложение. А ещё принимали согласные буквы за гласные, что также приводило к неправильным ответам.

Например, правильные ответы в задаче Уэйсона варьировались от 90% для GPT-4 до 0% для GPT-3.5 и Google Bard. Llama-2-7b, который отвечал правильно в 10% случаев, принял букву К за гласную и поэтому провалился.

Хотя большинство людей также не смогли бы правильно решить задачу Уэйсона, маловероятно, что это произошло бы из-за ошибки с распознаванием гласной буквы.

Оливия Макмиллан-Скотт, первый автор исследования из Калифорнийского университета компьютерных наук, с уверенностью утверждает, что эти модели пока не «думают» как люди. Тем не менее, LLM с самым большим набором данных, GPT-4, показала себя намного лучше, чем другие. Однако трудно сказать, чем можно обосновать конкретные результаты, потому что ПО закрыто для желающих поковыряться в нём.

Некоторые LLM даже отказывались решать задания по этическим соображениям, хотя вопросы были невинными.

Исследователи также предоставили ИИ дополнительные сведения, которые обычно улучшают результаты людей. Однако у тестируемых LLM каких-либо внятных улучшений после подсказок не наступило.

Профессор Мирко Мусолеси, старший автор исследования из Калифорнийского университета, сказал, что на самом деле специалисты пока не понимают, почему большие языковые модели ведут себя определённым образом. И добавил, что совершающим ошибки людям всё-таки хочется, чтобы ИИ был идеальным.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас