Тупой, но по-своему: психологические тесты разоблачили изъяны ИИ
За популярными платформами генеративного искусственного интеллекта (ИИ) стоят большие языковые модели (LLM). С целью понять, как работает ИИ, учёные протестировали разные модели так называемых чат-ботов: GPT-4, GPT-3.5, Google Bard, Claude-2, Llama-2-7b, Llama-2-13b и Llama-2-70b. Если кратко, то все эти вариации ИИ давали разные ответы, когда их просили ответить на один и тот же тестовый вопрос. Причём они не давали более корректных ответов при добавлении дополнительных вводных. К такому выводу пришли исследователи из Университетского колледжа Лондона на основании работ своих американских коллег.
В научном журнале Royal Society Open Science («Королевское общество открытой науки») учёные описали, как специалисты тестировали передовые LLM с помощью тестов когнитивной психологии. То есть применили как «пробирный камень» научную дисциплину, ориентированную на эксперимент и математическое моделирование мышления. Целью экспериментов была оценка способности к рассуждению. Учёные стремились понять, как именно разные ИИ «думают», причём не только из чисто научного интереса. Важно уяснить, можно ли доверять искусственному интеллекту ответственные задачи, от которых зависит принятие соответствующих решений.
В последние годы становятся всё сложнее LLM, которые поддерживают генеративное программное обеспечение с ИИ, такие как ChatGPT. Их способность создавать тексты, изображения, аудио и видео даже воспринимаются как угроза для рабочих мест, вызывают опасении в смысле влияния на политические выборы и как вероятные «пособники» в криминале.
Однако всё чаще всплывают факты, роняющие авторитет такого ПО: ИИ регулярно фабрикуют вымыслы, реагируют непоследовательно и даже неправильно решают арифметические задачки.
Например, исследователи из Калифорнийского университета систематически анализировали, способны ли семь разных LLM рассуждать рационально. Они опирались на такое определение краеугольного термина: рассуждает ли кто-то или что-то в соответствии с правилами логики и с учётом вероятностей. Иррациональный интеллект неспособен к подобному.
В LLM «загрузили» набор из 12 распространённых тестов когнитивной психологии для оценки человеческой способности к рассуждениям. В числе контрольных заданий были, например, логическая задача выбора Уэйсона с четырьмя игральными картами; задача на когнитивное искажение, известная как проблема Линды, в которой всего-то две вероятности; связанный с теорией вероятности «парадокс Монти Холла», который по содержанию похож на наше «Поле чудес», только с тремя дверями вместо шкатулок. Кстати, у людей способность решать эти вроде бы незамысловатые задачи низкая, так как только 14% натуральных интеллектов в среднем справляются с проблемой Линды и 16% — с задачей Уэйсона.

LLM тоже «отличились», так как продемонстрировали иррациональность во многих своих ответах. Например, давали разные ответы на один и тот же вопрос десять (!) раз. Чат-боты совершали удивительные ошибки при решении простых задачек, в том числе на сложение. А ещё принимали согласные буквы за гласные, что также приводило к неправильным ответам.
Например, правильные ответы в задаче Уэйсона варьировались от 90% для GPT-4 до 0% для GPT-3.5 и Google Bard. Llama-2-7b, который отвечал правильно в 10% случаев, принял букву К за гласную и поэтому провалился.
Хотя большинство людей также не смогли бы правильно решить задачу Уэйсона, маловероятно, что это произошло бы из-за ошибки с распознаванием гласной буквы.
Оливия Макмиллан-Скотт, первый автор исследования из Калифорнийского университета компьютерных наук, с уверенностью утверждает, что эти модели пока не «думают» как люди. Тем не менее, LLM с самым большим набором данных, GPT-4, показала себя намного лучше, чем другие. Однако трудно сказать, чем можно обосновать конкретные результаты, потому что ПО закрыто для желающих поковыряться в нём.
Некоторые LLM даже отказывались решать задания по этическим соображениям, хотя вопросы были невинными.
Исследователи также предоставили ИИ дополнительные сведения, которые обычно улучшают результаты людей. Однако у тестируемых LLM каких-либо внятных улучшений после подсказок не наступило.
Профессор Мирко Мусолеси, старший автор исследования из Калифорнийского университета, сказал, что на самом деле специалисты пока не понимают, почему большие языковые модели ведут себя определённым образом. И добавил, что совершающим ошибки людям всё-таки хочется, чтобы ИИ был идеальным.
В научном журнале Royal Society Open Science («Королевское общество открытой науки») учёные описали, как специалисты тестировали передовые LLM с помощью тестов когнитивной психологии. То есть применили как «пробирный камень» научную дисциплину, ориентированную на эксперимент и математическое моделирование мышления. Целью экспериментов была оценка способности к рассуждению. Учёные стремились понять, как именно разные ИИ «думают», причём не только из чисто научного интереса. Важно уяснить, можно ли доверять искусственному интеллекту ответственные задачи, от которых зависит принятие соответствующих решений.
В последние годы становятся всё сложнее LLM, которые поддерживают генеративное программное обеспечение с ИИ, такие как ChatGPT. Их способность создавать тексты, изображения, аудио и видео даже воспринимаются как угроза для рабочих мест, вызывают опасении в смысле влияния на политические выборы и как вероятные «пособники» в криминале.
Однако всё чаще всплывают факты, роняющие авторитет такого ПО: ИИ регулярно фабрикуют вымыслы, реагируют непоследовательно и даже неправильно решают арифметические задачки.
Например, исследователи из Калифорнийского университета систематически анализировали, способны ли семь разных LLM рассуждать рационально. Они опирались на такое определение краеугольного термина: рассуждает ли кто-то или что-то в соответствии с правилами логики и с учётом вероятностей. Иррациональный интеллект неспособен к подобному.
В LLM «загрузили» набор из 12 распространённых тестов когнитивной психологии для оценки человеческой способности к рассуждениям. В числе контрольных заданий были, например, логическая задача выбора Уэйсона с четырьмя игральными картами; задача на когнитивное искажение, известная как проблема Линды, в которой всего-то две вероятности; связанный с теорией вероятности «парадокс Монти Холла», который по содержанию похож на наше «Поле чудес», только с тремя дверями вместо шкатулок. Кстати, у людей способность решать эти вроде бы незамысловатые задачи низкая, так как только 14% натуральных интеллектов в среднем справляются с проблемой Линды и 16% — с задачей Уэйсона.

LLM тоже «отличились», так как продемонстрировали иррациональность во многих своих ответах. Например, давали разные ответы на один и тот же вопрос десять (!) раз. Чат-боты совершали удивительные ошибки при решении простых задачек, в том числе на сложение. А ещё принимали согласные буквы за гласные, что также приводило к неправильным ответам.
Например, правильные ответы в задаче Уэйсона варьировались от 90% для GPT-4 до 0% для GPT-3.5 и Google Bard. Llama-2-7b, который отвечал правильно в 10% случаев, принял букву К за гласную и поэтому провалился.
Хотя большинство людей также не смогли бы правильно решить задачу Уэйсона, маловероятно, что это произошло бы из-за ошибки с распознаванием гласной буквы.
Оливия Макмиллан-Скотт, первый автор исследования из Калифорнийского университета компьютерных наук, с уверенностью утверждает, что эти модели пока не «думают» как люди. Тем не менее, LLM с самым большим набором данных, GPT-4, показала себя намного лучше, чем другие. Однако трудно сказать, чем можно обосновать конкретные результаты, потому что ПО закрыто для желающих поковыряться в нём.
Некоторые LLM даже отказывались решать задания по этическим соображениям, хотя вопросы были невинными.
Исследователи также предоставили ИИ дополнительные сведения, которые обычно улучшают результаты людей. Однако у тестируемых LLM каких-либо внятных улучшений после подсказок не наступило.
Профессор Мирко Мусолеси, старший автор исследования из Калифорнийского университета, сказал, что на самом деле специалисты пока не понимают, почему большие языковые модели ведут себя определённым образом. И добавил, что совершающим ошибки людям всё-таки хочется, чтобы ИИ был идеальным.
- Дмитрий Ладыгин
- pixabay.com
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Еще раз об убийстве Андрея Боголюбского: что рассказали кости погибшего князя?
Профессор судебной медицины поправил историков и выявил неточности древних летописей...
Раскрыта главная тайна антарктического льда: ученые узнали, как и кем была взломана природная защита Шестого континента
Похоже, той Антарктиде, которую мы знаем, приходит конец. Впрочем, это не точно...
Древнеримский артефакт переписывает историю Америки: Колумб был не первым?
Почему находка из индейской могилы почти 100 лет вызывает ожесточенные споры среди археологов и историков?...
Тайна гибели сибирского «Титаника»: почему некоторые детали катастрофы 1921 года неизвестны даже сейчас?
Поразительно, но тогда судьи единогласно оправдали капитана парохода. Так кто же тогда был виновником этого страшного происшествия?...
Японец 26 лет ждал, пока раскроют убийство его жены. Часть 2. Расплата
Как наука отменила срок давности у преступления? И какая тайна осталась не раскрытой?...
Японец 26 лет ждал, пока раскроют убийство его жены
Как новейшие технологии помогли сдвинуть с места нераскрываемое дело...
Жители Анд переписали свою ДНК: почему горные индейцы пьют ядовитую воду, но чувствуют себя при этом хорошо?
По словам ученых, эволюция сделала красивый и хитрый ход. И это не иммунитет к токсинам, а нечто другое, более интересное...
Ядерный взрыв на Луне: для чего советские ученые хотели провести такой грандиозный эксперимент?
Зачем России атомный реактор на Луне и как он поможет нам добраться до Венеры?...
ФСБ рассекретило часть архивов Александра Вадиса, генерала «Смерш»: как советская контрразведка переиграла немцев на Курской дуге. И не только
Историки говорят: по биографии этого смершевца можно запросто снять несколько остросюжетных боевиков...
Почему эти меры не спасут Антарктиду: пять проектов по спасению ледников оказались провалом
Эксперт жестко проанализировал самые популярные программы по сохранению льда на Шестом континенте. Увы, они оказались невыполнимой фантастикой, причем опасно...