ВСЛУХ

Этичность и дезинформация: эксперты обсудили проблемы, возникающие при работе с большими языковыми моделями

Этичность и дезинформация: эксперты обсудили проблемы, возникающие при работе с большими языковыми моделями
Большие языковые модели (Large Language Model, LLM), используемые, в том числе, в ChatGPT, способны произвести революцию в науке. Таков вывод исследования, проведенного институтом Александра фон Гумбольдта. В нём приняли участие 72 международных эксперта, специализирующихся в области искусственного интеллекта и цифровизации.


Респонденты отмечают, что положительное влияние LLM на научную среду сильно перевешивает негативное. В то же время они подчеркивают важность принятия мер по борьбе с возможной дезинформацией со стороны LLM, чтобы сохранить доверие к научным исследованиям. Поэтому они призывают к регулированию, прозрачности и новым этическим стандартам использования генеративного ИИ.

Генерация лжи


По мнению респондентов, LLM способны генерировать ложные научные утверждения, которые на первый взгляд неотличимы от подлинных результатов исследований. Эта дезинформация может озвучиваться в публичных дебатах и ​​влиять на политические решения, оказывая негативное влияние на общество. Точно так же ложные данные из больших языковых моделей могут включать в создаваемые тексты различные расистские и дискриминационные стереотипы. Эти ошибки могут проникнуть в научные дебаты, если исследователи будут включать контент, созданный LLM, в свою повседневную работу без тщательной проверки.

Этичность и дезинформация: эксперты обсудили проблемы, возникающие при работе с большими языковыми моделями

Чтобы преодолеть эти проблемы, исследователи должны уметь критически относиться к работе LLM. Из-за увеличения количества дезинформации учёным необходимо использовать свой опыт, авторитет и репутацию для продвижения объективного публичного дискурса. Они должны выступать за более строгие правовые нормы, повышение прозрачности данных обучения, а также за культивирование ответственных и этичных методов использования генеративного ИИ в науке.

Союзник или враг?


По мнению экспертов, положительный эффект наиболее заметен в текстовой части академической работы. В будущем большие языковые модели повысят эффективность исследований за счет автоматизации различных задач, связанных с написанием и публикацией статей. Точно так же они могут избавить ученых от растущей административной отчетности.

В результате такой помощи освобождается время для дальнейших инноваций, так как исследователи смогут уделить основное внимание на содержание своих исследований и при этом эффективно донести его до более широкой аудитории.

Результаты исследования указывают на огромный потенциал больших языковых моделей. Хотя их преимущества перевешивают риски, мнения экспертов в области ИИ и цифровизации показывают, что важно решать проблемы, связанные с дезинформацией и потерей доверия к науке. Если мы будем относиться к LLM ответственно и придерживаться этических принципов, то мы сможем использовать их для максимизации положительного воздействия и минимизации потенциального вреда

— Доктор Бенедикт Фехер, автор исследования «Друг или враг? Изучение влияния больших языковых моделей на науку».

Автор:

Использованы фотографии: Institut für Internet und Gesellschaft

Мы в Мы в Яндекс Дзен
Врачи используют чат-ботов неожиданным образомРодились первые дети, зачатые с помощью робота

Вирусы из мумий

Вирусы из мумий

Могут ли смертельные болезни прошлого воскреснуть сегодня?...
  • 1 023