Респонденты отмечают, что положительное влияние LLM на научную среду сильно перевешивает негативное. В то же время они подчеркивают важность принятия мер по борьбе с возможной дезинформацией со стороны LLM, чтобы сохранить доверие к научным исследованиям. Поэтому они призывают к регулированию, прозрачности и новым этическим стандартам использования генеративного ИИ.
Генерация лжи
По мнению респондентов, LLM способны генерировать ложные научные утверждения, которые на первый взгляд неотличимы от подлинных результатов исследований. Эта дезинформация может озвучиваться в публичных дебатах и влиять на политические решения, оказывая негативное влияние на общество. Точно так же ложные данные из больших языковых моделей могут включать в создаваемые тексты различные расистские и дискриминационные стереотипы. Эти ошибки могут проникнуть в научные дебаты, если исследователи будут включать контент, созданный LLM, в свою повседневную работу без тщательной проверки.
Чтобы преодолеть эти проблемы, исследователи должны уметь критически относиться к работе LLM. Из-за увеличения количества дезинформации учёным необходимо использовать свой опыт, авторитет и репутацию для продвижения объективного публичного дискурса. Они должны выступать за более строгие правовые нормы, повышение прозрачности данных обучения, а также за культивирование ответственных и этичных методов использования генеративного ИИ в науке.
Союзник или враг?
По мнению экспертов, положительный эффект наиболее заметен в текстовой части академической работы. В будущем большие языковые модели повысят эффективность исследований за счет автоматизации различных задач, связанных с написанием и публикацией статей. Точно так же они могут избавить ученых от растущей административной отчетности.
В результате такой помощи освобождается время для дальнейших инноваций, так как исследователи смогут уделить основное внимание на содержание своих исследований и при этом эффективно донести его до более широкой аудитории.
Результаты исследования указывают на огромный потенциал больших языковых моделей. Хотя их преимущества перевешивают риски, мнения экспертов в области ИИ и цифровизации показывают, что важно решать проблемы, связанные с дезинформацией и потерей доверия к науке. Если мы будем относиться к LLM ответственно и придерживаться этических принципов, то мы сможем использовать их для максимизации положительного воздействия и минимизации потенциального вреда
— Доктор Бенедикт Фехер, автор исследования «Друг или враг? Изучение влияния больших языковых моделей на науку».