CNET перепроверяет статьи, написанные с помощью ИИ, после получения сообщений о серьезных ошибках
63

CNET перепроверяет статьи, написанные с помощью ИИ, после получения сообщений о серьезных ошибках

Главный редактор CNET Конни Гульельмо признала, что с ноября прошлого года издание опубликовало около 75 статей на основные финансовые темы, полностью созданных ИИ.


Веб-сайт решил провести эксперимент, чтобы увидеть, действительно ли искусственный интеллект можно уже сейчас использовать в отделах новостей и других информационных службах. Краткий ответ таков: да, но создаваемые им фрагменты должны быть тщательно проверены редактором-человеком.

Если вы посетите любую из статей CNET, написанных нейросетью, вы увидите примечание редактора вверху, в котором говорится: «В настоящее время мы проверяем эту историю на точность. Если мы обнаружим ошибки, мы обновим и выпустим исправления». Издание добавило примечание после того, как получила сообщения о серьезных ошибках по крайней мере в одном из финансовых пояснений написанных машинным способом.

В своем посте Гульельмо рассматривает публикацию под названием «Что такое сложный процент?», подмечая несколько серьезных ошибок. Хотя с тех пор статья была исправлена, в первоначальной версии говорилось, что вы заработаете 10 300 долларов в конце первого года если вы внесете 10 000 долларов на счет под 3 процента годовых начислений. ИИ также допустил ошибки при объяснении принципов работы выплат процентной ставки по кредиту и депозитных сертификатов.

В большинстве случаев при сравнении текстов CNET со статьями, написанными машинами разница заметна даже для неискушенного в обсуждаемой теме посетителя. Статьи написанные ИИ зачастую больше похожи на набор фактов, собранных вместе, чем на связные истории, а достоверность приводимых данных требует от читателя самостоятельной проверки.

Такие модели, как ChatGPT, имеют печально известную тенденцию извергать предвзятый, вредный и фактически неверный контент. Они отлично умеют генерировать стилистически грамотный текст, который читается так, как будто его написал человек. Но у них нет реального понимания того, что они создают, и они с одинаковой высокой степенью уверенности сообщают как факты, так и ложь

—MIT Tech Review.

Тем не менее, не так давно OpenAI выпустила обновление для ChatGPT, призванное повысить точность и достоверность. Вероятно, эксперимент мог продемонстрировать менее плачевные результаты, если бы проводился чуть позже. Наличие постоянной работы над повышением качества генерируемого нейросетью материала со стороны компаний дает надежду на возможность применения таких инструментов в профессиональной журналистике в будущем.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас