
CNET перепроверяет статьи, написанные с помощью ИИ, после получения сообщений о серьезных ошибках
Главный редактор CNET Конни Гульельмо признала, что с ноября прошлого года издание опубликовало около 75 статей на основные финансовые темы, полностью созданных ИИ.
Веб-сайт решил провести эксперимент, чтобы увидеть, действительно ли искусственный интеллект можно уже сейчас использовать в отделах новостей и других информационных службах. Краткий ответ таков: да, но создаваемые им фрагменты должны быть тщательно проверены редактором-человеком.
Если вы посетите любую из статей CNET, написанных нейросетью, вы увидите примечание редактора вверху, в котором говорится: «В настоящее время мы проверяем эту историю на точность. Если мы обнаружим ошибки, мы обновим и выпустим исправления». Издание добавило примечание после того, как получила сообщения о серьезных ошибках по крайней мере в одном из финансовых пояснений написанных машинным способом.
В своем посте Гульельмо рассматривает публикацию под названием «Что такое сложный процент?», подмечая несколько серьезных ошибок. Хотя с тех пор статья была исправлена, в первоначальной версии говорилось, что вы заработаете 10 300 долларов в конце первого года если вы внесете 10 000 долларов на счет под 3 процента годовых начислений. ИИ также допустил ошибки при объяснении принципов работы выплат процентной ставки по кредиту и депозитных сертификатов.
В большинстве случаев при сравнении текстов CNET со статьями, написанными машинами разница заметна даже для неискушенного в обсуждаемой теме посетителя. Статьи написанные ИИ зачастую больше похожи на набор фактов, собранных вместе, чем на связные истории, а достоверность приводимых данных требует от читателя самостоятельной проверки.
—MIT Tech Review.
Тем не менее, не так давно OpenAI выпустила обновление для ChatGPT, призванное повысить точность и достоверность. Вероятно, эксперимент мог продемонстрировать менее плачевные результаты, если бы проводился чуть позже. Наличие постоянной работы над повышением качества генерируемого нейросетью материала со стороны компаний дает надежду на возможность применения таких инструментов в профессиональной журналистике в будущем.
Веб-сайт решил провести эксперимент, чтобы увидеть, действительно ли искусственный интеллект можно уже сейчас использовать в отделах новостей и других информационных службах. Краткий ответ таков: да, но создаваемые им фрагменты должны быть тщательно проверены редактором-человеком.
Если вы посетите любую из статей CNET, написанных нейросетью, вы увидите примечание редактора вверху, в котором говорится: «В настоящее время мы проверяем эту историю на точность. Если мы обнаружим ошибки, мы обновим и выпустим исправления». Издание добавило примечание после того, как получила сообщения о серьезных ошибках по крайней мере в одном из финансовых пояснений написанных машинным способом.
В своем посте Гульельмо рассматривает публикацию под названием «Что такое сложный процент?», подмечая несколько серьезных ошибок. Хотя с тех пор статья была исправлена, в первоначальной версии говорилось, что вы заработаете 10 300 долларов в конце первого года если вы внесете 10 000 долларов на счет под 3 процента годовых начислений. ИИ также допустил ошибки при объяснении принципов работы выплат процентной ставки по кредиту и депозитных сертификатов.
В большинстве случаев при сравнении текстов CNET со статьями, написанными машинами разница заметна даже для неискушенного в обсуждаемой теме посетителя. Статьи написанные ИИ зачастую больше похожи на набор фактов, собранных вместе, чем на связные истории, а достоверность приводимых данных требует от читателя самостоятельной проверки.
Такие модели, как ChatGPT, имеют печально известную тенденцию извергать предвзятый, вредный и фактически неверный контент. Они отлично умеют генерировать стилистически грамотный текст, который читается так, как будто его написал человек. Но у них нет реального понимания того, что они создают, и они с одинаковой высокой степенью уверенности сообщают как факты, так и ложь
—MIT Tech Review.
Тем не менее, не так давно OpenAI выпустила обновление для ChatGPT, призванное повысить точность и достоверность. Вероятно, эксперимент мог продемонстрировать менее плачевные результаты, если бы проводился чуть позже. Наличие постоянной работы над повышением качества генерируемого нейросетью материала со стороны компаний дает надежду на возможность применения таких инструментов в профессиональной журналистике в будущем.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

На 3300-летнем египетском обелиске, стоящем в Париже, обнаружены… тайные послания
Увидеть их могли лишь немногие избранные, причем только в определенное время года....

В Индонезии хотят стерилизовать самых бедных мужчин
«Денег нет? Тогда не размножайся!» — говорит один из тамошних губернаторов....

Оказалось, что раны у людей заживают в три раза медленнее, чем у шимпанзе
Ученые пытаются разобраться в этом парадоксе. И вот что они узнали....

Веста, второй по величине астероид в Солнечной системе, может быть частью исчезнувшей планеты
Загадка малой планеты разделила астрономов....