
CNET перепроверяет статьи, написанные с помощью ИИ, после получения сообщений о серьезных ошибках
Главный редактор CNET Конни Гульельмо признала, что с ноября прошлого года издание опубликовало около 75 статей на основные финансовые темы, полностью созданных ИИ.
Веб-сайт решил провести эксперимент, чтобы увидеть, действительно ли искусственный интеллект можно уже сейчас использовать в отделах новостей и других информационных службах. Краткий ответ таков: да, но создаваемые им фрагменты должны быть тщательно проверены редактором-человеком.
Если вы посетите любую из статей CNET, написанных нейросетью, вы увидите примечание редактора вверху, в котором говорится: «В настоящее время мы проверяем эту историю на точность. Если мы обнаружим ошибки, мы обновим и выпустим исправления». Издание добавило примечание после того, как получила сообщения о серьезных ошибках по крайней мере в одном из финансовых пояснений написанных машинным способом.
В своем посте Гульельмо рассматривает публикацию под названием «Что такое сложный процент?», подмечая несколько серьезных ошибок. Хотя с тех пор статья была исправлена, в первоначальной версии говорилось, что вы заработаете 10 300 долларов в конце первого года если вы внесете 10 000 долларов на счет под 3 процента годовых начислений. ИИ также допустил ошибки при объяснении принципов работы выплат процентной ставки по кредиту и депозитных сертификатов.
В большинстве случаев при сравнении текстов CNET со статьями, написанными машинами разница заметна даже для неискушенного в обсуждаемой теме посетителя. Статьи написанные ИИ зачастую больше похожи на набор фактов, собранных вместе, чем на связные истории, а достоверность приводимых данных требует от читателя самостоятельной проверки.
—MIT Tech Review.
Тем не менее, не так давно OpenAI выпустила обновление для ChatGPT, призванное повысить точность и достоверность. Вероятно, эксперимент мог продемонстрировать менее плачевные результаты, если бы проводился чуть позже. Наличие постоянной работы над повышением качества генерируемого нейросетью материала со стороны компаний дает надежду на возможность применения таких инструментов в профессиональной журналистике в будущем.
Веб-сайт решил провести эксперимент, чтобы увидеть, действительно ли искусственный интеллект можно уже сейчас использовать в отделах новостей и других информационных службах. Краткий ответ таков: да, но создаваемые им фрагменты должны быть тщательно проверены редактором-человеком.
Если вы посетите любую из статей CNET, написанных нейросетью, вы увидите примечание редактора вверху, в котором говорится: «В настоящее время мы проверяем эту историю на точность. Если мы обнаружим ошибки, мы обновим и выпустим исправления». Издание добавило примечание после того, как получила сообщения о серьезных ошибках по крайней мере в одном из финансовых пояснений написанных машинным способом.
В своем посте Гульельмо рассматривает публикацию под названием «Что такое сложный процент?», подмечая несколько серьезных ошибок. Хотя с тех пор статья была исправлена, в первоначальной версии говорилось, что вы заработаете 10 300 долларов в конце первого года если вы внесете 10 000 долларов на счет под 3 процента годовых начислений. ИИ также допустил ошибки при объяснении принципов работы выплат процентной ставки по кредиту и депозитных сертификатов.
В большинстве случаев при сравнении текстов CNET со статьями, написанными машинами разница заметна даже для неискушенного в обсуждаемой теме посетителя. Статьи написанные ИИ зачастую больше похожи на набор фактов, собранных вместе, чем на связные истории, а достоверность приводимых данных требует от читателя самостоятельной проверки.
Такие модели, как ChatGPT, имеют печально известную тенденцию извергать предвзятый, вредный и фактически неверный контент. Они отлично умеют генерировать стилистически грамотный текст, который читается так, как будто его написал человек. Но у них нет реального понимания того, что они создают, и они с одинаковой высокой степенью уверенности сообщают как факты, так и ложь
—MIT Tech Review.
Тем не менее, не так давно OpenAI выпустила обновление для ChatGPT, призванное повысить точность и достоверность. Вероятно, эксперимент мог продемонстрировать менее плачевные результаты, если бы проводился чуть позже. Наличие постоянной работы над повышением качества генерируемого нейросетью материала со стороны компаний дает надежду на возможность применения таких инструментов в профессиональной журналистике в будущем.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Вот уже 17 лет власти Египта запрещают археологам исследовать легендарный Лабиринт
Что скрывает Египет: библиотеку Атлантиды или доказательства переписывания истории?...

Воскрешение монстра: Colossal возвращает к жизни 3,6-метровую птицу-убийцу моа!
Сможет ли 230-килограммовый гигант из Новой Зеландии выжить среди людей?...

Кости Христа находятся... в США: Тамплиеры бросают вызов Ватикану с помощью ДНК-тестов
Глава ордена: «Саркофаги с останками семьи Иисуса спрятаны от Папы. Мы везли не золото — везли Бога»....

«Богатые тоже плачут»: США открыли «новую эру энергетики» — 800 часов в год без света!
Штаты хвастались ИИ, а электросети «горят» даже от чат-ботов… Россия тем временем запускает термояд....

Антарктида включила режим самоуничтожения? Лед тает, соль растет
Данные со спутников вызвали настоящую панику среди ученых....

Пока все спорят, был ли «Титаник» непотопляемым, вот что обещали за билет в 8700 $ (≈ 220 000 сегодня)
Эксперты рассказали, почему никто не верил в катастрофу....

Такого экологи не ждали: Китай очистил у себя воздух и... подогрел всю планету
Хотели, как лучше, а получилась климатическая бомба....