Ошибки GPT в сельском хозяйстве могут привести к потерям урожая и продовольственному кризису
900

Ошибки GPT в сельском хозяйстве могут привести к потерям урожая и продовольственному кризису

Доктор Асаф Цахор, основатель программы стабильности климата Авирама в Университете Рейхмана, вместе с исследователями из США, Великобритании, Кении, Нигерии и Колумбии, проанализировал надежность информации и профессиональных советов, предоставляемых популярным чат-ботом ChatGPT версии 3.5 и 4.0 африканским фермерам. Исследователи выявили неточности, которые могут привести к сельскохозяйственным ошибкам и потере урожая.


В статье для Nature Food учёные предостерегают от неконтролируемого использования генеративных моделей ИИ в сельском хозяйстве. Они высказывают опасения относительно того, что фермеры могут внедрить ошибочные рекомендации, которые спровоцируют продовольственный кризис.

Сразу после запуска ChatGPT в начале 2023 года доктор Цахор собрал международную команду ученых из сельскохозяйственных исследовательских центров. Уже тогда было замечено, что фермеры в развивающихся странах стали все чаще обращаться к модели искусственного интеллекта за профессиональными советами по агрономии и ботанике.

Предполагалось, что модели ИИ, такие как ChatGPT, способны стать альтернативой сельскохозяйственным консультантам, особенно для небольших фермерских хозяйств в развивающихся странах. Однако, несмотря на оптимизм, последующее исследование выявило ошибки и неточности, которые могут иметь серьезные последствия.

В одном из экспериментов ChatGPT попросили дать рекомендации по борьбе с осенней совкой — вредителем, который нейтрализует защитные механизмы растений и наносит ущерб кукурузным культурам по всему миру. Однако старые модели OpenAI предоставили неоднозначные рекомендации по использованию пестицидов.

В другом случае исследователи обратились к фермерам, выращивающим корнеплод маниоки в Нигерии — стране, являющейся крупнейшим производителем маниоки в Африке. Маниока играет важную роль в продовольственном обеспечении десятков миллионов людей на континенте. В этом случае ChatGPT предложил использовать гербициды, но допустил ошибку в определении времени химической обработки, что могло бы погубить урожай и привести к продовольственным кризисам.

Цахор подчеркивает, что проблема не только в ошибках алгоритма, но и в отсутствии механизмов контроля за использованием больших языковых моделей. В данном случае речь идет о продовольственной безопасности и управлении фермами. Несмотря на все преимущества применения ИИ, его использование сопряжено с серьезными рисками.

В ответ на проблему исследователи предложили модель постепенной разработки и внедрения специализированных генеративных моделей ИИ в сельском хозяйстве. В своей работе они призывают к ответственному подходу в использовании генеративных моделей, включая оценку их пригодности для конкретных обстоятельств и обязательное тестирование перед широким внедрением.

Скептики и критики говорят об ошибках, но мало кто обращает внимание на их последствия для таких уязвимых групп населения, как мелкие землевладельцы, в критически важной для страны сельскохозяйственной области.

Кроме того, остается открытым вопрос о том, кто несет ответственность за обеспечение безопасного использования подобных моделей

— Асаф Цахор.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас