Exploring the potential of deep learning using earth observation data for cotton yield estimation
Tarih
Yazarlar
Dergi Başlığı
Dergi ISSN
Cilt Başlığı
Yayıncı
Erişim Hakkı
Özet
İklim değişikliğinin tarım ve gıda üretimi üzerindeki önemli etkisi, verim tahmini sorununu giderek daha kritik hale getirmiştir. Verimin doğru bir şekilde tahmin edilmesi, çevresel parametrelere ve bunların karmaşık etkileşimlerine bağlı olması nedeniyle zordur. Bu bağlamda, makine öğrenimi (ML), Dünya Gözlem verileri ile birlikte umut verici bir yaklaşım sunmakta ve bu çevresel faktörlerin verim üzerindeki etkisini anlamaya yardımcı olmaktadır. Bu çalışma, üç farklı makine öğrenimi yöntemi kullanarak pamuk verimini tahmin etmeye odaklanmaktadır: Çok Katmanlı Algılayıcı (MLP), Uzun Kısa Dönem Bellek (LSTM) ve XGBoost. Amaç, pamuk verimi tahminlerinin doğruluğunu artırmaktır. Çalışma, Amerika Birleşik Devletleri (CONUS) kıtasındaki beş yıllık pamuk verimi verilerini kullanarak bu yöntemlerin performansını iki ölçüt kullanarak değerlendirmektedir: R² ve kök ortalama kare hatası (RMSE). Ayrıca, modellerin yorumlanabilirliği Shapley Katkılı Açıklamalar (SHAP) değerleri kullanılarak değerlendirilmiştir.
The significant impact of climate change on agriculture and food production has made the yield estimation problem increasingly critical. Accurately predicting yield is challenging due to its dependence on environmental parameters and their complex interactions. In this context, machine learning (ML), combined with Earth Observation data, offers a promising approach and aids in understanding the impact of these environmental factors on yield. This study focuses on predicting cotton yield using three different ML methods: Multi-layer Perceptron (MLP), Long Short-Term Memory (LSTM), and XGBoost. The goal is to enhance the accuracy of cotton yield predictions. The study evaluates the performance of these methods using five years of cotton yield data across the continental United States (CONUS), employing two metrics: R² and root mean square error (RMSE). Additionally, the interpretability of the models is assessed using Shapley Additive Explanations (SHAP) values.









