Department of Computer Science
Permanent URI for this communityhttps://dspace.univ-soukahras.dz/handle/123456789/15
Browse
Item Development of deep learning-based model for the early detection of plant disease, applied to apple trees(2024) Alima SahtalRecognizing fruit leaf diseases effectively is crucial for agro-based economies, as these diseases can drastically reduce the yield and quality of fruits. Manual inspection of infected areas is both challenging and time-consuming, necessitating an automated system for precise disease detection. In this study, we propose a novel deep convolutional neural network (CNN) model designed to identify and diagnose diseases in apple tree leaves, capitalizing on the impressive performance of CNNs in machine vision tasks. Our system, named DrFarm, achieves high accuracy in diagnosing plant diseases from leaf images. However, like standard CNN models, it requires substantial computational resources and a large number of parameters, which limits its suitability for mobile devices like smartphones or tablets. To address this limitation, we developed DrFarm-Lite, a streamlined version of our original model utilizing the depthwise technique. This later not only halves the number of parameters and reduces computational costs but also improves prediction accuracy. We assessed the performance of our models by experimenting with different parameters, such as batch size, dropout rates, and the number of epochs. The proposed models were tested on the PlantVillageAppleColor dataset and they give impressive results. DrFarm achieved a disease-classification accuracy of 97.95%, and DrFarm-Lite reached 99.37%. Furthermore, the precision, recall, F1-score and AUC given by DrFarm are 98%, 98.1%, 98% and 100%,rescpectively, and those yield by DrFarm-Lite are 99.50%, 99.40%, 99.50% and 100%, respectively. Moreover, to prove the robustness of our models, they are tested on another dataset, Potato dataset, which is also gathered from PlantVillage dataset and they give very promising results. The accuracy, precision, recall, F1-score and AUC given by DrFarm are 98.09%, 98.08%, 99.04%, 98.35% and 99.67%,rescpectively, and those yield by DrFarm-Lite are 98.30%, 98.55%, 98.52%, 98.50% and 100%, respectively.These results surpass those of traditional handcrafted-feature-based methods. Additionally, compared to other deep-learning models, our models demonstrated superior accuracy and required less training time. Furthermore, DrFarm-Lite's architecture is optimized for compatibility with mobile devices. The accuracy of these models in disease identification suggests that our deep CNN approach holds significant promise for enhancing the efficiency of disease detection, with potential applications in real-time agricultural systems. ----------------------------------------------------------------------------------------- التعرف الفعّال على أمراض أوراق الفاكهة أمرٌ بالغ الأهمية للاقتصادات القائمة على الزراعة، حيث يمكن لهذه الأمراض أن تقلل بشكل كبير من الإنتاجية وجودة الفاكهة. يعد الفحص اليدوي للمناطق المصابة عمليةً صعبة وتستغرق وقتًا طويلاً، مما يستدعي وجود نظام آلي للكشف الدقيق عن الأمراض. في هذه الدراسة، نقترح نموذجًا جديدًا لشبكة عصبية تلافيفية عميقة (CNN) مصممًا لتحديد وتشخيص أمراض أوراق أشجار التفاح، مستفيدين من الأداء المذهل للشبكات العصبية التلافيفية في مهام رؤية الآلة. نظامنا، الذي يسمىDrFarm، يحقق دقة عالية في تشخيص أمراض النباتات من صور الأوراق. ومع ذلك، مثل النماذج التقليدية للشبكات العصبية التلافيفية، يتطلب موارد حسابية كبيرة وعددًا كبيرًا من المعاملات، مما يحد من ملائمته للأجهزة المحمولة مثل الهواتف الذكية أو الأجهزة اللوحية. لمواجهة هذه المشكلة، قمنا بتطوير DrFarm-Lite، وهو نسخة مكيف ةمن نموذجنا الأصلي يستخدم تقنية depthwise. هذا الأخير لا يقلل فقط عدد المعاملات ويخفض التكاليف الحسابية إلى النصف، بل يحسن أيضًا دقة التنبؤ. قمنا بتقييم أداء نماذجنا من خلال التجارب مع معلمات مختلفة، مثل حجم الدفعة، معدلات الإسقاط، وعدد العصور. تم اختبار النماذج المقترحة على مجموعة بياناتPlantVillageAppleColorوأعطت نتائج مذهلة. حققDrFarmدقة في تصنيف الأمراض بلغت 97.95%، بينما وصلت دقةDrFarm-Lite إلى 99.37%. بالإضافة إلى ذلك، بلغت الدقة والاسترجاع ودرجة F1 وAUC التي حققها 98%DrFarm، 98.1%، 98% و100% على التوالي، وتلك التي حققهاDrFarm-Lite كانت 99.50%، 99.40%، 99.50% و100% على التوالي. علاوة على ذلك، لإثبات متانة نماذجنا، تم اختبارها على مجموعة بيانات أخرى، مجموعة بيانات البطاطس، التي تم جمعها أيضًا من مجموعة بياناتPlantVillage، وحققت نتائج واعدة للغاية. بلغت الدقة والاسترجاع ودرجة F1 وAUC التي حققهاDrFarm 98.09%، 98.08%، 99.04%، 98.35% و99.67% على التوالي، وتلك التي حققهاDrFarm-Lite كانت 98.30%، 98.55%، 98.52%، 98.50% و100% على التوالي. هذه النتائج تفوق تلك التي تحققها الطرق التقليدية المستندة إلى الميزات اليدوية. بالإضافة إلى ذلك، مقارنة بالنماذج الأخرى للتعلم العميق، أظهرت نماذجنا دقة فائقة واحتاجت إلى وقت تدريب أقل. علاوة على ذلك، تم تحسين هيكليةDrFarm-Lite لتكون متوافقة مع الأجهزة المحمولة. دقة هذه النماذج في تحديد الأمراض تشير إلى أن نماذجنا العميقة باستخدام الشبكات العصبية التلافيفية تحمل وعدًا كبيرًا لتعزيز كفاءة الكشف عن الأمراض، مع تطبيقات محتملة في الأنظمة الزراعية في الوقت الحقيقي. ----------------------------------------------------------------------------------- Reconnaître efficacement les maladies des feuilles de fruits est crucial pour les économies basées sur l'agriculture, car ces maladies peuvent réduire considérablement le rendement et la qualité des fruits. L'inspection manuelle des zones infectées est à la fois difficile et chronophage, nécessitant un système automatisé pour une détection précise des maladies. Dans cette étude, nous proposons un nouveau modèle de réseau de neurones convolutifs profonds (CNN) conçu pour identifier et diagnostiquer les maladies des feuilles de pommiers, en capitalisant sur les performances impressionnantes des CNN dans les tâches de vision par ordinateur. Notre système, nommé DrFarm, atteint une grande précision dans le diagnostic des maladies des plantes à partir d'images de feuilles. Cependant, comme les modèles CNN standard, il nécessite des ressources informatiques importantes et un grand nombre de paramètres, ce qui limite son adéquation aux appareils mobiles tels que les smartphones ou les tablettes. Pour pallier cette limitation, nous avons développé DrFarm-Lite, une version allégée de notre modèle original utilisant la technique depthwise. Cette dernière réduit non seulement de moitié le nombre de paramètres et les coûts de calcul, mais améliore également la précision des prédictions. Nous avons évalué les performances de nos modèles en expérimentant avec différents paramètres, tels que la taille des lots, les taux de dropout et le nombre d'époques. Les modèles proposés ont été testés sur le jeu de données PlantVillageAppleColor et donnent des résultats impressionnants. DrFarm a atteint une précision de classification des maladies de 97,95 %, et DrFarm-Lite a atteint 99,37 %. De plus, la précision, le rappel, le score F1 et l'AUC obtenus par DrFarm sont de 98 %, 98,1 %, 98 % et 100 %, respectivement, et ceux obtenus par DrFarm-Lite sont de 99,50 %, 99,40 %, 99,50 % et 100 %, respectivement. Par ailleurs, pour prouver la robustesse de nos modèles, ils ont été testés sur un autre jeu de données, le jeu de données Potato, également recueilli à partir du jeu de données PlantVillage, et donnent des résultats très prometteurs. La précision, la précision, le rappel, le score F1 et l'AUC obtenus par DrFarm sont de 98,09 %, 98,08 %, 99,04 %, 98,35 % et 99,67 %, respectivement, et ceux obtenus par DrFarm-Lite sont de 98,30 %, 98,55 %, 98,52 %, 98,50 % et 100 %, respectivement. Ces résultats surpassent ceux des méthodes traditionnelles basées sur des caractéristiques manuelles. De plus, comparés à d'autres modèles d'apprentissage profond, nos modèles ont démontré une précision supérieure et nécessitaient moins de temps d'entraînement. En outre, l'architecture de DrFarm-Lite est optimisée pour être compatible avec les appareils mobiles. La précision de ces modèles dans l'identification des maladies suggère que notre approche par CNN profond présente un potentiel significatif pour améliorer l'efficacité de la détection des maladies, avec des applications potentielles dans les systèmes agricoles en temps réel.