Department of Mathematics
Permanent URI for this communityhttps://dspace.univ-soukahras.dz/handle/123456789/40
Browse
Item The influence of the accuracy of the linear search procedure on the performance of conjugate gradient algorithms(2024) Meansri KhaoulaAbstract This thesis focuses on three categories of conjugate gradient algorithms. The first category is based on the addition of a third term in the MDY conjugate gradient direction using the three-term conjugate gradient approach.The second category adopts the spectral conjugate gradient algorithm, providing spectral improvement with the integration of a third term in the MDY conjugate gradient direction. Three different methods are used to determine this term, and the last category depends on making a modification to the MDY conjugate gradient method.The main objective of these modifications is to expedite the descent direction and improve the convergence properties of the algorithms by applying Wolfe line-search conditions. The numerical results from our experiments provide strong evidence of the effectiveness of our modified three-term algorithms. -------------- Résumé Cette thèse se concentre sur trois catégories d’algorithmes de gradient conjugué. La première catégorie est basée sur l’ajout d’un troisième terme dans la direction du gradient conjugué MDY en utilisant l’approche du gradient conjugué à trois termes. La deuxième catégorie adopte l’algorithme du gradient conjugué spectral, fournissant une amélioration spectrale avec l’intégration d’un troisième terme dans la direction du gradient conjugué MDY. Trois méthodes différentes sont utilisées pour déterminer ce terme, et la dernière catégorie dépend d’une modification de la méthode du gradient conjugué MDY. L’objectif principal de ces modifications est d’accélérer la direction de descente et d’améliorer les propriétés de convergence des algorithmes en appliquant les conditions de recherche de Wolfe. Les résultats numériques de nos expériences fournissent des preuves solides de l’efficacité de nos algorithmes à trois termes modifiés. -------------- ملخص يركز هذا البحث على ثلاث فئات من خوارزميات التدرج المترافق. الفئة الأولى تعتمد على خوارزمية التدرج المترافق ثلاثي الحدود مما يشمل دمج حد ثالث في اتجاه التدرج المترافق ل MDY. الفئة الثانية تعتمد على خوارزمية التدرج الطيفي المترافق حيث تكون ت صحيحا طيفيا معززا مع دمج حد ثالث في اتجاه التدرج المترافق MDY، وتم تحديد معلماتها بثلاث طرق مختلفة، و الفئة الأخيرة تعتمد على إجراء تعديل على طريقة التدرج المترافق MDY. الهدف الرئيسي من هذه التعديلات هو تسريع اتجاه الهبوط وتحسين خصائص التقارب للخوارزميات من خلال تطبيق شروط بحث خط وولف. تقدم النتائج العددية لتجاربنا دليلا قويا على فعالية خوارزمياتنا المعدلة ثلاثية الحدود.Item Using conjugate gradient methods for regression function(2024) Mehamdia Abd Elhamidملخص تساهم طرق التدرج المترافق غيرالخطية بشكل كبير في حل مسائل الأمثلة الغير مقيدة، خاصة في المشاكل ذات الأبعاد الكبيرة. في هذه الأطروحة، قمنا بتطوير بعض طرق التدرج المترافق، وكذلك دراسة التقارب الشامل وخاصية الانحدار الكافي لهذه الطرق الجديدة، وذلك في حالة استخدام الشروط القوية لوولف. تظهر النتائج العددية أن الطرق المقترحة فعالة وقوية في تقليل بعض مشاكل الأمثلة الغير مقيدة. علاوة على ذلك، تم توسيع الخوارزميات المقترحة لحل مشكلات الإحصاء اللامعلمي، وتحديداً لحل مشكلة دالة الوضع ومشكلة دالة الإنحدار الشرطي. --------------- Résumé Les méthodes de gradient conjugué non linéaires représentent une contribution majeure à la résolution de problèmes d’optimisation sans contraintes, notamment de grande taille. Dans cette thèse, nous développons certains paramètres de gradient conjugués, ainsi qu’étudier la convergence globale et la propriété de descente suffisante de ces nouvelles méthodes, c’est le cas de l’utilisation de la recherche lineaire de Wolfe forte. Les résultats numériques montrent que les méthodes proposées sont efficaces et robustes pour minimiser certains problèmes d’optimisation sans contrainte. De plus, les algorithmes proposés ont été étendus pour résoudre le problème des statistiques non paramétriques, en particulier pour résoudre le problème de la fonction de mode et le problème de la fonction de régression du modèle conditionnel. ------------------- Abstract Nonlinear conjugate gradient techniques make a significant contribution to addressing unconstrained optimization problems, especially in cases with significant dimensions. In this thesis, we develop some conjugate gradient parameters, as well as study the global convergence and sufficient descent property of these new methods, this is in the case of using the strong Wolfe line search (SWLS). Numerical results show that the proposed methods are effective and robust in minimizing some unconstrained optimization problems. Furthermore, the proposed algorithms were extended to solve the problem of nonparametric statistics, specifically, to solve the problem of mode function and the problem of conditional model regression function.