Un nouvel algorithme hybride du gradient conjugué pour les modèles d'optimisation et ses applications à l'analyse de regression.
| dc.contributor.author | Mallek BERREDJEM | |
| dc.date.accessioned | 2024-07-10T10:07:35Z | |
| dc.date.available | 2024-07-10T10:07:35Z | |
| dc.date.issued | 2024 | |
| dc.description.abstract | Consider the following unconstrained optimization problem : (P):{min f(x),x∈Rⁿ} where f : Rⁿ! R is continuous and differentiable. In this memory we are interested in a new conjugate gradient method is proposed for the problems of large size optimization without constraint. This method comprises the three methods of non linear conjugate gradient existing, producing a descent direction at each iteration and globally converges provided the linear search meets the requirements of Wolfe. Numerical experiments are performed to test the effectiveness of the new method, which confirms the potential of this method. ------------------------------------------------------------------------------------------ لتكن f : Rⁿ →Rدالة قابلة للاشتقاق بشكل مستمر نسعى لحل مشكلة التحسين غير المقيد التالية : (P):{min f(x),x∈Rⁿ} نحن مهتمون في هذه المذكرة بطريقة جديدة للتدرج المترافق لمسائل التحسين غير المقيد ذات الحجم الكبير.تتضمن هذه الطريقة ثلاث طرق موجودة بالفعل للتدرج المترافق غير الخطي مما ينتج عنه اتجاه نزول في كل تكرار و يتقارب بشكل مطلق بشرط أن يلبي البحث الخطي شروط وولف .تجرى التجارب العددية لاختبار فعالية الطريقة الجديدة. ------------------------------------------------------------------------------------------ Soit f : Rⁿ !R ne fonction continûment différentiable. On cherche à résoudre le problème d'optimisation sans contraintes suivant : (P):{min f(x),x∈Rⁿ} On s'intéresse dans ce mémoire à une nouvelle méthode du gradient conjugué qui est proposé pour les problèmes de grande taille d’optimisation sans contrainte. Cette méthode comprend les trois méthodes du gradient conjugué non linéaires déjà existantes, ce qui produit une direction de descente à chaque itération et converge globalement à condition que la recherche linéaire satisfaite aux conditions de Wolfe. Les expériences numériques sont effectués pour tester l’efficacité de la nouvelle méthode, ce qui confirmé les potentiel de cette méthode. | |
| dc.identifier.uri | https://dspace.univ-soukahras.dz/handle/123456789/3899 | |
| dc.language.iso | fr | |
| dc.title | Un nouvel algorithme hybride du gradient conjugué pour les modèles d'optimisation et ses applications à l'analyse de regression. | |
| dc.type | Thesis |