• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

On PI controllers for updating lagrange multipliers in constrained optimization

Sohrabi, Motahareh 08 1900 (has links)
Constrained optimization is pivotal in deep learning for enforcing predefined operational, ethical, and regulatory constraints in models. This thesis explores iterative gradient-based methods for solving constrained optimization. These methods are preferred for their adaptability in the non-convex, stochastic, and high-dimensional learning landscape of neural networks. Lagrangian methods, which integrate constraints directly into the objective function using Lagrange multipliers, are particularly effective. This formulation facilitates a unified approach to handle both the model's performance and its adherence to constraints simultaneously. However, the min-max problems inherent in Lagrangian frameworks often suffer from unstable oscillatory dynamics. Solving them using traditional gradient descent-ascent methods potentially leads to suboptimal convergence and prolonged training times. To mitigate these issues, this thesis introduces the νPI algorithm, a novel algorithm that integrates Proportional-Integral (PI) control theory into the optimization of Lagrange multipliers. The νPI algorithm is designed to stabilize the optimization process by adjusting the updates to the Lagrange multipliers based on the current and past constraint violations, effectively dampening the oscillations typically observed with gradient descent-ascent methods. Experimental validations across various deep learning applications demonstrate that νPI not only stabilizes the learning process but also accelerates convergence to optimal or near-optimal solutions, outperforming traditional methods in terms of reliability and speed. Through its application, νPI proves to be a robust tool in managing the dynamics of constrained optimization, enhancing the capability of deep learning models to meet stringent external constraints. / L’optimisation contrainte est essentielle dans l’apprentissage profond pour faire respecter les contraintes opérationnelles, éthiques et réglementaires prédéfinies dans les modèles. Cette thèse explore les méthodes itératives basées sur le gradient pour résoudre l’optimisation contrainte. Ces méthodes sont privilégiées pour leur adaptabilité dans le paysage d’apprentissage non convexe, stochastique et de haute dimension des réseaux neuronaux. Les méthodes lagrangiennes, qui intègrent directement les contraintes dans la fonction objectif à l’aide de multiplicateurs de Lagrange, sont particulièrement efficaces. Cette formulation facilite une approche unifiée pour gérer simultanément la performance du modèle et son adhérence aux contraintes. Cependant, les problèmes min-max inhérents aux cadres lagrangiens souffrent souvent de dynamiques oscillatoires instables. Leur résolution à l’aide des méthodes traditionnelles de descente de gradient-ascent peut potentiellement conduire à une convergence sous-optimale et à des temps de formation prolongés. Pour atténuer ces problèmes, cette thèse introduit l’algorithme νPI, un nouvel algorithme qui intègre la théorie de contrôle Proportionnel-Intégral (PI) dans l’optimisation des multiplicateurs de Lagrange. L’algorithme νPI est conçu pour stabiliser le processus d’optimisation en ajustant les mises à jour des multiplicateurs de Lagrange en fonction des violations de contraintes actuelles et passées, atténuant efficacement les oscillations typiquement observées avec les méthodes de descente de gradient-ascent. Les validations expérimentales à travers diverses applications d’apprentissage profond démontrent que νPI stabilise non seulement le processus d’apprentissage mais accélère également la convergence vers des solutions optimales ou quasi-optimales, surpassant les méthodes traditionnelles en termes de fiabilité et de vitesse. Grâce à son application, νPI se révèle être un outil robuste pour gérer les dynamiques de l’optimisation contrainte, améliorant la capacité des modèles d’apprentissage profond à répondre à des contraintes externes strictes.

Page generated in 0.0733 seconds