• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 76
  • 8
  • Tagged with
  • 199
  • 116
  • 94
  • 65
  • 38
  • 37
  • 35
  • 34
  • 27
  • 25
  • 25
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Inclusions Monotones en Dualité et Applications

Vu, Bang Cong 15 April 2013 (has links) (PDF)
Le but de cette thèse est de développer de nouvelles techniques d'éclatement d'opérateurs multivoques pour résoudre des problèmes d'inclusion monotone structurés dans des espaces hilbertiens. La dualité au sens des inclusions monotones tient une place essentielle dans ce travail et nous permet d'obtenir des décompositions qui ne seraient pas disponibles via une approche purement primale. Nous développons plusieurs algorithmes à métrique fixe ou variable dans un cadre unifié, et montrons en particulier que de nombreuses méthodes existantes sont des cas particuliers de la méthode explicite--implicite formulée dans des espaces produits adéquats. Les méthodes proposées sont appliquées aux problèmes d'inéquations variationnelles, aux problèmes de minimisation, aux problèmes inverses, aux problèmes de traitement du signal, aux problèmes d'admissibilité et aux problèmes de meilleure approximation. Dans un second temps, nous introduisons une notion de suite quasi-fejérienne à métrique variable et analysons ses propriétés asymptotiques. Ces résultats nous permettent d'obtenir des extensions de méthodes d'éclatement aux problèmes où la métrique varie à chaque itération.
162

Approximation et résolution de problèmes d'équilibre, de point fixe et d'inclusion monotone

Hirstoaga, Sever Adrian 28 September 2006 (has links) (PDF)
Cette thèse est consacrée à la résolution de trois types de problèmes fondamentaux qui apparaissent en analyse fonctionnelle hilbertienne non-linéaire et dans ses applications : les problèmes d'équilibre pour les bifonctions monotones, les problèmes de point fixe pour les contractions, et les problèmes d'inclusion pour les opérateurs monotones. Notre objectif est d'élaborer de nouvelles méthodes d'approximation et de construction de solutions pour ces problèmes et d'étudier leur comportement asymptotique. Dans un premier temps, nous proposons de nouvelles perturbations visqueuses et visco-pénalisées de ces problèmes, et étudions le comportement asymptotique des courbes d'approximation associées quand la perturbation devient évanescente. Nous étudions ensuite les propriétés de divers systèmes dynamiques discrets et continus associés à ces courbes. Cette étude débouche en particulier sur de nouveaux algorithmes, dont la convergence est établie. Des applications numériques à des problèmes de restauration en traitement de l'image sont fournies pour illustrer la mise en œuvre et les performances de certains des algorithmes proposés.
163

Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural level

Popov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.
164

Nouvelles méthodes de calcul pour la prédiction des interactions protéine-protéine au niveau structural / Novel computational methods to predict protein-protein interactions on the structural level

Popov, Petr 28 January 2015 (has links)
Le docking moléculaire est une méthode permettant de prédire l'orientation d'une molécule donnée relativement à une autre lorsque celles-ci forment un complexe. Le premier algorithme de docking moléculaire a vu jour en 1990 afin de trouver de nouveaux candidats face à la protéase du VIH-1. Depuis, l'utilisation de protocoles de docking est devenue une pratique standard dans le domaine de la conception de nouveaux médicaments. Typiquement, un protocole de docking comporte plusieurs phases. Il requiert l'échantillonnage exhaustif du site d'interaction où les éléments impliqués sont considérées rigides. Des algorithmes de clustering sont utilisés afin de regrouper les candidats à l'appariement similaires. Des méthodes d'affinage sont appliquées pour prendre en compte la flexibilité au sein complexe moléculaire et afin d'éliminer de possibles artefacts de docking. Enfin, des algorithmes d'évaluation sont utilisés pour sélectionner les meilleurs candidats pour le docking. Cette thèse présente de nouveaux algorithmes de protocoles de docking qui facilitent la prédiction des structures de complexes protéinaires, une des cibles les plus importantes parmi les cibles visées par les méthodes de conception de médicaments. Une première contribution concerne l‘algorithme Docktrina qui permet de prédire les conformations de trimères protéinaires triangulaires. Celui-ci prend en entrée des prédictions de contacts paire-à-paire à partir d'hypothèse de corps rigides. Ensuite toutes les combinaisons possibles de paires de monomères sont évalués à l'aide d'un test de distance RMSD efficace. Cette méthode à la fois rapide et efficace améliore l'état de l'art sur les protéines trimères. Deuxièmement, nous présentons RigidRMSD une librairie C++ qui évalue en temps constant les distances RMSD entre conformations moléculaires correspondant à des transformations rigides. Cette librairie est en pratique utile lors du clustering de positions de docking, conduisant à des temps de calcul améliorés d'un facteur dix, comparé aux temps de calcul des algorithmes standards. Une troisième contribution concerne KSENIA, une fonction d'évaluation à base de connaissance pour l'étude des interactions protéine-protéine. Le problème de la reconstruction de fonction d'évaluation est alors formulé et résolu comme un problème d'optimisation convexe. Quatrièmement, CARBON, un nouvel algorithme pour l'affinage des candidats au docking basés sur des modèles corps-rigides est proposé. Le problème d'optimisation de corps-rigides est vu comme le calcul de trajectoires quasi-statiques de corps rigides influencés par la fonction énergie. CARBON fonctionne aussi bien avec un champ de force classique qu'avec une fonction d'évaluation à base de connaissance. CARBON est aussi utile pour l'affinage de complexes moléculaires qui comportent des clashes stériques modérés à importants. Finalement, une nouvelle méthode permet d'estimer les capacités de prédiction des fonctions d'évaluation. Celle-ci permet d‘évaluer de façon rigoureuse la performance de la fonction d'évaluation concernée sur des benchmarks de complexes moléculaires. La méthode manipule la distribution des scores attribués et non pas directement les scores de conformations particulières, ce qui la rend avantageuse au regard des critères standard basés sur le score le plus élevé. Les méthodes décrites au sein de la thèse sont testées et validées sur différents benchmarks protéines-protéines. Les algorithmes implémentés ont été utilisés avec succès pour la compétition CAPRI concernant la prédiction de complexes protéine-protéine. La méthodologie développée peut facilement être adaptée pour de la reconnaissance d'autres types d'interactions moléculaires impliquant par exemple des ligands, de l'ARN… Les implémentations en C++ des différents algorithmes présentés seront mises à disposition comme SAMSON Elements de la plateforme logicielle SAMSON sur http://www.samson-connect.net ou sur http://nano-d.inrialpes.fr/software. / Molecular docking is a method that predicts orientation of one molecule with respect to another one when forming a complex. The first computational method of molecular docking was applied to find new candidates against HIV-1 protease in 1990. Since then, using of docking pipelines has become a standard practice in drug discovery. Typically, a docking protocol comprises different phases. The exhaustive sampling of the binding site upon rigid-body approximation of the docking subunits is required. Clustering algorithms are used to group similar binding candidates. Refinement methods are applied to take into account flexibility of the molecular complex and to eliminate possible docking artefacts. Finally, scoring algorithms are employed to select the best binding candidates. The current thesis presents novel algorithms of docking protocols that facilitate structure prediction of protein complexes, which belong to one of the most important target classes in the structure-based drug design. First, DockTrina - a new algorithm to predict conformations of triangular protein trimers (i.e. trimers with pair-wise contacts between all three pairs of proteins) is presented. The method takes as input pair-wise contact predictions from a rigid-body docking program. It then scans and scores all possible combinations of pairs of monomers using a very fast root mean square deviation (RMSD) test. Being fast and efficient, DockTrina outperforms state-of-the-art computational methods dedicated to predict structure of protein oligomers on the collected benchmark of protein trimers. Second, RigidRMSD - a C++ library that in constant time computes RMSDs between molecular poses corresponding to rigid-body transformations is presented. The library is practically useful for clustering docking poses, resulting in ten times speed up compared to standard RMSD-based clustering algorithms. Third, KSENIA - a novel knowledge-based scoring function for protein-protein interactions is developed. The problem of scoring function reconstruction is formulated and solved as a convex optimization problem. As a result, KSENIA is a smooth function and, thus, is suitable for the gradient-base refinement of molecular structures. Remarkably, it is shown that native interfaces of protein complexes provide sufficient information to reconstruct a well-discriminative scoring function. Fourth, CARBON - a new algorithm for the rigid-body refinement of docking candidates is proposed. The rigid-body optimization problem is viewed as the calculation of quasi-static trajectories of rigid bodies influenced by the energy function. To circumvent the typical problem of incorrect stepsizes for rotation and translation movements of molecular complexes, the concept of controlled advancement is introduced. CARBON works well both in combination with a classical force-field and a knowledge-based scoring function. CARBON is also suitable for refinement of molecular complexes with moderate and large steric clashes between its subunits. Finally, a novel method to evaluate prediction capability of scoring functions is introduced. It allows to rigorously assess the performance of the scoring function of interest on benchmarks of molecular complexes. The method manipulates with the score distributions rather than with scores of particular conformations, which makes it advantageous compared to the standard hit-rate criteria. The methods described in the thesis are tested and validated on various protein-protein benchmarks. The implemented algorithms are successfully used in the CAPRI contest for structure prediction of protein-protein complexes. The developed methodology can be easily adapted to the recognition of other types of molecular interactions, involving ligands, polysaccharides, RNAs, etc. The C++ versions of the presented algorithms will be made available as SAMSON Elements for the SAMSON software platform at http://www.samson-connect.net or at http://nano-d.inrialpes.fr/software.
165

Opérateurs d’inf-convolution et inégalités de transport sur les graphes / Infimum-convolution operators and transport inequalities on discrete spaces

Shu, Yan 07 July 2016 (has links)
Dans cette thèse, nous nous intéressons à différents opérateurs d'inf-convolutions et à leurs applications à une classe d'inégalités de transport générales, plus spécifiquement sur les graphes. Notre objet de recherche s'inscrit donc dans les théories du transport de mesure et de l'analyse fonctionnelle. En introduisant une notion de gradient adapté au cadre discret (et plus généralement à tout espace métrique dont les boules sont compactes), nous prouvons que certains opérateurs d'inf-convolution sont solutions d'une inéquation d'Hamilton Jacobi sur les graphes. Ce résultat nous permet d'étendre au cadre discret un théorème classique de Bobkov, Gentil et Ledoux. Plus précisément nous montrons que des inégalités de transport faible (adaptées au cadre discret) sont équivalentes, sur un graphe, à l'hypercontractivité des opérateurs d'inf-convolutions. On en déduit plusieurs résultats concernant différentes inégalités fonctionnelles, dont celle de Sobolev logarithmique et de transport faible. Nous étudions par ailleurs les propriétés générales de différents opérateurs d'inf-convolutions, incluant le précédent, mais aussi un opérateur relié à un modèle issu de la physique (et au phénomène de grande déviation), toujours sur les graphes (dérivabilités, convexité, points extremum etc.). Dans un deuxième temps, nous nous intéressons aux liens entre différentes notions de courbure de Ricci sur les graphes -- proposées récemment par plusieurs auteurs -- et les inégalités fonctionnelles de type transport-entropie, ou transport-information associées à une chaîne de Markov. Nous obtenons également une borne supérieure sur le diamètre d'un graphe dont la courbure, en un certain sens, est minorée, un résultat à la Bonnet-Myers. Enfin, en nous restreignant au cas de la dimension 1, sur la droite réelle, nous obtenons une caractérisation d'une inégalité de transport faible et de l'inégalité de Sobolev logarithmique restreinte aux fonctions convexes. Ces résultats utilisent des propriétés géométriques liés à l'ordre convexe. / In this thesis, we interest in different inf-convolution operators and their applications to a class of general transportation inequalities, more specifically in the graphs. Therefore, our research topic fits in the theories of transportation and functional analysis. By introducing a gradient notion adapting to a discrete space (more generally to all space in which all closed balls are compact), we prove that some inf-convolution operators are solutions of a Hamilton-Jacobi's inequation. This result allows us to extend a classical theorem from Bobkov, Gentil and Ledoux. More precisely, we prove that, in a graph, some weak transport inequalities are equivalent to the hypercontractivity of inf-convolution operators. Thanks to this result, we deduce some properties concerning different functional inequalities, including Log-Sobolev inequalities and weak-transport inequalities. Besides, we study some general properties (differentiability, convexity, extreme points etc.) of different inf-convolution operators, including the one before, but also an operator related to a physical model (and to a large deviation phenomenon). We stay always in a graph. Secondly, we interest in connections between different notions of discrete Ricci curvature on the graphs which are proposed by several authors in the recent years, and functional inequalities of type transport-entropy, or transport-information related to a Markov chain. We also obtain an extension of Bonnet-Myers' result: an upper bound on the diameter of a graph of which the curvature is floored in some ways. Finally, restricting in the real line, we obtains a characterisation of a weak transport inequality and a log-Sobolev inequality restricted to convex functions. These results are from the geometrical properties related to the convex ordering.
166

Stabilité des chocs non classiques pour des lois de conservation non convexes

Kardhashi, Eva 09 1900 (has links)
No description available.
167

Commande linéaire à paramètres variants des robots manipulateurs flexibles / Linear Parameter Varying (LPV) control of flexible robotic manipulators

Halalchi, Houssem 13 September 2012 (has links)
Les robots flexibles sont de plus en plus utilisés dans les applications pratiques. Ces robots sont caractérisés par une conception mécanique légère, réduisant ainsi leur encombrement, leur consommation d’énergie et améliorant leur sécurité. Cependant, la présence de vibrations transitoires rend difficile un contrôle précis de la trajectoire de ces systèmes. Cette thèse est précisément consacrée à l’asservissement en position des manipulateurs flexibles dans les espaces articulaire et opérationnel. Des méthodes de commande avancées, basées sur des outils de la commande robuste et de l’optimisation convexe, ont été proposées. Ces méthodes font en particulier appel à la théorie des systèmes linéaires à paramètres variants (LPV) et aux inégalités matricielles linéaires (LMI). En comparaison avec des lois de commande non-linéaires disponibles dans la littérature, les lois de commande LPV proposées permettent de considérerdes contraintes de performance et de robustesse de manière simple et systématique. L’accent est porté dans notre travail sur la gestion appropriée de la dépendance paramétrique du modèle LPV, en particulier les dépendances polynomiale et rationnelle. Des simulations numériques effectuées dans des conditions réalistes, ont permis d’observer une meilleure robustesse de la commande LPV par rapport à la commande non-linéaire par inversion de modèle face aux bruits de mesure, aux excitations de haute fréquence et aux incertitudes de modèle. / Flexible robots are becoming more and more common in practical applications. This type of robots is characterized by the use of lightweight materials, which allows reducing their size, their power consumption and improves their safety. However, an accurate trajectory tracking of these systems is difficult to achieve because of the transient vibrations they undergo. This PhD thesis work is particularly devoted to the position control of flexible robotic manipulators at the joint and end-effector levels. Advanced control methods, based on some tools of the robust control theory and convex optimization, have been proposed. These methods are based on the theory of Linear Parameter Varying (LPV) systems and Linear Matrix Inequalities (LMI). Compared to some nonlinear control laws available in the literature that involve model inversion, theproposed LPV control laws make it possible to consider performance and robustness constraints in a simple and systematic manner. Our work particularly emphasizes on the appropriate management of the parametric dependence of the LPV model, especially the polynomial and rational dependences. Numerical simulations carried out in realistic operating conditions have shown a better robustness of the LPV control compared to the inversion-based nonlinear control withrespect to measurement noise, high frequency inputs and model uncertainties.
168

Reconstruction adaptative des signaux par optimisation convexe / Adaptive signals recovery by convex optimization

Ostrovskii, Dmitrii 11 January 2018 (has links)
Nous considérons le problème de débruitage d'un signal ou d'une image observés dans le bruit gaussien. Dans ce problème les estimateurs linéaires classiques sont quasi-optimaux quand l'ensemble des signaux, qui doit être convexe et compact, est connu a priori. Si cet ensemble n'est pas spécifié, la conception d'un estimateur adaptatif qui ``ne connait pas'' la structure cachée du signal reste un problème difficile. Dans cette thèse, nous étudions une nouvelle famille d'estimateurs des signaux satisfaisant certains propriétés d'invariance dans le temps. De tels signaux sont caractérisés par leur structure harmonique, qui est généralement inconnu dans la pratique.Nous proposons des nouveaux estimateurs capables d'exploiter la structure harmonique inconnue du signal è reconstruire. Nous démontrons que ces estimateurs obéissent aux divers "inégalités d'oracle," et nous proposons une implémentation algorithmique numériquement efficace de ces estimateurs basée sur des algorithmes d'optimisation de "premier ordre." Nous évaluons ces estimateurs sur des données synthétiques et sur des signaux et images réelles. / We consider the problem of denoising a signal observed in Gaussian noise.In this problem, classical linear estimators are quasi-optimal provided that the set of possible signals is convex, compact, and known a priori. However, when the set is unspecified, designing an estimator which does not ``know'' the underlying structure of a signal yet has favorable theoretical guarantees of statistical performance remains a challenging problem. In this thesis, we study a new family of estimators for statistical recovery of signals satisfying certain time-invariance properties. Such signals are characterized by their harmonic structure, which is usually unknown in practice. We propose new estimators which are capable to exploit the unknown harmonic structure of a signal to reconstruct. We demonstrate that these estimators admit theoretical performance guarantees, in the form of oracle inequalities, in a variety of settings.We provide efficient algorithmic implementations of these estimators via first-order optimization algorithm with non-Euclidean geometry, and evaluate them on synthetic data, as well as some real-world signals and images.
169

Développement d’un algorithme de faisceau non convexe avec contrôle de proximité pour l’optimisation de lois de commande structurées / Development of a non convex bundle method with proximity control for the optimization of structured control laws

Gabarrou, Marion 26 November 2012 (has links)
Cette thèse développe une méthode de faisceau non convexe pour la minimisation de fonctions localement lipschitziennes lower C1 puis l’applique à des problèmes de synthèse de lois de commande structurées issus de l’industrie aéronautique. Ici loi de commande structurée fait référence à une architecture de contrôle, qui se compose d’éléments comme les PIDs, combinés avec des filtres variés, et comprenant beaucoup moins de paramètres de réglage qu’un contrôleur d’ordre plein. Ce type de problème peut se formuler dans le cadre théorique et général de la programmation non convexe et non lisse. Parmi les techniques numériques efficaces pour résoudre ces problèmes non lisses, nous avons dans ce travail, opté pour les méthodes de faisceau, convenablement étendues au cas non convexe. Celles-ci utilisent un oracle qui, en chaque itéré x, retourne la valeur de la fonction et un sous-gradient de Clarke arbitraire. Afin de générer un pas de descente satisfaisant à partir de l’itéré sérieux courant, ces techniques stockent et accumulent de l’information, dans ce que l’on appelle le faisceau, obtenu à partir d’évaluations successives de l’oracle à chaque pas d’essai insatisfaisant. Dans cette thèse, on propose de construire le faisceau en décalant vers le bas une tangente de l’objectif en un pas d’essai ne constituant pas un pas de descente satisfaisant. Le décalage est indispensable dans le cas non convexe pour préserver la consistance, on dit encore l’exactitude, du modèle vis à vis de l’objectif. L’algorithme développé est validé sur un problème de synthèse conjointe du pilote automatique et de la loi des commandes de vol d’un avion civil en un point de vol donné et sur un problème de synthèse de loi de commande par séquencement de gain pour le contrôle longitudinal dans une enveloppe de vol. / This thesis develops a non convex bundle method for the minimization of lower C1 locally Lipschitz functions which it then applies to the synthesis of structured control laws for problems arising in aerospace control. Here a structured control law refers to a control architecture preferred by practitioners, which consist of elements like PIDs, combined with various filters, featuring significantly less tunable parameters than a full-order controller. This type of problem can be formulated under the theoretical and general framework of non convex and non smooth programming. Among the efficient numerical techniques to solve such non smooth problems, we have in this work opted for bundle methods, suitably extended to address non-convex optimization programs. Bundle methods use oracles which at every iterate x return the function value and one unspecified Clarke subgradient. In order to generate descent steps away from a current serious iterate, these techniques hinge on storing and accumulating information, called the bundle, obtained from successive evaluations of the oracle along the unsuccessful trial steps. In this thesis, we propose to build the bundle by shifting down a tangent of the objective at a trial step which is not a satisfactory descent step. The shift is essential in the non convex case in order to preserve the consistency, named also the exactitude, of the model with regard to the objective. The developed algorithm is validated on a synthesis problem combining the automatic pilot and the flight control law of a civil aircraft at a given flying point ; and a gain scheduled control law synthesis for the longitudinal control in a flight envelope.
170

Modeling spatial and temporal variabilities in hyperspectral image unmixing / Modélisation de la variabilité spectrale pour le démélange d’images hyperspectral

Thouvenin, Pierre-Antoine 17 October 2017 (has links)
Acquises dans plusieurs centaines de bandes spectrales contiguës, les images hyperspectrales permettent d'analyser finement la composition d'une scène observée. En raison de la résolution spatiale limitée des capteurs utilisés, le spectre d'un pixel d'une image hyperspectrale résulte de la composition de plusieurs signatures associées à des matériaux distincts. À ce titre, le démélange d'images hyperspectrales vise à estimer les signatures des différents matériaux observés ainsi que leur proportion dans chacun des pixels de l'image. Pour cette analyse, il est d'usage de considérer qu'une signature spectrale unique permet de décrire un matériau donné, ce qui est généralement intrinsèque au modèle de mélange choisi. Toutefois, la signature d'un matériau présente en pratique une variabilité spectrale qui peut être significative d'une image à une autre, voire au sein d'une même image. De nombreux paramètres peuvent en être cause, tels que les conditions d'acquisitions (e.g., conditions d'illumination locales), la déclivité de la scène observée ou des interactions complexes entre la lumière incidente et les éléments observés. À défaut d'être prises en compte, ces sources de variabilité perturbent fortement les signatures extraites, tant en termes d'amplitude que de forme. De ce fait, des erreurs d'estimation peuvent apparaître, qui sont d'autant plus importantes dans le cas de procédures de démélange non-supervisées. Le but de cette thèse consiste ainsi à proposer de nouvelles méthodes de démélange pour prendre en compte efficacement ce phénomène. Nous introduisons dans un premier temps un modèle de démélange original visant à prendre explicitement en compte la variabilité spatiale des spectres purs. Les paramètres de ce modèle sont estimés à l'aide d'un algorithme d'optimisation sous contraintes. Toutefois, ce modèle s'avère sensible à la présence de variations spectrales abruptes, telles que causées par la présence de données aberrantes ou l'apparition d'un nouveau matériau lors de l'analyse d'images hyperspectrales multi-temporelles. Pour pallier ce problème, nous introduisons une procédure de démélange robuste adaptée à l'analyse d'images multi-temporelles de taille modérée. Compte tenu de la dimension importante des données étudiées, notamment dans le cas d'images multi-temporelles, nous avons par ailleurs étudié une stratégie d'estimation en ligne des différents paramètres du modèle de mélange proposé. Enfin, ce travail se conclut par l'étude d'une procédure d'estimation distribuée asynchrone, adaptée au démélange d'un grand nombre d'images hyperspectrales acquises sur une même scène à différents instants. / Acquired in hundreds of contiguous spectral bands, hyperspectral (HS) images have received an increasing interest due to the significant spectral information they convey about the materials present in a given scene. However, the limited spatial resolution of hyperspectral sensors implies that the observations are mixtures of multiple signatures corresponding to distinct materials. Hyperspectral unmixing is aimed at identifying the reference spectral signatures composing the data -- referred to as endmembers -- and their relative proportion in each pixel according to a predefined mixture model. In this context, a given material is commonly assumed to be represented by a single spectral signature. This assumption shows a first limitation, since endmembers may vary locally within a single image, or from an image to another due to varying acquisition conditions, such as declivity and possibly complex interactions between the incident light and the observed materials. Unless properly accounted for, spectral variability can have a significant impact on the shape and the amplitude of the acquired signatures, thus inducing possibly significant estimation errors during the unmixing process. A second limitation results from the significant size of HS data, which may preclude the use of batch estimation procedures commonly used in the literature, i.e., techniques exploiting all the available data at once. Such computational considerations notably become prominent to characterize endmember variability in multi-temporal HS (MTHS) images, i.e., sequences of HS images acquired over the same area at different time instants. The main objective of this thesis consists in introducing new models and unmixing procedures to account for spatial and temporal endmember variability. Endmember variability is addressed by considering an explicit variability model reminiscent of the total least squares problem, and later extended to account for time-varying signatures. The variability is first estimated using an unsupervised deterministic optimization procedure based on the Alternating Direction Method of Multipliers (ADMM). Given the sensitivity of this approach to abrupt spectral variations, a robust model formulated within a Bayesian framework is introduced. This formulation enables smooth spectral variations to be described in terms of spectral variability, and abrupt changes in terms of outliers. Finally, the computational restrictions induced by the size of the data is tackled by an online estimation algorithm. This work further investigates an asynchronous distributed estimation procedure to estimate the parameters of the proposed models.

Page generated in 0.0385 seconds