• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 259
  • 161
  • 33
  • 22
  • 3
  • 2
  • Tagged with
  • 476
  • 235
  • 167
  • 106
  • 104
  • 103
  • 102
  • 73
  • 66
  • 59
  • 54
  • 47
  • 45
  • 45
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Inférence statistique pour l'optimisation stochastique : applications en finance et en gestion de production

Guigues, Vincent 30 June 2005 (has links) (PDF)
L'objet de cette thèse est de modéliser et analyser des problèmes d'optimisation stochastique et de proposer des méthodes de résolution pour ces problèmes.<br />Dans une première partie, on considère des problèmes d'allocation d'actifs se formulant comme des problèmes d'optimisation convexes. La fonction coût et les contraintes dépendent d'un paramètre multidimensionnel inconnu. On montre, sous l'hypothèse d'homogénéité temporelle locale pour le processus des rendements, que l'on peut construire des approximations du problème original se servant d'une estimation adaptative du paramètre inconnu. La précision du problème approché est fournie. Cette méthode a été appliquée sur les problèmes VaR et de Markowitz et l'on présente les résultats de simulations numériques sur des données réelles et simulées. On propose ensuite une analyse de sensibilité pour une classe de problèmes quadratiques dont on déduit une analyse de sensibilité du problème de Markowitz. Pour ce problème, on propose alors une calibration stable de la matrice de covariance et des contreparties robustes. <br />La deuxième partie porte sur l'analyse de problèmes de gestion de production et en particulier le problème de gestion de production électrique. Nous proposons de nouvelles modélisations pour ce problème et des moyens pour les mettre en oeuvre. L'un des modèles conduit à une résolution par décomposition par les prix. Dans ce cas, on montre comment calculer la fonction duale par programmation dynamique. On explique enfin comment dans chaque cas, une stratégie de gestion est mise en place. Les différentes méthodes de gestion sont comparées sur des données réelles et simulées.
92

Quelques résultats sur la commande du chemostat

Robledo, Gonzalo 02 March 2006 (has links) (PDF)
Cette thèse s'attache à la commande de certains systèmes écologiques en chemostat (appareil de culture de micro--organismes en laboratoire). Nous commençons par un aperçu des modèles de compétition et de chaîne trophique dans le chemostat ainsi qu'un rappel des concepts basiques de la théorie de la commande adaptée aux équations du chemostat. Ceci nous permet de montrer quelques applications pratiques et aussi de mettre en évidence la complexité mathématique de la commande.<br /><br />La première partie considère la commande robuste d'un chemostat simple qui présente des imprécisions déterministes tant dans le modèle que dans la sortie, ainsi que des retards dans la sortie. Nous construisons une famille de boucles de rétroaction qui stabilise le modèle dans un polytope déterminé<br />par la grandeur des imprécisions. Cette famille stabilise aussi la sortie autour d'une consigne en présence des retards, mais en l'absence d'imprécision<br />sur le modèle et la sortie.<br /><br />La deuxième partie considère la commande en boucle<br />fermée d'un modèle de compétition entre espèces<br />qui permet la coexistence de celles--ci. Nous généralisons un résultat proposé par P. De Leenher et H.Smith dans deux directions: considération de fonctions de croissance plus générales et prise en compte de la mortalité des espèces.<br /><br />La troisième partie considère la commande en boucle ouverte d'une chaîne trophique dans un chemostat. Nous présentons une méthode de réduction de dimension qui permet de caractériser l'ensemble d'atteignabilité du système et d'obtenir un <br />résultat sur la commandabilité partielle de la chaîne.
93

Correcteur automatique d'assiette pour engins de manutention

Diouf, Mamadou 14 December 2010 (has links) (PDF)
Ce travail consiste à apporter une assistance à la conduite d'engins de manutention, en déchargeant le pilote du contrôle de l'organe terminal. Le système concerné est un engin de chantier équipé d'un bras poly-articulé actionné par des vérins hydrauliques. Le correcteur automatique d'assiette vise à maintenir quasi-constant l'angle de l'outil afin d'assurer le non-renversement de charges lors des phases de manutention. L'élaboration de la loi de commande du dernier vérin passe par une phase de modélisation multi-physique de l'engin, afin de prendre en compte ses spécificités mécaniques et hydrauliques, en particulier la non linéarité liée à la structure de l'embiellage de l'outil et la zone morte du servo-distributeur. Basés sur la seule utilisation de la mesure de l'inclinaison de l'outil, trois schémas de commande robustes ont été construits puis testés en simulation et sur engin : Retour d'Etat avec Observateur Etendu, Time delay Control, Sliding Mode Control. D'autre part, une stratégie originale consistant à contrôler l'angle du vecteur accélération de la charge, pour la maintenir plaquée sur l'outil, a également été examinée.
94

Gestion robuste de la production électrique à horizon court terme

Ben Salem, Sinda 11 March 2011 (has links) (PDF)
Dans un marché électrique concurrentiel, EDF a adapté ses outils de gestion de production pour permettre une gestion optimale de son portefeuille, particulièrement sur les horizons journaliers et infra-journaliers, derniers leviers pour une gestion optimisée de la production. Et plus l'horizon d'optimisation s'approche du temps réel, plus les décisions prises aux instants précédents deviennent structurantes voire limitantes en terme d'actions. Ces décisions sont aujourd'hui prises sans tenir compte du caractère aléatoire de certaines entrées du modèle. En effet, pour les décisions à court-terme, la finesse et la complexité des modèles déjà dans le cas déterministe ont souvent été un frein à des travaux sur des modèles tenant compte de l'incertitude. Pour se prémunir face à ces aléas, des techniques d'optimisation en contexte incertain ont fait l'objet des travaux de cette thèse. Nous avons ainsi proposé un modèle robuste de placement de la production tenant compte des incertitudes sur la demande en puissance. Nous avons construit pour cette fin un ensemble d'incertitude permettant une description fine de l'aléa sur les prévisions de demande en puissance. Le choix d'indicateurs fonctionnels et statistiques a permis d'écrire cet ensemble comme un polyèdre d'incertitude. L'approche robuste prend en compte la notion de coût d'ajustement face à l'aléa. Le modèle a pour objectif de minimiser les coûts de production et les pires coûts induits par l'incertitude. Ces coûts d'ajustement peuvent décrire différents contextes opérationnels. Une application du modèle robuste à deux contextes métier est menée avec un calcul du coût d'ajustement approprié à chaque contexte. Enfin, le présent travail de recherche se situe, à notre connaissance, comme l'un des premiers dans le domaine de la gestion optimisée de la production électrique à court terme avec prise en compte de l'incertitude. Les résultats sont par ailleurs susceptibles d'ouvrir la voie vers de nouvelles approches du problème.
95

Contribution à la commande des systèmes mécatroniques à fluide sous pression

Brun, Xavier 28 October 2010 (has links) (PDF)
Je tiens, dans ma démarche scientifique, à développer mes connaissances d'un point de vue Système et d'un point de vue Commande. En effet, je suis convaincu que si les automaticiens travaillent conjointement avec les équipes de conception (mécanique, électronique, informatique) et participent à la mise en place de l'architecture du système alors cela permet et permettra d'intégrer le choix des stratégies de commandes en amont du développement du système. Démarche qui peut être très efficace pour répondre à des spécifications de plus en plus exigeantes en terme de performances statiques, dynamiques, énergétiques, écologiques ... Dans les articles scientifiques, l'aspect théorie et/ou mise en oeuvre de la commande est très souvent mis en avant par rapport à l'aspect que je qualifie de système. Preuve en ai donnée dans mes différentes contributions scientifiques dont une liste est présente à la fin de ce document dans la partie bibliographie personnelle (qui en fait n'a rien de personnelle, mais représente les fruits de différents travaux collaboratifs). Certains articles sont en version intégrale en annexe. Dans ce mémoire qui présente mes contributions passées, présentes et peut-être futures sur la commande des systèmes mécatroniques à fluide sous pression, l'occasion m'est donnée de mettre en avant le système par rapport à différentes techniques de commandes avancées. Ce travail présente la synthèse de mes activités de Maître de conférences à l'INSA de Lyon au sein du Laboratoire d'Automatique Industrielle de 2001 à 2006 (L.A.I . Equipe d'Accueil 3079) et depuis 2007 au sein du laboratoire Ampère (Unité Mixte de Recherche 5005 du CNRS) issu de la fusion du L.A.I. avec le CEGELY (CEntre de Génie Electrique de LYon) et une équipe de Génomique microbienne environnementale. Ces travaux encadrés ou co-encadrés m'ont permis de contribuer au développement des activités de recherche du laboratoire d'Automatique Industrielle hier et du laboratoire Ampère aujourd'hui, à travers l'axe scientifique commande des systèmes Fluid Power. Le mémoire est organisé en 4 chapitres. Après un bref résumé présentant mon curriculum vitae et quelques faits marquants de mes activités, le chapitre 2 dresse un bilan de mes activités de recherche, d'enseignement et responsabilités collectives. Ce bilan se veut être prioritairement quantitatif. L'aspect qualitatif étant surtout abordé au niveau de la recherche lors du chapitre 3. Ce chapitre présente de manière approfondie et technique le fil conducteur de ma recherche résumé par le titre de ce document. Enfin, le chapitre 4 donne des conclusions mais surtout des orientations à mes perspectives de recherche au travers différents projets que je souhaite développer. Les annexes, en fin de ce document, regroupent les textes des productions scientifiques que je juge aujourd'hui significatives.
96

Recalage non rigide en imagerie cérébrale : méthodes et validation

Hellier, Pierre 22 December 2000 (has links) (PDF)
Dans le contexte de la fusion de données en imagerie médicale, cette thèse s'intéresse aux problèmes de recalage non-rigide en imagerie cérébrale, monomodalité et multimodalité. Dans un premier temps, nous avons développé une approche originale pour estimer une transformation $3D$ dense entre deux volumes IRM de deux sujets différents. Cette méthode est basée sur une estimation du flot optique, exprimé dans un cadre statistique robuste. Nous avons également proposé un schéma de minimisation efficace, à la fois multirésolution et multigrille, s'appuyant sur des contraintes anatomiques. Nous avons validé cette méthode sur des données synthétiques, puis sur une base de donnée de 18 sujets. Dans un deuxième temps, nous nous sommes intéressés au problème du recalage non-rigide multimodalité. Les images fonctionnelles IRMf, en acquisition EPI, présentent des déformations géométriques qui gênent l'interprétation des données fonctionnelles. Nous avons proposé un algorithme de recalage non-rigide multimodalité à l'aide d'une mesure de similarité adaptée, dans un cadre de minimisation multigrille. Dans un troisième temps, nous avons proposé un cadre de validation de méthodes de recalage non-rigides. 5 méthodes différentes, parmi lesquelles des approches classiques et des approches plus récentes, ont été évaluées sur la base de critères globaux (volume moyen, corrélation des Lvv, recouvrement des tissus anatomiques) et de critères locaux (recalage des sillons corticaux). Enfin, nous avons étudié des approches coopératives utilisant les processus de segmentation et de recalage. Basée sur une méthode de type ``ensemble de niveaux'', la segmentation de structures anatomiques peut être guidée par un champ grossier de déformation. Le recalage permet d'initialiser correctement les modèles déformables, entraînant une segmentation automatique, plus robuste, plus précise et considérablement plus rapide. D'autre part, la segmentation de structures anatomiques d'intérêt comme les sillons corticaux permet de contraindre le processus de recalage présenté dans la première partie. En particulier, le cadre statistique permet d'intégrer cette contrainte locale et éparse de manière naturelle. Sur la base de 18 sujets, nous avons montré l'apport de cette contrainte anatomique.
97

Stratégies de calcul pour l'optimisation multiobjectif des structures composites

Irisarri, François-Xavier 23 January 2009 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre de la recherche de solutions composites innovantes pour l'allègement des structures aéronautiques. Les matériaux composites stratifiés offrent, de par leur architecture interne, de nouveaux degrés de liberté pour la conception et l'optimisation des structures. L'objectif est ici de proposer une méthodologie pour l'optimisation robuste des empilements, à l'échelle de petits sous-ensembles structuraux composites. La démarche est décomposée en trois éléments imbriqués : algorithme d'optimisation, stratégie de calcul et prise en compte des incertitudes. L'algorithme multiobjectif développé retourne au concepteur un ensemble de compromis optimaux. Il s'agit d'un algorithme évolutionnaire, dont l'efficacité est considérablement accrue, par rapport aux outils génériques, par l'introduction de considérations mécaniques multiéchelles spécifiques aux composites stratifiés. Il est en particulier adapté à la prise en compte des recommandations industrielles pour le choix des séquences d'empilements. Afin de réduire les coûts de calcul, des stratégies de calcul sont mises en oeuvre, articulant modélisations fines et approximation des modèles. Une méthode d'optimisation robuste est proposée, pour la prise en compte des incertitudes, méconnaissances ou erreurs potentielles. La première application proposée traite du flambement et post-flambement de panneaux raidis. La seconde application traite de l'optimisation des assemblages boulonnés composites, dont le calcul reste aujourd'hui problématique. Un modèle de la rupture en matage est développé, basé sur une approche progressive de la rupture du stratifié et de l'amorce des délaminages, avec d'excellents résultats par rapport à l'expérience. Ce modèle est appliqué pour l'optimisation d'un assemblage élémentaire à une fixation, et intégré dans une approche multiniveau pour le calcul d'une jonction complexe à plusieurs centaines de fixations.
98

Estimation ensembliste par analyse par intervalles Application à la localisation d'un véhicule

Kieffer, Michel 18 January 1999 (has links) (PDF)
Dans ce travail, nous développons des outils d'analyse par intervalles pour l'automatique. Nous nous intéressons plus particulièrement à l'identification de paramètres et à l'estimation d'état pour des modèles non-linéaires. Pour l'identification, l'algorithme d'optimisation globale de Hansen fournit un encadrement de tous les vecteurs de paramètres minimisant une fonction coût mettant en jeu les grandeurs mesurées sur un dispositif réel à modéliser et leur pendant prédit par son modèle. Nous montrons que ceci peut mettre en évidence d'éventuels problèmes d'identifiabilité sans étude préalable. Dans l'approche à erreurs bornées, même lorsque des données aberrantes sont présentes, des encadrements intérieur et extérieur des ensembles de vecteurs de paramètres admissibles sont fournis par les algorithmes d'inversion ensembliste par analyse par intervalles. Quand les bornes sur les erreurs ne sont pas connues, une méthode originale évaluant la plus petite borne d'erreur fournissant un ensemble de vecteurs de paramètres admissibles non vide est proposée. Un nouvel algorithme récursif d'estimation d'état garanti est présenté. D'une structure analogue au filtre de Kalman, mais dans un contexte d'erreurs bornées, il fournit à tout instant un ensemble contenant les valeurs de l'état compatibles avec les informations disponibles. Cet algorithme est construit à l'aide d'un algorithme d'inversion ensembliste et d'un algorithme original de calcul d'image directe. Tous deux exploitent la notion de sous-pavages décrits par des arbres binaires, qui permet une description approchée d'ensembles compacts. Ces techniques sont appliquées à la localisation puis au suivi d'un robot à l'intérieur d'une pièce cartographiée. La présence de données aberrantes, comme les ambiguïtés liées aux symétries de la pièce dans laquelle se trouve le robot sont prises en compte sans difficulté. Des ensembles de configurations possibles disjoints peuvent être considérées et leur traitement ne pose aucun problème. En outre, le suivi, même en présence de données aberrantes, est fait en temps réel sur les exemples traités.
99

Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia

Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande passante réduite du support. Cependant, plus un flux multimédia est comprimé, plus il est sensible aux erreurs de transmission. Pour garantir un signal exempt d'erreur à l'entrée du décodeur source, plusieurs mécanismes sont incorporés dans le récepteur. Ces techniques consistent principalement à retransmettre les paquets erronés et/ou à rajouter des redondances aux données transmises. Ces méthodes sont efficaces, mais entraînent une consommation excessive de ressources. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer la qualité du décodage multimédia. Dans cette thèse, nous explorons cet axe et proposons un nouveau schéma de décodage conjoint exploitant les propriétés sémantiques et syntaxiques du flux ainsi que les codes de détection d'erreurs (CRC) protégeant les paquets. Parallèlement, nous étudions les problématiques d'intégration des schémas de décodage conjoint dans les récepteurs traditionnels et nous montrons que de nombreuses modifications sont nécessaires. Nous proposons ensuite un principe universel permettant de résoudre simplement les difficultés en exploitant différemment la structure protocolaire. Ces techniques ont été testées en considérant une transmission vidéo H.264/AVC point-à-point sur un support WiFi. Les résultats obtenus ont confirmé l'intérêt du décodage robuste par une amélioration significative du bilan de liaison.
100

Modélisation pour Analyses Dynamiques des Réseaux Electriques avec Compensateurs de Puissance Réactive - SVC

Rios, Mario-Alberto 24 September 1998 (has links) (PDF)
Cette Thèse traite de la modélisation des réseaux électriques comportant des compensateurs statiques de puissance réactive (SVC). La modélisation est basée sur des modèles d'ordre réduit utilisant la réduction par troncature des valeurs singulières de Hankel et l'identification dynamique N4Sid. Pour le cas de réseaux comportant plusieurs SVC ou composants FACTS (Flexible AC Transmission Systems), on a proposé une structure de modélisation par sous-systèmes calculée par des techniques d'ordre réduit. Ces modèles réduits permettent de calculer des lois de commande type LQG (Linear Quadratic Gaussian Regulator) et des commandes robustes d'ordre réduit qui ont des performances supérieures par rapport aux correcteurs traditionnels des SVC (commande proportionnelle). Avec la structure en sous-systèmes, on a proposé des méthodes de calcul des correcteurs décentralisés appliqués aux réseaux électriques. D'autre part, on a proposé une technique d'analyse de la robustesse des réseaux en utilisant la théorie d'analyse des valeurs singulières structurées, permettant de déterminer les frontières de stabilité basées en le calcul des fonctions de transfert de l'ensemble système-commande. Les différentes techniques développées dans le cadre de cette thèse sont appliquées à un réseau test de 11 nœuds et à un grand réseau électrique et donnent des résultats très satisfaisants.

Page generated in 0.0556 seconds