• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 9
  • 2
  • Tagged with
  • 29
  • 29
  • 19
  • 17
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contributions au contrôle et à l'optimisation dynamique de systèmes à retards variables / Contributions to the control and dynamic optimization of processes with varying delays

Clerget, Charles-Henri 18 December 2017 (has links)
Dans cette thèse, nous avons étudié le contrôle et l'optimisation de systèmes dynamiques sujets à des retards variables.L'existence de retards, de commande ou d'état, est un problème classique en automatique, susceptible de réduire les performances du système en régime transitoire, voire de remettre en cause la stabilité de contrôleurs en boucle fermée. De tels phénomènes de retards variables jouent un rôle important dans de nombreuses applications en génie des procédés.Dans une première partie, nous avons étudié la régulation en boucle fermée d'un système soumis à des retards de métrologie variables et incertains. Nous avons établi de nouveaux résultats garantissant la stabilité robuste sous certaines conditions explicites sur le gain du contrôleur. Dans une seconde partie, nous avons abordé le problème de l'optimisation dynamique de systèmes présentant des retards variables dépendant de la commande liés à des phénomènes de transport dans des réseaux hydrauliques. Nous avons proposé un algorithme itératif d'optimisation et garanti sa convergence grâce à une analyse détaillée. / This Ph.D. work studied the control and optimization of dynamical systems subject to varying time delays.State and control time delays are a well-known problem in control theory, with a potential to decrease performances during transient regimes, or even to jeopardize controllers closed-loop stability. Such variable delays play a key role in many applications in process industries.In a first part, we studied the closed-loop control of a system subject to varying and uncertain metrology delays. We established new results on robust stability under explicit conditions on the controller gain. In a second part, we tackled the problem of the dynamic optimization of systems exhibiting input dependent delays due to transport phenomena in complex hydraulic architectures. We designed an iterative optimization algorithm and guaranteed its convergence through a detailed analysis.
2

Contribution à une méthodologie de dimensionnement des systèmes mécatroniques : analyse structurelle et couplage à l'optimisation dynamique

Jardin, Audrey 15 January 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la conception de systèmes mécatroniques et traite plus spécifiquement du problème de leur dimensionnement. Dans ce sens, elle s'intéresse aux méthodes permettant de sélectionner les composants constituant leurs chaînes d'actionnement afin de satisfaire au mieux un cahier des charges donné. Puisque les lois concurrentielles actuelles demandent un renouvellement fréquent des produits malgré une complexité toujours croissante, les démarches adoptées pour traiter ce type de problème se doivent d'être les moins coûteuses en termes financiers mais aussi en termes de temps d'étude. Pour diminuer le nombre d'itérations du processus de conception, une solution possible est de reformuler le problème sous la forme d'un problème inverse où les inconnues du problème de dimensionnement sont directement calculées à partir des spécifications du cahier des charges sur les sorties du système. Dans cette optique, le laboratoire Ampère propose une méthodologie de dimensionnement par modèles bond graph inverses. L'objectif de cette thèse est de contribuer au développement de cette méthodologie d'une part dans sa phase d'analyse structurelle (phase permettant de vérifier avant toute simulation si le problème inverse est correctement posé) puis, d'autre part, dans sa phase de dimensionnement (phase durant laquelle l'inversion du modèle est effectivement mise en œuvre puis exploitée). Concernant la phase d'analyse structurelle, le mémoire s'attache à détailler les mécanismes d'une telle analyse dans le langage bond graph mais vise aussi à préciser son domaine de validité. Pour cela, une comparaison de l'approche bond graph aux approches Modelica, système structuré et modèle d'état permet de mettre en évidence l'existence de plusieurs niveaux d'information et de description sur le système. Selon l'exploitation ou non de ces différents niveaux d'information et de description, plusieurs niveaux d'analyse sont ensuite proposés : le niveau structuré, le niveau BG-structurel et le niveau comportemental. Il est également montré comment ces différents niveaux d'analyse peuvent être mis à profit dans une démarche de conception et comment ceux-ci permettent de reformuler certaines propriétés bond graph selon la phase de conception dans laquelle nous nous trouvons les propriétés au niveau d'analyse BG-structurel permettent d'infirmer ou de valider l'architecture du système). Concernant la phase de dimensionnement, le mémoire aborde le cas où le problème de dimensionnement ne peut se formuler complètement sous la forme d'un problème inverse et où la méthodologie ne peut s'appliquer directement. Pour cela, le problème de la représentation bond graph d'un problème d'optimisation dynamique est étudié afin de traiter des spécifications qui ne peuvent s'exprimer sous forme de fonctions dépendant explicitement du temps. Une procédure bond graph d'optimisation est à cette fin reprise puis étendue notamment à une classe de systèmes non linéaires. Enfin, un exemple de couplage entre méthodologie de dimensionnement et optimisation dynamique est effectivement mis en œuvre jusqu'à l'obtention de résultats numériques afin d'illustrer la faisabilité de la méthodologie tout au long du processus de conception.
3

Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II

Ben Dbabis, Makram 14 December 2012 (has links) (PDF)
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d'assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d'une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l'accent sur le problème de valorisation économique des passifs d'assurance vie lié aux options incluses dans les contrats d'assurance et donc d'obtention de la distribution de la situation nette à un 1 an et donc de son quantile d'ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :- Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,- Algorithme d'accélération des simulations dans les simulations pour contourner les limites de la première approche,- Approche par portefeuille répliquant- Approche par fonction de perteDans une deuxième partie, l'accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d'un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l'optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance
4

Conception de métaheuristiques pour l'optimisation dynamique : application à l'analyse de séquences d'images IRM

Lepagnot, Julien 01 December 2011 (has links) (PDF)
Dans la pratique, beaucoup de problèmes d'optimisation sont dynamiques : leur fonction objectif (ou fonction de coût) évolue au cours du temps. L'approche principalement adoptée dans la littérature consiste à adapter des algorithmes d'optimisation statique à l'optimisation dynamique, en compensant leurs défauts intrinsèques. Plutôt que d'emprunter cette voie, déjà largement explorée, l'objectif principal de cette thèse est d'élaborer un algorithme entièrement pensé pour l'optimisation dynamique. La première partie de cette thèse est ainsi consacrée à la mise au point d'un algorithme, qui doit non seulement se démarquer des algorithmes concurrents par son originalité, mais également être plus performant. Dans ce contexte, il s'agit de développer une métaheuristique d'optimisation dynamique. Deux algorithmes à base d'agents, MADO (MultiAgent algorithm for Dynamic Optimization) et MLSDO (Multiple Local Search algorithm for Dynamic Optimization), sont proposés et validés sur les deux principaux jeux de tests existant dans la littérature en optimisation dynamique : MPB (Moving Peaks Benchmark) et GDBG (Generalized Dynamic Benchmark Generator). Les résultats obtenus sur ces jeux de tests montrent l'efficacité des stratégies mises en oeuvre par ces algorithmes, en particulier : MLSDO est classé premier sur sept algorithmes évalués sur GDBG, et deuxième sur seize algorithmes évalués sur MPB. Ensuite, ces algorithmes sont appliqués à des problèmes pratiques en traitement de séquences d'images médicales (segmentation et recalage de séquences ciné-IRM cérébrales). A notre connaissance, ce travail est innovant, en ce sens que l'approche de l'optimisation dynamique n'avait jamais été explorée pour ces problèmes. Les gains de performance obtenus montrent l'intérêt d'utiliser les algorithmes d'optimisation dynamique proposés pour ce type d'applications
5

Méthodologie pour l'optimisation dynamique multicritère d'un procédé discontinu alimenté : application à la production bactérienne d'arômes laitiers / Methodology for the dynamic multicriteria optimization of a fed-batch bioprocess : bacterial lactic aroma production

Makhlouf, Anissa 30 October 2006 (has links)
Ce travail s’intéresse essentiellement au développement et à l’application d’une méthodologie pour l’optimisation dynamique multicritère d’un procédé discontinu alimenté de production bactérienne d’arômes laitiers. L’étude réalisée comprend principalement quatre parties ; la première décrit l'utilisation des plans d’expériences multicritère, couvrant un large domaine expérimental (pH, température et oxygénation), afin de collecter le maximum d'information sur le comportement physiologique de Lactococcus lactis. La deuxième concerne l'analyse cinétique détaillée de l’effet des combinaisons des facteurs opératoires sur la croissance et l'orientation du métabolisme. La troisième, traite de la construction d'un modèle cinétique en mode discontinu et discontinu alimenté. Dans la dernière, l’outil d’optimisation dynamique multicritère a été validé et appliqué au problème de production d’arômes étudié. Les résultats obtenus pour l’optimisation multicritère sont satisfaisants / The aim of the present work is to develop and apply an innovative approach for multicriteria and dynamic optimization of fed-batch fermentation for the production of lactic aroma. This study is mainly divided in four parts: the first one describes the use of multicriteria experimental design, covering an extended operating conditions domain (pH, temperature and oxygenation), in order to collect large experimental information in batch culture of Lactococcus lactis. The second part involves detailed kinetic analysis of operating factor effect combinations on growth and metabolism orientation. The third part deals with the development of a model to predict the kinetic behaviour of this strain in batch and fed-batch cultures. In the last part, the tool for multicriteria and dynamic optimization was validated and applied to the studied problem of lactic aroma production. The results obtained for multicriteria and dynamic optimization are satisfactory
6

Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II / Actuarial models and methods for quantitative risk analysis

Ben Dbabis, Makram 14 December 2012 (has links)
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d’assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d’une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l’accent sur le problème de valorisation économique des passifs d’assurance vie lié aux options incluses dans les contrats d’assurance et donc d’obtention de la distribution de la situation nette à un 1 an et donc de son quantile d’ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :– Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,– Algorithme d’accélération des simulations dans les simulations pour contourner les limites de la première approche,– Approche par portefeuille répliquant– Approche par fonction de perteDans une deuxième partie, l’accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d’un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l’optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance / The new prudential standards, Solvency II, consider the question of controling of insurer and reinsurer’s solvency. In this thesis, we’ve proposed technical solution for solvency capital assessment to keep ruin’s probability under the target of 0.5% aimed by the Solvency II project in internal model prospect. The First part will discuss the problem of economic valorization of life insurance liabilities and will present di_erent modeling approaches to determine the net assets value distribution and assess the 0.5% percentile that can solve it :– Nested simulation approach which is too much time consumer,– Nested simulation accelerator,– Replication portfolio approach,– Loss function approach.In the second part, we will focus on biometric risks modeling. Two stochastic modeling approaches was developped in order to model mortality & longevity and morbidity risks. The third part will focuss on capital optimization using reinsurance as a tool of capital reduction
7

Conception de métaheuristiques pour l'optimisation dynamique : application à l'analyse de séquences d'images IRM / Design of metaheuristics for dynamic optimization : application to the analysis of MRI image sequences

Lepagnot, Julien 01 December 2011 (has links)
Dans la pratique, beaucoup de problèmes d'optimisation sont dynamiques : leur fonction objectif (ou fonction de coût) évolue au cours du temps. L'approche principalement adoptée dans la littérature consiste à adapter des algorithmes d'optimisation statique à l'optimisation dynamique, en compensant leurs défauts intrinsèques. Plutôt que d'emprunter cette voie, déjà largement explorée, l'objectif principal de cette thèse est d'élaborer un algorithme entièrement pensé pour l'optimisation dynamique. La première partie de cette thèse est ainsi consacrée à la mise au point d'un algorithme, qui doit non seulement se démarquer des algorithmes concurrents par son originalité, mais également être plus performant. Dans ce contexte, il s'agit de développer une métaheuristique d'optimisation dynamique. Deux algorithmes à base d'agents, MADO (MultiAgent algorithm for Dynamic Optimization) et MLSDO (Multiple Local Search algorithm for Dynamic Optimization), sont proposés et validés sur les deux principaux jeux de tests existant dans la littérature en optimisation dynamique : MPB (Moving Peaks Benchmark) et GDBG (Generalized Dynamic Benchmark Generator). Les résultats obtenus sur ces jeux de tests montrent l'efficacité des stratégies mises en oeuvre par ces algorithmes, en particulier : MLSDO est classé premier sur sept algorithmes évalués sur GDBG, et deuxième sur seize algorithmes évalués sur MPB. Ensuite, ces algorithmes sont appliqués à des problèmes pratiques en traitement de séquences d'images médicales (segmentation et recalage de séquences ciné-IRM cérébrales). A notre connaissance, ce travail est innovant, en ce sens que l'approche de l'optimisation dynamique n'avait jamais été explorée pour ces problèmes. Les gains de performance obtenus montrent l'intérêt d'utiliser les algorithmes d'optimisation dynamique proposés pour ce type d'applications / Many real-world problems are dynamic, i.e. their objective function (or cost function) changes over time. The main approach used in the literature is to adapt static optimization algorithms to dynamic optimization, compensating for their intrinsic defects. Rather than adopting this approach, already widely investigated, the main goal of this thesis is to develop an algorithm completely designed for dynamic optimization. The first part of this thesis is then devoted to the design of an algorithm, that should not only stand out from competing algorithms for its originality, but also perform better. In this context, our goal is to develop a dynamic optimization metaheuristic. Two agent-based algorithms, MADO (MultiAgent algorithm for Dynamic Optimization) and MLSDO (Multiple Local Search algorithm for Dynamic Optimization), are proposed and validated using the two main benchmarks available in dynamic environments : MPB (Moving Peaks Benchmark) and GDBG (Generalized Dynamic Benchmark Generator). The benchmark results obtained show the efficiency of the proposed algorithms, particularly : MLSDO is ranked at the first place among seven algorithms tested using GDBG, and at the second place among sixteen algorithms tested using MPB. Then, these algorithms are applied to real-world problems in medical image sequence processing (segmentation and registration of brain cine-MRI sequences). To our knowledge, this work is innovative in that the dynamic optimization approach had never been investigated for these problems. The performance gains obtained show the relevance of using the proposed dynamic optimization algorithms for this kind of applications
8

Stratégie de modélisation et d’optimisation des performances de l’ultrafiltration pour le fractionnement d’hydrolysats protéiques / Modelling and optimization strategy of ultrafiltration performances for the fractionation of protein hydrolysates

Bodin, Alice 13 December 2016 (has links)
Les hydrolysats protéiques ont une haute valeur ajoutée pour des secteurs industriels variés, de par leurs propriétés nutritives, fonctionnelles et / ou nutraceutiques. Pour améliorer les propriétés des hydrolysats, l’ultrafiltration est utilisée. Cependant, le manque d’outils de modélisation lié à la complexité des mélanges est un verrou pour une mise en œuvre rationnelle du procédé. Ces travaux ont permis de valider une stratégie de prédiction basée sur des caractéristiques classiques des hydrolysats et un étalonnage expérimental de la membrane d’ultrafiltration. Cette méthode permet de prédire les rendements et enrichissements en fraction(s) ou peptide(s) cible(s), ainsi que la productivité du procédé. Le modèle global de prédiction de l’ultrafiltration obtenu est alors utilisé afin d’optimiser la mise en œuvre de ce procédé. La démarche d’optimisation consiste à maximiser l’enrichissement de fractions ou de peptides cibles en minimisant la consommation d’eau et la durée du procédé / Protein hydrolysates are high added value mixtures for various industrial areas, thanks to their nutritive, functional or nutraceutical properties. To enhance hydrolysates performances, fractionation processes such as ultrafiltration are used. However, the lack of tools to predict ultrafiltration performances is a major bottleneck for a rational implementation of the process. This research thesis work enables to validate a prediction strategy based on classical characteristics of hydrolysates and an experimental calibration of the membrane. Yields and enrichment factors in targeted peptides or fractions during ultrafiltration as well as the productivity of the process can be predicted. This global methodology of performances prediction is then used to optimize the implementation modes of ultrafiltration. The multiobjective optimization approach consists in maximizing the enrichment in targeted peptides or fractions while water consumption and / or process duration is minimized
9

Appariement de graphes & [et] optimisation dynamique par colonies de fourmis / Graph matching and dynamic optimization by ant colonies

Sammoud Aouf, Olfa 21 May 2010 (has links)
Cette thèse s’intéresse à une problématique ayant de nombreuses applications pratiques, à savoir la comparaison automatique d’objets et l’évaluation de la similarité. Lorsque les objets sont modélisés par des graphes, ce problème de comparaison automatique d’objets se ramène à un problème d’appariement de graphes, c’est-à-dire, chercher une mise en correspondance entre les sommets des graphes permettant de retrouver le plus grand nombre de caractéristiques communes. Différentes classes existent allant de la plus restrictive à la plus générale. Dans la plus restrictive isomorphisme de (sous-) graphes, il s’agit de chercher un appariement exact entre les sommets des graphes de manière à prouver que les deux graphes possèdent une structure identique ou que l’un d’eux est inclus dans l’autre, un sommet étant apparié avec au plus un sommet. Dans la plus générale (appariement multivoque), l’objectif n’est plus de trouver un appariement exact mais le meilleur appariement, c’est-à-dire, celui qui préserve un maximum de sommets et d’arcs, un sommet pouvant être apparié à un ensemble de sommets. Nous nous intéressons au problème de la recherche du meilleur appariement multivoque, ce problème étant plus général que les problèmes d’appariement restrictifs. Sa résolution est clairement un défi tant par la difficulté du problème que par l’importance de ses applications. Pour relever ce défi, nous proposons d’étudier les capacités de l’optimisation par colonies de fourmis (ACO). Notre étude est menée dans deux contextes : un contexte statique, où le problème est figé, et un contexte dynamique, où les graphes à comparer, les contraintes à respecter ainsi que les critères définissant la qualité des appariements changent régulièrement de sorte que la solution doit être dynamiquement adaptée. Un premier objectif, de cette thèse, est de proposer l’algorithme ACO générique pour la résolution des problèmes d’appariement de graphes. Plusieurs points clés sont étudiés dans cet algorithme, à savoir : l’influence des paramètres sur la qualité des solutions construites, l’influence de la stratégie phéromonale et du facteur heuristique, et l’hybridation avec une technique de recherche locale. Un deuxième objectif est de proposer un algorithme ACO générique pour résoudre des problèmes d’optimisation dynamiques. L’algorithme proposé est appliqué et expérimenté à quelques problèmes dynamiques, à savoir : l’appariement de graphes, le problème du sac à dos multidimensionnel, et le voyageur de commerce / The thesis addresses the problematic of comparing objects and similarity measuring. If objects are described by graphs, so that measuring objects similarity turns into determining graph similarity, i.e., matching graph vertices to identify their common features and their differences. Different classes of graph matching have been proposed going on the most restrictive ones to the most general. In restrictive graph matching (graph or sub-graph isomorphism), the objective is to show graph equivalence or inclusion, a vertex in a graph may be matched with one vertex at most on the other graph. In general graph matching (multivalent matching), the goal is not yet to find an “exact” matching (a matching which preserves all vertices and edges), but to look for a “best” matching (a matching which preserves a maximum number of vertices and edges), a vertex in one graph may be matched with a set of vertices in the other graph. In our work, we consider the problem of searching the best multivalent matching which is a NP-hard optimization problem. More precisely, we propose to investigate the ability if the ant colony optimization meta-heuristic (ACO). Two cases are considered in our study: the static case where the problem remains invariant through time and the dynamic case where graphs to compare constrained to satisfy and the criterions defining matching quality may change over the time, so that solutions must be dynamically adapted to the changes. A first goal of this thesis is to propose a generic ACO algorithm for solving graph matching problems. Different key points, like the pheromonal strategy to be used, the heuristic factor and the use of a local search procedure, are studied. A second goal of this work is to propose a generic ACO algorithm for solving dynamic optimization problems. The proposed algorithm will be applied and experimentally studied on three different dynamic problems: graph matching problem, multi-dimensional knapsack problem and the travelling salesman problem
10

Runtime optimization of binary through vectorization transformations / Optimisation dynamique de code binaire par des transformations vectorielles

Hallou, Nabil 18 December 2017 (has links)
Les applications ne sont pas toujours optimisées pour le matériel sur lequel elles s'exécutent, comme les logiciels distribués sous forme binaire, ou le déploiement des programmes dans des fermes de calcul. On se concentre sur la maximisation de l'efficacité du processeur pour les extensions SIMD. Nous montrons que de nombreuses boucles compilées pour x86 SSE peuvent être converties dynamiquement en versions AVX plus récentes et plus puissantes. Nous obtenons des accélérations conformes à celles d'un compilateur natif ciblant AVX. De plus, on vectorise en temps réel des boucles scalaires. Nous avons intégré des logiciels libres pour (1) transformer dynamiquement le binaire vers la forme de représentation intermédiaire, (2) abstraire et vectoriser les boucles fréquemment exécutées dans le modèle polyédrique (3) enfin les compiler. Les accélérations obtenues sont proches du nombre d'éléments pouvant être traités simultanément par l'unité SIMD. / In many cases, applications are not optimized for the hardware on which they run. This is due to backward compatibility of ISA that guarantees the functionality but not the best exploitation of the hardware. Many reasons contribute to this unsatisfying situation such as legacy code, commercial code distributed in binary form, or deployment on compute farms. Our work focuses on maximizing the CPU efficiency for the SIMD extensions. The first contribution is a lightweight binary translation mechanism that does not include a vectorizer, but instead leverages what a static vectorizer previously did. We show that many loops compiled for x86 SSE can be dynamically converted to the more recent and more powerful AVX; as well as, how correctness is maintained with regards to challenges such as data dependencies and reductions. We obtain speedups in line with those of a native compiler targeting AVX. The second contribution is a runtime auto-vectorization of scalar loops. For this purpose, we use open source frame-works that we have tuned and integrated to (1) dynamically lift the x86 binary into the Intermediate Representation form of the LLVM compiler, (2) abstract hot loops in the polyhedral model, (3) use the power of this mathematical framework to vectorize them, and (4) finally compile them back into executable form using the LLVM Just-In-Time compiler. In most cases, the obtained speedups are close to the number of elements that can be simultaneously processed by the SIMD unit. The re-vectorizer and auto-vectorizer are implemented inside a dynamic optimization platform; it is completely transparent to the user, does not require any rewriting of the binaries, and operates during program execution.

Page generated in 0.703 seconds