• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mise en place d'une démarche de conception pour circuits hautes performances basée sur des méthodes d'optimisation automatique

Tugui, Catalin Adrian 14 January 2013 (has links) (PDF)
Ce travail de thèse porte sur le développement d'une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L'objectif principal est d'assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d'une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d'évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d'amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d'extraction des macro-modèles et d'optimisation automatique.
2

Une approche Bayésienne pour l'optimisation multi-objectif sous contraintes / A Bayesian approach to constrained multi-objective optimization

Feliot, Paul 12 July 2017 (has links)
Ces travaux de thèse portent sur l'optimisation multi-objectif de fonctions à valeurs réelles sous contraintes d'inégalités. En particulier, nous nous intéressons à des problèmes pour lesquels les fonctions objectifs et contraintes sont évaluées au moyen d'un programme informatique nécessitant potentiellement plusieurs heures de calcul pour retourner un résultat. Dans ce cadre, il est souhaitable de résoudre le problème d'optimisation en utilisant le moins possible d'appels au code de calcul. Afin de résoudre ce problème, nous proposons dans cette thèse un algorithme d'optimisation Bayésienne baptiséBMOO. Cet algorithme est fondé sur un nouveau critère d'amélioration espérée construit afin d'être applicable à des problèmes fortement contraints et/ou avecde nombreux objectifs. Ce critère s'appuie sur une fonction de perte mesurant le volume de l'espace dominé par les observations courantes, ce dernier étant défini au moyen d'une règle de domination étendue permettant de comparer des solutions potentielles à la fois selon les valeurs des objectifs et des contraintes qui leurs sont associées. Le critère ainsi défini généralise plusieurs critères classiques d'amélioration espérée issus de la littérature. Il prend la forme d'une intégrale définie sur l'espace des objectifs et des contraintes pour laquelle aucune forme fermée n'est connue dans leas général. De plus, il doit être optimisé à chaque itération de l'algorithme.Afin de résoudre ces difficultés, des algorithmes de Monte-Carlo séquentiel sont également proposés. L'efficacité de BMOO est illustrée à la fois sur des cas tests académiques et sur quatre problèmes d'optimisation représentant de réels problèmes de conception. / In this thesis, we address the problem of the derivative-free multi-objective optimization of real-valued functions subject to multiple inequality constraints. In particular, we consider a setting where the objectives and constraints of the problem are evaluated simultaneously using a potentially time-consuming computer program. To solve this problem, we propose a Bayesian optimization algorithm called BMOO. This algorithm implements a new expected improvement sampling criterion crafted to apply to potentially heavily constrained problems and to many-objective problems. This criterion stems from the use of the hypervolume of the dominated region as a loss function, where the dominated region is defined using an extended domination rule that applies jointly on the objectives and constraints. Several criteria from the Bayesian optimization literature are recovered as special cases. The criterion takes the form of an integral over the space of objectives and constraints for which no closed form expression exists in the general case. Besides, it has to be optimized at every iteration of the algorithm. To solve these difficulties, specific sequential Monte-Carlo algorithms are also proposed. The effectiveness of BMOO is shown on academic test problems and on four real-life design optimization problems.
3

Optimisation des lois de commande d’un imageur sur critère optronique. Application à un imageur à deux étages de stabilisation. / Line of Sight controller global tuning based on a high-level optronic criterion. Application to a double-stage stabilization platform

Frasnedo, Sophie 06 December 2016 (has links)
Ces travaux sur la stabilisation de la Ligne de Visée d’un dispositif optronique s’inscrivent dans le contexte actuel de durcissement des exigences de stabilisation et de réduction du temps accordé à la synthèse des lois de commande.Ils incluent dans un premier temps l’amélioration de la performance intrinsèque de stabilisation du système. La solution proposée ici est l’ajout d’un étage de stabilisation supplémentaire à une structure de stabilisation existante. L’architecture de ce nouvel étage est définie. Les composants sont choisis parmi les technologies existantes puis caractérisés expérimentalement. Un modèle complet du système à deux étages de stabilisation est ensuite proposé.L’objectif de ces travaux comprend également la simplification des procédures d’élaboration des lois de commande par l’utilisation d’une fonction de coût F incluant notamment la Fonction de Transfert de Modulation (qui quantifie le flou introduit par l’erreur de stabilisation dans l’image) en lieu et place ducritère dérivé usuel qui nécessite des vérifications supplémentaires et qui peut s’avérer conservatif.L’évaluation de F étant coûteuse en temps de calcul, un algorithme d’optimisation bayésienne, adapté à l’optimisation des fonctions coûteuses, permet la synthèse des lois de commande du système dans un temps compatible avec les contraintes industrielles, à partir de la modélisation du système précédemment proposée. / The presented work on the Line of Sight stabilization of an optronic device meets the heightened demands regarding stabilization performances that come with the reduction of the time allowed to controller tuning.It includes the intrinsinc improvement of the system stabilization. The proposed solution features a double stabilization stage built from a single stabilization stage existing system. The new architecture is specified and the new components are chosen among the existing technology and experimentally characterized. A complete double stabilization stage model is then proposed.The simplification of the controller tuning process is another goal. The designed cost function F includes a high-level optronic criterion, the Modulation Transfer Function (that quantifies the level of blur broughtinto the image by the residual motion of the platform) instead of the usual low-level and potentially conservative criterion.The function F is costly to evaluate. In order to tune the controller parameters within industrial time constraints, a Bayesian algorithm, adapted to optimization with a reduced budget of evaluations, is implemented.Controllers of both stabilization stages are simultaneously tuned thanks to the previously developped system model.
4

Design Methodology for High-performance Circuits Based on Automatic Optimization Methods. / Mise en place d'une démarche de conception pour circuits hautes performances basée sur des méthodes d'optimisation automatique

Tugui, Catalin Adrian 14 January 2013 (has links)
Ce travail de thèse porte sur le développement d’une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L’objectif principal est d’assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d’une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d’évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d’amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d’extraction des macro-modèles et d'optimisation automatique. / The aim of this thesis is to establish an efficient analog design methodology, the algorithms and the corresponding design tools which can be employed in the dynamic conception of linear continuous-time (CT) functions. The purpose is to assure that the performance figures for a complete system can be rapidly investigated, but with comparable accuracy to the transistor-level evaluations. A first research direction implied the development of the novel design methodology based on the automatic optimization process of transistor-level cells using a modified Bayesian Kriging approach and the synthesis of robust high-level analog behavioral models in environments like Mathworks – Simulink, VHDL-AMS or Verilog-A.The macro-model extraction process involves a complete set of analyses (DC, AC, transient, parametric, Harmonic Balance) which are performed on the analog schematics implemented on a specific technology process. Then, the extraction and calculus of a multitude of figures of merit assures that the models include the low-level characteristics and can be directly regenerated during the optimization process.The optimization algorithm uses a Bayesian method, where the evaluation space is created by the means of a Kriging surrogate model, and the selection is effectuated by using the expected improvement (EI) criterion subject to constraints.A conception tool was developed (SIMECT), which was integrated as a Matlab toolbox, including all the macro-models extraction and automatic optimization techniques.
5

Sample efficient reinforcement learning for biological sequence design

Nouri, Padideh 08 1900 (has links)
L’apprentissage par renforcement profond a mené à de nombreux résultats prometteurs dans l’apprentissage des jeux vidéo à partir de pixels, dans la robotique pour l’apprentissage de compétences généralisables et dans les soins de santé pour l’apprentissage de traitement dynamiques. Un obstacle demeure toutefois: celui du manque d’efficacité dans le nombre d’échantillons nécessaires pour obtenir de bons résultats. Pour résoudre ce problème, notre objectif est d’améliorer l’efficacité de l’apprentissage en améliorant les capacité d’acquisition de nouvelles données, un problème d’exploration. L’approche proposée consiste à : (1) Apprendre un ensemble diversifié d’environments (donnant lieu à un changement de dynamique) (2) Apprendre une politique capable de mieux s’adapter aux changements dans l’envi- ronnement, à l’aide du méta-apprentissage. Cette méthode peut avoir des impacts bénéfiques dans de nombreux problèmes du monde réel tels que la découverte de médicaments, dans laquelle nous sommes confrontés à un espace d’actions très grand. D’autant plus, la conception de nouvelles substances thérapeutiques qui sont fonctionnellement intéressantes nécessite une exploration efficace du paysage de la recherche. / Deep reinforcement learning has led to promising results in learning video games from pixels, robotics for learning generalizable skills, and healthcare for learning dynamic treatments. However, an obstacle remains the lack of efficiency in the number of samples required to achieve good results. To address this problem, our goal is to improve sample efficiency by improving the ability to acquire new data, an issue of exploration. The proposed approach is to: (1) Learn a diverse set of environments (resulting in a change of dynamics) (2) earn a policy that can better adapt to changes in the environment using meta-learning This method can benefit many real-world problems, such as drug discovery, where we face a large action space. Furthermore, designing new therapeutic substances that are functionally interesting requires efficient exploration of the research landscape
6

Optimisation des paramètres de carbone de sol dans le modèle CLASSIC à l'aide d'optimisation bayésienne et d'observations

Gauthier, Charles 04 1900 (has links)
Le réservoir de carbone de sol est un élément clé du cycle global du carbone et donc du système climatique. Les sols et le carbone organique qu'ils contiennent constituent le plus grand réservoir de carbone des écosystèmes terrestres. Ce réservoir est également responsable du stockage d'une grande quantité de carbone prélevé de l'atmosphère par les plantes par la photosynthèse. C'est pourquoi les sols sont considérés comme une stratégie de mitigation viable pour réduire la concentration atmosphérique de CO2 dûe aux émissions globales de CO2 d'origine fossile. Malgré son importance, des incertitudes subsistent quant à la taille du réservoir global de carbone organique de sol et à ses dynamiques. Les modèles de biosphère terrestre sont des outils essentiels pour quantifier et étudier la dynamique du carbone organique de sol. Ces modèles simulent les processus biophysiques et biogéochimiques au sein des écosystèmes et peuvent également simuler le comportement futur du réservoir de carbone organique de sol en utilisant des forçages météorologiques appropriés. Cependant, de grandes incertitudes dans les projections faite par les modèles de biosphère terrestre sur les dynamiques du carbone organique de sol ont été observées, en partie dues au problème de l'équifinalité. Afin d'améliorer notre compréhension de la dynamique du carbone organique de sol, cette recherche visait à optimiser les paramètres du schéma de carbone de sol contenu dans le modèle de schéma canadien de surface terrestre incluant les cycles biogéochimiques (CLASSIC), afin de parvenir à une meilleure représentation de la dynamique du carbone organique de sol. Une analyse de sensibilité globale a été réalisée pour identifier lesquels parmis les 16 paramètres du schéma de carbone de sol, n'affectaient pas la simulation du carbone organique de sol et de la respiration du sol. L'analyse de sensibilité a utilisé trois sites de covariance des turbulences afin de représenter différentes conditions climatiques simulées par le schéma de carbone de sol et d'économiser le coût calculatoire de l'analyse. L'analyse de sensibilité a démontré que certains paramètres du schéma de carbone de sol ne contribuent pas à la variance des simulations du carbone organique de sol et de la respiration du sol. Ce résultat a permis de réduire la dimensionnalité du problème d'optimisation. Ensuite, quatre scénarios d'optimisation ont été élaborés sur la base de l'analyse de sensibilité, chacun utilisant un ensemble de paramètres. Deux fonctions coûts ont été utilisées pour l'optimisation de chacun des scénarios. L'optimisation a également démontré que la fonction coût utilisée avait un impact sur les ensembles de paramètres optimisés. Les ensembles de paramètres obtenus à partir des différents scénarios et fonctions coûts ont été comparés à des ensembles de données indépendants et à des estimations globales du carbone organique de sol à l'aide de métrique tel la racine de l'erreur quadratique moyenne et le bias, afin d'évaluer l'effet des ensembles de paramètres sur les simulations effectuées par le schéma de carbone de sol. Un ensemble de paramètres a surpassé les autres ensembles de paramètres optimisés ainsi que le paramétrage par défaut du modèle. Ce résultat a indiqué que la structure d'optimisation était en mesure de produire un ensemble de paramètres qui simulait des valeurs de carbone organique de sol et de respiration du sol qui étaient plus près des valeurs observées que le modèle CLASSIC par défaut, améliorant la représentation de la dynamique du carbone du sol. Cet ensemble de paramètres optimisés a ensuite été utilisé pour effectuer des simulations futures (2015-2100) de la dynamique du carbone organique de sol afin d'évaluer son impact sur les projections de CLASSIC. Les simulations futures ont montré que l'ensemble de paramètres optimisés simulait une quantité de carbone organique de sol 62 % plus élevée que l'ensemble de paramètres par défaut tout en simulant des flux de respiration du sol similaires. Les simulations futures ont également montré que les ensembles de paramètres optimisés et par défaut prévoyaient que le réservoir de carbone organique de sol demeurerait un puits de carbone net d'ici 2100 avec des sources nettes régionales. Cette étude a amélioré globalement la représentation de la dynamique du carbone organique de sol dans le schéma de carbone de sol de CLASSIC en fournissant un ensemble de paramètres optimisés. Cet ensemble de paramètres devrait permettre d'améliorer notre compréhension de la dynamique du carbone du sol. / The soil carbon pool is a vital component of the global carbon cycle and, therefore, the climate system. Soil organic carbon (SOC) is the largest carbon pool in terrestrial ecosystems. This pool stores a large quantity of carbon that plants have removed from the atmosphere through photosynthesis. Because of this, soils are considered a viable climate change mitigation strategy to lower the global atmospheric CO2 concentration that is presently being driven higher by anthropogenic fossil CO2 emissions. Despite its importance, there are still considerable uncertainties around the size of the global SOC pool and its response to changing climate. Terrestrial biosphere models (TBM) simulate the biogeochemical processes within ecosystems and are critical tools to quantify and study SOC dynamics. These models can also simulate the future behavior of SOC if carefully applied and given the proper meteorological forcings. However, TBM predictions of SOC dynamics have high uncertainties due in part to equifinality. To improve our understanding of SOC dynamics, this research optimized the parameters of the soil carbon scheme contained within the Canadian Land Surface Scheme Including Biogeochemical Cycles (CLASSIC), to better represent SOC dynamics. A global sensitivity analysis was performed to identify which of the 16 parameters of the soil carbon scheme did not affect simulated SOC stocks and soil respiration (Rsoil). The sensitivity analysis used observations from three eddy covariance sites for computational efficiency and to encapsulate the climate represented by the global soil carbon scheme. The sensitivity analysis revealed that some parameters of the soil carbon scheme did not contribute to the variance of simulated SOC and Rsoil. These parameters were excluded from the optimization which helped reduce the dimensionality of the optimization problem. Then, four optimization scenarios were created based on the sensitivity analysis, each using a different set of parameters to assess the impact the number of parameters included had on the optimization. Two different loss functions were used in the optimization to assess the impact of accounting for observational error. Comparing the optimal parameters between the optimizations performed using the different loss functions showed that the loss functions impacted the optimized parameter sets. To determine which optimized parameter set obtained by each loss function was most skillful, they were compared to independent data sets and global estimates of SOC, which were not used in the optimization using comparison metrics based on root-mean-square-deviation and bias. This study generated an optimal parameter set that outperformed the default parameterization of the model. This optimal parameter set was then applied in future simulations of SOC dynamics to assess its impact upon CLASSIC's future projections. These future simulations showed that the optimal parameter set simulated future global SOC content 62 % higher than the default parameter set while simulating similar Rsoil fluxes. The future simulations also showed that both the optimized and default parameter sets projected that the SOC pool would be a net sink by 2100 with regional net sources, notably tropical regions.

Page generated in 0.1122 seconds