Spelling suggestions: "subject:"doptimisation mathématiques"" "subject:"d'optimisation mathématiques""
21 |
Bayesian hyperparameter optimization : overfitting, ensembles and conditional spacesLévesque, Julien-Charles 24 April 2018 (has links)
Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés. / In this thesis, we consider the analysis and extension of Bayesian hyperparameter optimization methodology to various problems related to supervised machine learning. The contributions of the thesis are attached to 1) the overestimation of the generalization accuracy of hyperparameters and models resulting from Bayesian optimization, 2) an application of Bayesian optimization to ensemble learning, and 3) the optimization of spaces with a conditional structure such as found in automatic machine learning (AutoML) problems. Generally, machine learning algorithms have some free parameters, called hyperparameters, allowing to regulate or modify these algorithms’ behaviour. For the longest time, hyperparameters were tuned by hand or with exhaustive search algorithms. Recent work highlighted the conceptual advantages in optimizing hyperparameters with more rational methods, such as Bayesian optimization. Bayesian optimization is a very versatile framework for the optimization of unknown and non-derivable functions, grounded strongly in probabilistic modelling and uncertainty estimation, and we adopt it for the work in this thesis. We first briefly introduce Bayesian optimization with Gaussian processes (GP) and describe its application to hyperparameter optimization. Next, original contributions are presented on the dangers of overfitting during hyperparameter optimization, where the optimization ends up learning the validation folds. We show that there is indeed overfitting during the optimization of hyperparameters, even with cross-validation strategies, and that it can be reduced by methods such as a reshuffling of the training and validation splits at every iteration of the optimization. Another promising method is demonstrated in the use of a GP’s posterior mean for the selection of final hyperparameters, rather than directly returning the model with the minimal crossvalidation error. Both suggested approaches are demonstrated to deliver significant improvements in the generalization accuracy of the final selected model on a benchmark of 118 datasets. The next contributions are provided by an application of Bayesian hyperparameter optimization for ensemble learning. Stacking methods have been exploited for some time to combine multiple classifiers in a meta classifier system. Those can be applied to the end result of a Bayesian hyperparameter optimization pipeline by keeping the best classifiers and combining them at the end. Our Bayesian ensemble optimization method consists in a modification of the Bayesian optimization pipeline to search for the best hyperparameters to use for an ensemble, which is different from optimizing hyperparameters for the performance of a single model. The approach has the advantage of not requiring the training of more models than a regular Bayesian hyperparameter optimization. Experiments show the potential of the suggested approach on three different search spaces and many datasets. The last contributions are related to the optimization of more complex hyperparameter spaces, namely spaces that contain a structure of conditionality. Conditions arise naturally in hyperparameter optimization when one defines a model with multiple components – certain hyperparameters then only need to be specified if their parent component is activated. One example of such a space is the combined algorithm selection and hyperparameter optimization, now better known as AutoML, where the objective is to choose the base model and optimize its hyperparameters. We thus highlight techniques and propose new kernels for GPs that handle structure in such spaces in a principled way. Contributions are also supported by experimental evaluation on many datasets. Overall, the thesis regroups several works directly related to Bayesian hyperparameter optimization. The thesis showcases novel ways to apply Bayesian optimization for ensemble learning, as well as methodologies to reduce overfitting or optimize more complex spaces. / Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés.
|
22 |
Résolution par éléments finis du problème de contact unilatéral par des méthodes d'optimisation convexeYoubissi, Fabien Mesmin 11 April 2018 (has links)
Malgré de nombreux travaux sur le sujet, la résolution des problèmes de contact constitue encore un défi pour le numéricien. Il existe deux types de problèmes de contact : soit le contact unilatéral et le contact frottant. Dans cette thèse, nous allons uniquement considérer le contact unilatéral. De plus, nous allons nous limiter au cas de l'élasticité linéaire. Malgré ces hypothèses, les principales difficultés du problème en grandes déformations y sont présentes. La difficulté majeure provient de la non différentiabilité engendrée par la contrainte d'inéquation du contact. Plusieurs auteurs utilisent des méthodes de régularisation afin d'obtenir un problème différentiable soluble par l'algorithme de Newton. Nous croyons que cette stratégie pose problème et qu'il est préférable de traiter le problème directement à partir de l'inéquation variationnelle. Dans la thèse, nous allons proposer plusieurs stratégies de résolution par éléments finis du problème de contact unilatéral. Tous les algorithmes sont basés sur les méthodes puissantes et efficaces de l'optimisation convexe. En premier lieu, on propose un algorithme de type gradient conjugué avec projection sur le cône positif. Cet algorithme baptisé GCP, s'est révélé fort efficace dans le cas du contact entre un solide déformable et une fondation rigide. On propose aussi un algorithme ALG3 basé sur une formulation à trois champs du problème de contact résolu par la méthode du Lagrangien Augmenté. Finalement on propose un algorithme ALGCP qui combine à la fois l'approche du Lagrangien Augmenté ainsi que la méthode du Gradient Conjugué Projeté (GCP). Les résultats numériques montreront la supériorité de ALG3 pour les problèmes de contact unilatéral à plusieurs corps.
|
23 |
Optimisation directe de machines électriques synchrones à aimants permanents fonctionnant à haute vitesseGrenier, Jean-Michel 28 June 2024 (has links)
La conception d'une machine haute vitesse est un problème multiphysique très complexe. Les contraintes mécaniques au rotor sont très élevées et la dynamique du rotor ne peut pas être négligée sinon les vibrations excessives risquent de détruire la machine. Même les pertes aérodynamiques créées par le frottement entre le rotor et l'air dans l'entrefer ne peuvent être négligées. La vitesse élevée implique également une fréquence électrique très élevée et donc des problèmes de pertes additionnelles dans le bobinage, de pertes fer, de pertes par courant de Foucault au rotor et de pertes de commutation dans les composantes de puissance de l'onduleur. Les pertes par courant de foucault au rotor, par exemple, augmentent la température des aimants risquant ainsi d'altérer leur performance ou même de les démagnétiser. Le concepteur doit faire preuve d'ingéniosité pour trouver des solutions et des compromis entre ces nombreux problèmes tout en considérant les couplages multiphysiques entre les modèles. Par exemple, l'augmentation de la fréquence de hachage permet la réduction des pertes par courant de foucault au rotor, mais augmente les pertes par commutation dans l'onduleur d'où la nécessité de l'atteinte d'un premier compromis. Les machines synchrones à aimants permanents montés en surface étant des machines prometteuses pour fonctionner à des vitesses et densités de puissance élevées, l'objectif du présent travail de recherche est de développer un outil de CAO adapté à ce type de machine et d'en déduire des règles de conception. Le calcul de champs 2D magnétostatique et magnétoharmonique est directement piloté par un algorithme d'optimisation pour permettre une estimation précise des paramètres les plus complexes à modéliser pour des espaces de conception et des topologies variés. Une étude comparative de moteurs optimisés pour différentes vitesses et densités de puissance a permis de déduire des règles de conception comme le choix du nombre de pôles et l'équilibre entre les pertes cuivre et les pertes fer. Le **Chapitre 1** traite de l'état de l'art actuel de la conception de machines haute vitesse. Les différents défis de conception et de réalisation sont exposés et discutés ainsi que les principales solutions possibles. Le **Chapitre 2** présente différents modèles adaptés aux machines haute vitesse permettant d'aider le concepteur dans son processus. L'implantation de la méthode de conception directe par calcul de champs à l'aide de MATLAB, PYTHON et CEDRAT FLUX est exposé dans le **Chapitre 3** alors que son utilisation pour l'obtention de règles de conception et son application sur un générateur de 80kW fonctionnant à 70000 rpm sont traités au **Chapitre 4**. Finalement, le **Chapitre 5** traite des différentes solutions aux problèmes majeurs des pertes dans les aimants. / Conception of a high-speed electrical machine is a complex multiphisics problem. Mechanical constraints in the rotor are high and rotor dynamics cannot be neglected otherwise excessive vibrations could destroy the machine. Even aerodynamic losses caused by friction between the rotor and the air in the air gap cannot be neglected. High-speed also implies high electrical frequency and therefore additional losses in the windings, iron losses, losses in the rotor et switching losses in power electronics. Rotor losses, for example, raise the temperature of the magnets and may alter their performance or even demagnetize them. The designer must therefore show ingenuity to find solutions and compromises between these numerous problems while considering the multiphysics couplings. For example, increasing switching frequency of the inverter allows the reduction of rotor losses, but increases switching losses in power components, hence the need to reach a compromise. Since Surface Mounted Permanent Magnet synchronous (SMPM) machines are promising for operating at high speeds and power density, the aim of this research is to develop an optimization process adapted to this type of machine that makes it possible to deduce design rules. Parametric magnetodynamic and magneto-harmonic FEA simulations are directly driven by an optimization algorithm to allow accurate estimation of parameters that are difficult to evaluate for various design spaces and topologies. A comparative study of motors optimized for different speeds and power density made it possible to deduce design rules such as the choice of the number of poles and the balance between copper losses and iron losses. First, Chapter 1 introduces the current state of the art for high-speed machines designs. Various design and fabrication challenges are discussed as well as popular solutions. Chapter 2 shows models adapted to high-speed machines to help the designer in his process. Implementation of the optimization process by direct field calculation using MATLAB, PYTHON and CEDRAT FLUX is shown in chapter 3 while its use for obtaining design rules and its application for an 80 kW generator are in chapter 4. Finally, a few solutions for magnet losses are studied in chapter 5.
|
24 |
Optimisation des transferts inter-sites chez un fabricant de produits agricolesNde Pekuelkue, Hornella Sylvanie 27 January 2024 (has links)
Ce mémoire aborde la problématique des transferts inter-sites. Utilisés comme moyen d'accroître la disponibilité des produits, de limiter les ruptures de stocks, et de mieux servir les clients, les transferts inter-sites tendent à devenir un fardeau pour les entreprises lorsque la gestion de l'inventaire est inefficace et décentralisée. Ils sont en effet sources de coûts, de transports parfois inutiles, et d'émissions de gaz à effet de serre, d'où la nécessité de les optimiser. En collaboration avec un partenaire industriel dans le secteur agricole, ce projet vise l'optimisation des coûts et émissions associés aux transferts inter-sites. Pour y parvenir, nous modélisons et résolvons un problème d'inventory transshipment problem, dont la fonction objectif est la minimisation du coût total, comprenant les coûts de transfert, de distribution, de stockage et de location. Nos résultats montrent que d'importants gains peuvent être obtenus grâce à la gestion centralisée de l'inventaire et à l'intégration des décisions. On observe une réduction comprise entre 36,86% et 99,92% pour les coûts de transferts, 41,33% et 99,98% pour les émissions associées aux transferts, et 0,56% et 92,48% pour le coût total. Le présent document est structuré comme suit. Premièrement, une introduction générale est présentée. Puis, les données sont analysées dans le chapitre 1. Le problème est ensuite résolu dans le chapitre 2. Finalement, nos conclusions et des orientations pour de futurs travaux sont présentées. / This master thesis addresses the issue of inter-plants transfers. Although used as a strategy to increase products availability, manage unanticipated stock-outs, and improve service levels, inter-plant transfers tend to become a burden on companies when inventory management is inefficient and decentralized. Indeed, they generate important costs and contribute to greenhouse gas emissions. Thus, they must be optimized. In collaboration with an industrial partner in the agricultural sector, this project aims to optimize costs and emissions linked to inter-plant transfers. In order to achieve that, we model and solve an inventory transshipment problem in which the objective function minimises total costs consisting of transshipment, distribution, inventory, and renting costs. Our results show that significant gains can be achieved through centralized inventory management and integration. We observe savings between 36.86% and 99.92% for transshipment costs, 41.33% and 99.98% for emissions linked to transfers, and 0.56% and 92.48% for the total cost. This document is organized as follows. First, a general introduction is presented. Then, data are analyzed in Chapter 1. The optimization problem is solved in Chapter 2. Finally, our conclusions and directions for future work are presented.
|
25 |
Processus interactif d'optimisation avec prise en charge des préférences de l'utilisateurGauthier, Alexis 22 October 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020. / Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée. / A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
|
26 |
Development of a GIS-based method for sensor network deployment and coverage optimizationArgany, Meysam 23 April 2018 (has links)
Au cours des dernières années, les réseaux de capteurs ont été de plus en plus utilisés dans différents contextes d’application allant de la surveillance de l’environnement au suivi des objets en mouvement, au développement des villes intelligentes et aux systèmes de transport intelligent, etc. Un réseau de capteurs est généralement constitué de nombreux dispositifs sans fil déployés dans une région d'intérêt. Une question fondamentale dans un réseau de capteurs est l'optimisation de sa couverture spatiale. La complexité de l'environnement de détection avec la présence de divers obstacles empêche la couverture optimale de plusieurs zones. Par conséquent, la position du capteur affecte la façon dont une région est couverte ainsi que le coût de construction du réseau. Pour un déploiement efficace d'un réseau de capteurs, plusieurs algorithmes d'optimisation ont été développés et appliqués au cours des dernières années. La plupart de ces algorithmes reposent souvent sur des modèles de capteurs et de réseaux simplifiés. En outre, ils ne considèrent pas certaines informations spatiales de l'environnement comme les modèles numériques de terrain, les infrastructures construites humaines et la présence de divers obstacles dans le processus d'optimisation. L'objectif global de cette thèse est d'améliorer les processus de déploiement des capteurs en intégrant des informations et des connaissances géospatiales dans les algorithmes d'optimisation. Pour ce faire, trois objectifs spécifiques sont définis. Tout d'abord, un cadre conceptuel est développé pour l'intégration de l'information contextuelle dans les processus de déploiement des réseaux de capteurs. Ensuite, sur la base du cadre proposé, un algorithme d'optimisation sensible au contexte local est développé. L'approche élargie est un algorithme local générique pour le déploiement du capteur qui a la capacité de prendre en considération de l'information spatiale, temporelle et thématique dans différents contextes d'applications. Ensuite, l'analyse de l'évaluation de la précision et de la propagation d'erreurs est effectuée afin de déterminer l'impact de l'exactitude des informations contextuelles sur la méthode d'optimisation du réseau de capteurs proposée. Dans cette thèse, l'information contextuelle a été intégrée aux méthodes d'optimisation locales pour le déploiement de réseaux de capteurs. L'algorithme développé est basé sur le diagramme de Voronoï pour la modélisation et la représentation de la structure géométrique des réseaux de capteurs. Dans l'approche proposée, les capteurs change leur emplacement en fonction des informations contextuelles locales (l'environnement physique, les informations de réseau et les caractéristiques des capteurs) visant à améliorer la couverture du réseau. La méthode proposée est implémentée dans MATLAB et est testée avec plusieurs jeux de données obtenus à partir des bases de données spatiales de la ville de Québec. Les résultats obtenus à partir de différentes études de cas montrent l'efficacité de notre approche. / In recent years, sensor networks have been increasingly used for different applications ranging from environmental monitoring, tracking of moving objects, development of smart cities and smart transportation system, etc. A sensor network usually consists of numerous wireless devices deployed in a region of interest. A fundamental issue in a sensor network is the optimization of its spatial coverage. The complexity of the sensing environment with the presence of diverse obstacles results in several uncovered areas. Consequently, sensor placement affects how well a region is covered by sensors as well as the cost for constructing the network. For efficient deployment of a sensor network, several optimization algorithms are developed and applied in recent years. Most of these algorithms often rely on oversimplified sensor and network models. In addition, they do not consider spatial environmental information such as terrain models, human built infrastructures, and the presence of diverse obstacles in the optimization process. The global objective of this thesis is to improve sensor deployment processes by integrating geospatial information and knowledge in optimization algorithms. To achieve this objective three specific objectives are defined. First, a conceptual framework is developed for the integration of contextual information in sensor network deployment processes. Then, a local context-aware optimization algorithm is developed based on the proposed framework. The extended approach is a generic local algorithm for sensor deployment, which accepts spatial, temporal, and thematic contextual information in different situations. Next, an accuracy assessment and error propagation analysis is conducted to determine the impact of the accuracy of contextual information on the proposed sensor network optimization method. In this thesis, the contextual information has been integrated in to the local optimization methods for sensor network deployment. The extended algorithm is developed based on point Voronoi diagram in order to represent geometrical structure of sensor networks. In the proposed approach sensors change their location based on local contextual information (physical environment, network information and sensor characteristics) aiming to enhance the network coverage. The proposed method is implemented in MATLAB and tested with several data sets obtained from Quebec City spatial database. Obtained results from different case studies show the effectiveness of our approach.
|
27 |
Description, déploiement et optimisation de chaînes de traitements d'analyse d'images médicales sur grilles de productionGlatard, Tristan 20 November 2007 (has links) (PDF)
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues.
|
28 |
Optimization of (R, Q) policies for multi-echelon inventory systems with guaranteed service / Optimisation de politiques de stockage (R, Q) pour les systèmes multi-échelons avec service garantiLi, Peng 09 July 2013 (has links)
Face à une concurrence féroce par suite de la modélisation économique, les entreprises doivent bien gérer leurs chaînes logistiques afin de réduire leurs coûts d’exploitation tout en améliorant leurs services au client. Un enjeu majeur de cette gestion et la gestion efficace des stocks multi-échelons. Dans cette thèse, nous étudions des systèmes de stocks multi-échelons avec des coûts de passation de commande à chaque stock. En raison de l’existence des coûts de passation de commande, l’optimisation d’un tel système devient très compliquée. Récemment, l’approche de service garanti (GSA) a été utilisée pour déterminer les stocks de sécurité pour les systèmes de stocks multi-échelons, mais sans coûts fixes de passation de commande. Nous généralisons la GSA pour optimiser la politique de stockage (R, Q) d’un système de stocks multi-échelons avec la demande suivant un processus de Poisson et coûts fixes de passation de commande à chaque stock. Nous considérons trois types de systèmes de stocks multi-échelons, et pour chaque type, nous d'abord établissons un modèle mathématique pour le problème d’optimisation. Ensuite, le modèle est résolu par une procédure itérative fondée sur deux algorithmes de programmation dynamique (DP). Un algorithme DP est utilisé pour résoudre le sous-problème de détermination de quantités de commande et l'autre est utilisé pour résoudre le sous-problème de détermination de points de recommande du modèle. Les résultats numériques démontrent l'efficacité des algorithmes et de la procédure / With the increasing complexity of supply chains led by economic globalization, integrated supply chain management has become an important strategy utilized by the firms to reduce the overall cost while meeting the customer service. This change has made academic researchers and industrial practitioners pay more and more attention to multi-echelon inventory management over the last two decades. In this thesis, we study multi-echelon inventory systems with fixed order costs at each stock. Because of the existence of fixed order costs, the optimization of such system becomes very complicated. Recently, Guaranteed Service Approach (GSA) was used to set safety stock for multi-echelon inventory systems, but without fixed order costs. We extend the GSA to optimize (R, Q) inventory policies for multi-echelon inventory systems with Poisson demand and fixed order costs. Our objective is to find optimal (R, Q) policy for such a system so that its total cost is minimized while achieving a service level to customer. Three types of multi-echelon inventory systems, serial systems, assembly systems and two-level distribution systems are considered. For each type, we first establish a mathematical model for the optimization problem. Then, the model is solved by an iterative procedure based on two dynamic programming (DP) algorithms. One DP algorithm is used to solve the order size decision subproblem and the other is used to solve the reorder point decision subproblem of the model. Numerical experiments demonstrate the efficiency of the algorithms and the procedure
|
29 |
Optimisation de la conception du stockage de déchets radioactifs HA-MAVL à l’aide de la gestion de flux / Flow design optimization of storing radioactive waste ha-mavlRubaszewski, Julie 20 November 2013 (has links)
Ce projet de recherche s’inscrit dans un partenariat entre l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) et le LOSI de l’Institut Charles Delaunay (STMR UMR CNRS), UTT.La thèse vise à dimensionner les ouvrages de stockage vis-à-vis des divers flux industriels. Les flux concernés sont de nature variée et cela constitue l’une des caractéristiques du stockage. Les ouvrages doivent en effet être conçus pour permettre un développement progressif, à l’origine d’une coexistence de flux nucléaires (les colis de déchets nucléaires et les flux associés, telle la ventilation nucléaire) et de flux de chantiers conventionnels. Le dimensionnement des flux et la conception des ouvrages pour autoriser ces flux se trouvent donc au cœur du processus de conception du stockage.La problématique de notre partenaire industriel porte sur la conception de réseau (appelé flow path design). Notre contribution est dédiée au développement de modèles de flow path design avec de nouvelles contraintes ainsi qu’au développement de méthodes. Les extensions au modèle de base prennent en compte une flotte hétérogène, des segments interdits d’accès à certains véhicules et des coûts de construction. Différentes méthodes d'optimisation approchées ont aussi été développées et testées. Il s’agit de métaheuristiques basées sur les recherches locales, l’algorithme de colonies de fourmis ainsi que l’algorithme des abeilles. L’efficacité des méthodes est prouvée grâce à des tests sur des instances de la littérature et l’application au cas réel est faite par simulation / This research project is part of a partnership between ANDRA (National Agency for Radioactive Waste Management) and the LOSI, Institut Charles Delaunay (TSR UMR CNRS), UTT.The thesis aims to design the storage structures for various industrial flows. Flows involved are varied in nature and it is one of the characteristics of the storage. The works must be designed to effect a gradual development, from a "coactivity", that is to say, a coexistence of nuclear flux (the nuclear waste packages and the associated flow, such nuclear ventilation) and conventional flow sites. The design flow and the design of structures to allow these flows are therefore at the heart of the design process of storage.The problem of our industrial partner focuses on flow path design. Our contribution is dedicated to the development of models of flow path design with new constraints and the development of methods. Extensions to the basic model takes into account different type of vehicle, not allowed some segments and taking into account construction costs. Different optimization methods have also been developed and tested. Metaheuristics are based on local search, the ant colony algorithm and the algorithm of bees. Efficiency of methods is demonstrated through tests on literature benchmarks and application to the real case is done by simulation
|
30 |
Méthodes d'optimisation pour l'analyse de processus invariants d'échelle / Optimization methods for the analysis of scale invariant processesFrécon, Jordan 11 October 2016 (has links)
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation. / Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter.
|
Page generated in 0.1062 seconds