• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 20
  • 1
  • Tagged with
  • 46
  • 46
  • 17
  • 15
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Résolution par sous-domaines de problèmes linéaires par la méthode optimisée de Schwarz

Maheux, Dominique 19 April 2018 (has links)
Nous allons étudier la résolution de problèmes linéaires en trois dimensions à l'aide de la méthode optimisée de Schwarz. Pour ce faire, nous allons d'abord présenter la méthode classique de Schwarz. Nous ferons une étude de convergence pour un problème type à l'aide de l'analyse de Fourier. Par la suite, nous expliquerons brièvement la méthode de discrétisation utilisée dans nos calculs, c'est-à-dire celle des éléments finis. Nous en profiterons pour présenter les problèmes à l'étude, soit les problèmes de diffusion et d'élasticité linéaire. Nous regarderons ensuite une généralisation de la méthode classique qui mènera à la méthode optimisée de Schwarz. De plus, nous proposerons la version discrète de la méthode optimisée. Finalement, quelques résultats numériques seront présentés. Nous mettrons en évidence plusieurs choix optimaux de paramètres pour des domaines homogènes et hétérogènes.
12

Optimum-synthesis methods for cable-driven parallel mechanisms

Azizian, Kaveh 19 April 2018 (has links)
Les mécanismes parallèles entraînés par câbles sont une classe spéciale de mécanismes parallèles pours lesquels les liaisons rigides sont remplacées par des câbles. Ces mécanismes comprennent une plateforme mobile et une base fixe, qui sont reliées par plusieurs câbles. Le contrôle des longueurs des câbles produit le mouvement désiré de la plateforme mobile. Ces mécanismes ont le potentiel de fournir des espaces de travail à grande échelle comparativement aux mécanismes parallèles conventionnels car les câbles peuvent être enroulés sur des bobines sur de grandes longueurs. Cependant, cette caractéristique est limitée par la nature des câbles, qui doivent demeurer en tension afin de produire un mouvement désiré de la plateforme principale. L'objectif principal de cette thèse est de concevoir des méthodes efficaces pour la synthèse dimensionelle optimale des mécanismes parallèles entraînés par câbles surcontraints, c'est-à-dire, des mécanismes pour lesquels le nombre de câbles excède le nombre de degrés de liberté. Plus précisément, nous souhaitons obtenir la géométrie des mécanismes parallèles entraînés par câbles dont l'espace des poses polyvalente (EPP) comprend des espaces de travail prescrits. L'espace des poses polyvalentes d'un mécanisme parallèle entraîné par câbles est l'ensemble des poses (les positions et les orientations) de l'organe terminal pour lesquelles tous les torseurs appliqués sont réalisables. Un torseur appliqué est dit réalisable, s'il peut être produit par un ensemble de câbles dont les tensions sont non-négatives. Une fois le problème de la synthèse dimensionnelle résolu, nous pouvons appliquer la solution à plusieurs reprises pour différents nombres de câbles afin d'effectuer la synthèse de la structure. Cette thèse est divisée en trois parties principales. Tout d'abord, l'espace des poses polyvalentes des mécanismes parallèles plans entraînés par câbles et les caractéristiques de leurs frontières sont étudiés. Cette étude révèle les relations jusqu'ici inconnues entre l'EPP à orientation constante (EPPOC) et les aires orientées. Un algorithme graphique est proposé afin de déterminer les types de sections coniques formant les frontières de l'EPPOC . Puis, sur la base des expressions mathématiques obtenues, une méthodologie est proposée pour résoudre le problème de la synthèse dimensionnelle des mécanismes parallèles plans entraînés par câbles pour les orientations discrètes c'est-àdire, les translations. L'algorithme est basé sur des techniques de relaxation convexe qui nous amènent à formuler la synthèse dimensionnelle comme un programme non linéaire. L'idée est de maximiser la taille de plusieurs boîtes qui représentent une approximation d'un espace de travail prescrit, tout en essayant de les garder à l'intérieur de l'EPP du mécanisme parallèle plan entraîné par câbles pendant la procédure d' optimisation. Une telle approximation de l'espace de travail prescrit est obtenue via la méthode d'analyse par intervalles. L'algorithme obtenu est étendu au cas de l'orientation en continu pour un intervalle donné d'angles d'orientation. En fait, nous introduisons un programme non linéaire permettant de varier la géométrie du mécanisme parallèle plan entraîné par câbles et maximiser le facteur d'échelle de l'ensemble prescrit de boîtes. Lorsque le facteur d'échelle optimal est supérieur ou égal à un, l'EPP du mécanismes parallèle plan entraîné par câbles résultant contient l'ensemble des boîtes prescrit. Sinon, l'EPP obtenu offre généralement une bonne couverture des boîtes prescrites. Enfin, sur la base des résultats obtenus pour des mécanismes parallèles plans entraînés par câbles, un algorithme est proposé pour résoudre la synthèse dimensionelle de mécanismes parallèles spatiaux entraînés par câbles. Comme pour le cas plan, nous proposons un programme non linéaire à grande échelle dont les solutions optimales peuvent fournir des geometries de mécanismes parallèles spatiaux entraînés par câbles pour un espace de travail prescrit dans une plage donnée des angles d'orientation. L'efficacité de ces méthodes est émontrée par plusieurs exemples en utilisant un logiciel développé. En outre, cette thèse fournit un outil efficace pour les concepteurs de robots parallèles entraînés par câbles
13

Améliorations aux systèmes à initiative partagée humain-ordinateur pour l'optimisation des systèmes linéaires

Chéné, François 02 February 2021 (has links)
La programmation linéaire permet d’effectuer l’optimisation de la gestion des réseaux de création de valeur. Dans la pratique, la taille de ces problèmes demande l’utilisation d’un ordinateur pour effectuer les calculs nécessaires, et l’algorithme du simplexe, entre autres, permet d’accomplir cette tâche. Ces solutions sont cependant construites sur des modèles approximatifs et l’humain est généralement méfiant envers les solutions sorties de « boîtes noires ». Les systèmes à initiative partagée permettent une synergie entre, d’une part, l’intuition et l’expérience d’un décideur humain et, d’autre part, la puissance de calcul de l’ordinateur. Des travaux précédents au sein du FORAC ont permis l’application de cette approche à la planification tactique des opérations des réseaux de création de valeur. L’approche permettrait l’obtention de solutions mieux acceptées. Elle a cependant une interface utilisateur limitée et contraint les solutions obtenues à un sous-espace de l’ensemble des solutions strictement optimales. Dans le cadre de ce mémoire, les principes de conception d’interface humain-machine sont appliqués pour concevoir une interface graphique plus adaptée à l’utilisateur type du système. Une interface basée sur le modèle de présentation de données de l’outil Logilab, à laquelle sont intégrées les interactivités proposées par Hamel et al. est présentée. Ensuite, afin de permettre à l’expérience et à l’intuition du décideur humain de compenser les approximations faites lors de la modélisation du réseau de création de valeur sous forme de problème linéaire, une tolérance quant à l’optimalité des solutions est introduite pour la recherche interactive de solutions alternatives. On trouvera un nouvel algorithme d’indexation des solutions à combiner et une nouvelle heuristique de combinaison convexe pour permettre cette flexibilité. Afin d‘augmenter la couverture de l’espace solutions accessible au décideur humain, un algorithme de recherche interactive de solution basé sur le simplexe est introduit. Cet algorithme présente une stabilité similaire à la méthode de Hamel et al., mais ses performances en temps de calcul sont trop basses pour offrir une interactivité en temps réel sur de vrais cas industriels avec les ordinateurs présentement disponibles.Une seconde approche d’indexation complète de l’espace solutions est proposée afin de réduire les temps de calcul. Les nouveaux algorithmes « Linear Redundancyless Recursive Research » (Recherche linéaire récursive sans redondance, LRRR) pour la cartographie et l’indexation de l’espace solutions et « N-Dimension Navigation Direction » (direction de navigation à n-dimensions, NDND) pour l’exploration interactive de celui-ci sont présentés. Ces algorithmes sont justes et rapides, mais ont cependant un coût mémoire au-delà de la capacité des ordinateurs contemporains. Finalement, d’autres pistes d’exploration sont présentées, notamment l’exploitation des méthodes du point intérieur et de l’algorithme de Karmarkar ainsi qu’une ébauche d’approche géométrique.
14

Modèles et algorithmes pour la planification de production à moyen terme en environnement incertain

Lenoir, Arnaud 14 November 2008 (has links) (PDF)
Nous nous intéressons dans cette thèse aux problèmes d'optimisation de systèmes de grande taille en environnement incertain et plus particulièrement à la résolution de leurs équivalents déterministes par des méthodes de décomposition de type proximal. L'application sous-jacente que nous avons à l'esprit est celle de la gestion optimale de la production électrique d'EDF soumise aux aléas climatique, de marche et de consommation. Nous mettons 'a plat les couplages naturels espace-temps- aléas liés à cette application et proposons deux nouveaux schémas de discrétisation pour le couplage des aléas, bas'es sur l'estimation non-paramétrique de espérance conditionnelle, qui constituent des alternatives à la construction d'arbres de scénarios. Nous nous intéressons ensuite aux méthodes de décomposition en travaillant sur un modèle général, celui de la minimisation d'une somme de deux fonctions convexes, la première séparable et l'autre couplante. D'une part, ce modèle simplifie nous exonéré de la technicité due à un choix particulier de cou- plage et de sous-système. D'autre part hypothèse de convexité permet de tirer parti de la théorie des opérateurs monotones et de l'identification des méthodes proximales comme des algorithmes de points fixes. Nous mettons l'accent sur les propriétés différentielles des opérateurs de réflexion généralisée dont on cherche un point fixe, qui permettent de borner la vitesse de convergence. Nous étudions ensuite deux familles d'algorithmes de décomposition-coordination issues des méthodes dites d'éclatement d'opérateurs, à savoir les méthodes Forward-Backward et de type Rachford. Nous suggérons quelques techniques d'accélération de la convergence des méthodes de type Rachford. Pour cela, nous analysons dans un premier temps la méthode d'un point de vue théorique, fournissant ainsi des explications à certaines observations numériques, avant de proposer des améliorations en réponse. Parmi elles, une mise a' jour automatique du facteur d'échelle permet de corriger son éventuel mauvais choix initial. La preuve de convergence de cette technique se voit facilitée grâce aux résultats de stabilité de certaines lois internes vis a' vis de la convergence graphique établis en amont. Nous soumettons aussi l'idée d'introduire des "sauts" dans la méthode lorsqu'elle est appliquée à des problèmes polyédraux, en fondant nos argument sur la géométrie formée par la suite des itérés. En dernier lieu, nous montrons qu'il est possible, en ajoutant un mécanisme de contrôle, de s'affranchir de la résolution de tous les sous-problèmes à chaque itération en préservant la convergence globale. L'intérêt pratique de ces suggestions est confirmé par des tests numériques sur le problème de gestion de production électrique.
15

Estimation de paramètres et de conditions limites thermiques en conduction instationnaire pour des matériaux anisotropes. Apport des algorithmes stochastiques à la conception optimale d'expérience.

Ruffio, Emmanuel 01 December 2011 (has links) (PDF)
Cette étude porte sur deux types de problèmes inverses en thermique : l'estimation de propriétés thermophysiques de matériaux anisotropes et l'estimation de conditions limites. Dans un premier temps, la méthode flash 3D permet d'estimer la diffusivité thermique dans les trois directions principales d'un matériau anisotrope. Pour cela, un dispositif expérimental spécifique a été développé. Il s'appuie essentiellement sur un laser CO2 comme source de puissance thermique et sur la thermographie infrarouge comme instrument de mesure. En associant à l'expérimentation un modèle analytique des transferts thermiques dans l'échantillon, un estimateur permet d'obtenir les diffusivités thermiques recherchées. Au cours de ce travail, différents estimateurs ont été proposés et comparés à travers notamment leurs écarts types. Par ailleurs, il est proposé également une méthode de conception optimale d'expérience permettant de diminuer davantage ces écarts types. Dans un deuxième temps, on s'intéresse à l'estimation de conditions aux limites thermiques d'un système faisant intervenir les matériaux dont on connait les propriétés thermophysiques, à partir de mesures de température par thermocouples. La première application concerne la caractérisation les transferts thermiques instationnaires gaz-paroi pendant la phase de remplissage de bouteilles d'hydrogène haute pression. La seconde application porte sur l'estimation du flux de chaleur absorbé par des matériaux composites soumis à une flamme oxygène/acétylène. Ces travaux font appel à différentes méthodes d'optimisation, aussi bien des algorithmes classiques de type gradient, que des algorithmes stochastiques. Ces derniers se sont révélés particulièrement adaptés à la conception optimale d'expériences.
16

De la conception physique aux outils d'administration et de tuning des entrepôts de données

Boukhalfa, Kamel 02 July 2009 (has links) (PDF)
Nous visons à travers cette thèse à proposer un ensemble d'approches permettant d'optimiser les entrepôts de données et d'aider l'AED à bien mener cette optimisation. Nos approches d'optimisation reposent sur l'utilisation de trois techniques d'optimisation : la fragmentation horizontale primaire, dérivée et les index de jointure binaires (IJB). Nous commençons par proposer une approche de fragmentation qui prend en considération à la fois la performance (réduction du coût d'exécution) et la manageabilité (contrôle du nombre de fragments générés). Nous proposons ensuite une approche gloutonne de sélection d'IJB. L'utilisation séparée de la fragmentation horizontale (FH) et des IJB ne permet pas d'exploiter les similarités existantes entre ces deux techniques. Nous proposons une approche de sélection conjointe de la FH et des IJB. Cette approche peut être utilisée pour le tuning de l'entrepôt. Nous avons mené plusieurs expériences pour valider nos différentes approches. Nous proposons par la suite un outil permettant d'aider l'AED dans ses tâches de conception physique et de tuning.<br />Mots clés : Conception physique, Tuning, Techniques d'optimisation, Fragmentation Horizontale, Index de Jointure Binaires.
17

Bayesian hyperparameter optimization : overfitting, ensembles and conditional spaces

Lévesque, Julien-Charles 24 April 2018 (has links)
Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés. / In this thesis, we consider the analysis and extension of Bayesian hyperparameter optimization methodology to various problems related to supervised machine learning. The contributions of the thesis are attached to 1) the overestimation of the generalization accuracy of hyperparameters and models resulting from Bayesian optimization, 2) an application of Bayesian optimization to ensemble learning, and 3) the optimization of spaces with a conditional structure such as found in automatic machine learning (AutoML) problems. Generally, machine learning algorithms have some free parameters, called hyperparameters, allowing to regulate or modify these algorithms’ behaviour. For the longest time, hyperparameters were tuned by hand or with exhaustive search algorithms. Recent work highlighted the conceptual advantages in optimizing hyperparameters with more rational methods, such as Bayesian optimization. Bayesian optimization is a very versatile framework for the optimization of unknown and non-derivable functions, grounded strongly in probabilistic modelling and uncertainty estimation, and we adopt it for the work in this thesis. We first briefly introduce Bayesian optimization with Gaussian processes (GP) and describe its application to hyperparameter optimization. Next, original contributions are presented on the dangers of overfitting during hyperparameter optimization, where the optimization ends up learning the validation folds. We show that there is indeed overfitting during the optimization of hyperparameters, even with cross-validation strategies, and that it can be reduced by methods such as a reshuffling of the training and validation splits at every iteration of the optimization. Another promising method is demonstrated in the use of a GP’s posterior mean for the selection of final hyperparameters, rather than directly returning the model with the minimal crossvalidation error. Both suggested approaches are demonstrated to deliver significant improvements in the generalization accuracy of the final selected model on a benchmark of 118 datasets. The next contributions are provided by an application of Bayesian hyperparameter optimization for ensemble learning. Stacking methods have been exploited for some time to combine multiple classifiers in a meta classifier system. Those can be applied to the end result of a Bayesian hyperparameter optimization pipeline by keeping the best classifiers and combining them at the end. Our Bayesian ensemble optimization method consists in a modification of the Bayesian optimization pipeline to search for the best hyperparameters to use for an ensemble, which is different from optimizing hyperparameters for the performance of a single model. The approach has the advantage of not requiring the training of more models than a regular Bayesian hyperparameter optimization. Experiments show the potential of the suggested approach on three different search spaces and many datasets. The last contributions are related to the optimization of more complex hyperparameter spaces, namely spaces that contain a structure of conditionality. Conditions arise naturally in hyperparameter optimization when one defines a model with multiple components – certain hyperparameters then only need to be specified if their parent component is activated. One example of such a space is the combined algorithm selection and hyperparameter optimization, now better known as AutoML, where the objective is to choose the base model and optimize its hyperparameters. We thus highlight techniques and propose new kernels for GPs that handle structure in such spaces in a principled way. Contributions are also supported by experimental evaluation on many datasets. Overall, the thesis regroups several works directly related to Bayesian hyperparameter optimization. The thesis showcases novel ways to apply Bayesian optimization for ensemble learning, as well as methodologies to reduce overfitting or optimize more complex spaces. / Dans cette thèse, l’optimisation bayésienne sera analysée et étendue pour divers problèmes reliés à l’apprentissage supervisé. Les contributions de la thèse sont en lien avec 1) la surestimation de la performance de généralisation des hyperparamètres et des modèles résultants d’une optimisation bayésienne, 2) une application de l’optimisation bayésienne pour la génération d’ensembles de classifieurs, et 3) l’optimisation d’espaces avec une structure conditionnelle telle que trouvée dans les problèmes “d’apprentissage machine automatique” (AutoML). Généralement, les algorithmes d’apprentissage automatique ont des paramètres libres, appelés hyperparamètres, permettant de réguler ou de modifier leur comportement à plus haut niveau. Auparavant, ces hyperparamètres étaient choisis manuellement ou par recherche exhaustive. Des travaux récents ont souligné la pertinence d’utiliser des méthodes plus intelligentes pour l’optimisation d’hyperparamètres, notamment l’optimisation bayésienne. Effectivement, l’optimisation bayésienne est un outil polyvalent pour l’optimisation de fonctions inconnues ou non dérivables, ancré fortement dans la modélisation probabiliste et l’estimation d’incertitude. C’est pourquoi nous adoptons cet outil pour le travail dans cette thèse. La thèse débute avec une introduction de l’optimisation bayésienne avec des processus gaussiens (Gaussian processes, GP) et décrit son application à l’optimisation d’hyperparamètres. Ensuite, des contributions originales sont présentées sur les dangers du surapprentissage durant l’optimisation d’hyperparamètres, où l’on se trouve à mémoriser les plis de validation utilisés pour l’évaluation. Il est démontré que l’optimisation d’hyperparamètres peut en effet mener à une surestimation de la performance de validation, même avec des méthodologies de validation croisée. Des méthodes telles que le rebrassage des plis d’entraînement et de validation sont ensuite proposées pour réduire ce surapprentissage. Une autre méthode prometteuse est démontrée dans l’utilisation de la moyenne a posteriori d’un GP pour effectuer la sélection des hyperparamètres finaux, plutôt que sélectionner directement le modèle avec l’erreur minimale en validation croisée. Les deux approches suggérées ont montré une amélioration significative sur la performance en généralisation pour un banc de test de 118 jeux de données. Les contributions suivantes proviennent d’une application de l’optimisation d’hyperparamètres pour des méthodes par ensembles. Les méthodes dites d’empilage (stacking) ont précédemment été employées pour combiner de multiples classifieurs à l’aide d’un métaclassifieur. Ces méthodes peuvent s’appliquer au résultat final d’une optimisation bayésienne d’hyperparamètres en conservant les meilleurs classifieurs identifiés lors de l’optimisation et en les combinant à la fin de l’optimisation. Notre méthode d’optimisation bayésienne d’ensembles consiste en une modification du pipeline d’optimisation d’hyperparamètres pour rechercher des hyperparamètres produisant de meilleurs modèles pour un ensemble, plutôt que d’optimiser pour la performance d’un modèle seul. L’approche suggérée a l’avantage de ne pas nécessiter plus d’entraînement de modèles qu’une méthode classique d’optimisation bayésienne d’hyperparamètres. Une évaluation empirique démontre l’intérêt de l’approche proposée. Les dernières contributions sont liées à l’optimisation d’espaces d’hyperparamètres plus complexes, notamment des espaces contenant une structure conditionnelle. Ces conditions apparaissent dans l’optimisation d’hyperparamètres lorsqu’un modèle modulaire est défini – certains hyperparamètres sont alors seulement définis si leur composante parente est activée. Un exemple de tel espace de recherche est la sélection de modèles et l’optimisation d’hyperparamètres combinée, maintenant davantage connu sous l’appellation AutoML, où l’on veut à la fois choisir le modèle de base et optimiser ses hyperparamètres. Des techniques et de nouveaux noyaux pour processus gaussiens sont donc proposées afin de mieux gérer la structure de tels espaces d’une manière fondée sur des principes. Les contributions présentées sont appuyées par une autre étude empirique sur de nombreux jeux de données. En résumé, cette thèse consiste en un rassemblement de travaux tous reliés directement à l’optimisation bayésienne d’hyperparamètres. La thèse présente de nouvelles méthodes pour l’optimisation bayésienne d’ensembles de classifieurs, ainsi que des procédures pour réduire le surapprentissage et pour optimiser des espaces d’hyperparamètres structurés.
18

Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriques

Gagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
19

Processus interactif d'optimisation avec prise en charge des préférences de l'utilisateur

Gauthier, Alexis 22 October 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020. / Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée. / A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
20

Optimisation des transferts inter-sites chez un fabricant de produits agricoles

Nde Pekuelkue, Hornella Sylvanie 17 June 2021 (has links)
Ce mémoire aborde la problématique des transferts inter-sites. Utilisés comme moyen d'accroître la disponibilité des produits, de limiter les ruptures de stocks, et de mieux servir les clients, les transferts inter-sites tendent à devenir un fardeau pour les entreprises lorsque la gestion de l'inventaire est inefficace et décentralisée. Ils sont en effet sources de coûts, de transports parfois inutiles, et d'émissions de gaz à effet de serre, d'où la nécessité de les optimiser. En collaboration avec un partenaire industriel dans le secteur agricole, ce projet vise l'optimisation des coûts et émissions associés aux transferts inter-sites. Pour y parvenir, nous modélisons et résolvons un problème d'inventory transshipment problem, dont la fonction objectif est la minimisation du coût total, comprenant les coûts de transfert, de distribution, de stockage et de location. Nos résultats montrent que d'importants gains peuvent être obtenus grâce à la gestion centralisée de l'inventaire et à l'intégration des décisions. On observe une réduction comprise entre 36,86% et 99,92% pour les coûts de transferts, 41,33% et 99,98% pour les émissions associées aux transferts, et 0,56% et 92,48% pour le coût total. Le présent document est structuré comme suit. Premièrement, une introduction générale est présentée. Puis, les données sont analysées dans le chapitre 1. Le problème est ensuite résolu dans le chapitre 2. Finalement, nos conclusions et des orientations pour de futurs travaux sont présentées. / This master thesis addresses the issue of inter-plants transfers. Although used as a strategy to increase products availability, manage unanticipated stock-outs, and improve service levels, inter-plant transfers tend to become a burden on companies when inventory management is inefficient and decentralized. Indeed, they generate important costs and contribute to greenhouse gas emissions. Thus, they must be optimized. In collaboration with an industrial partner in the agricultural sector, this project aims to optimize costs and emissions linked to inter-plant transfers. In order to achieve that, we model and solve an inventory transshipment problem in which the objective function minimises total costs consisting of transshipment, distribution, inventory, and renting costs. Our results show that significant gains can be achieved through centralized inventory management and integration. We observe savings between 36.86% and 99.92% for transshipment costs, 41.33% and 99.98% for emissions linked to transfers, and 0.56% and 92.48% for the total cost. This document is organized as follows. First, a general introduction is presented. Then, data are analyzed in Chapter 1. The optimization problem is solved in Chapter 2. Finally, our conclusions and directions for future work are presented.

Page generated in 0.1279 seconds