• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 50
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1055
  • 348
  • 219
  • 208
  • 204
  • 167
  • 145
  • 144
  • 116
  • 101
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Biométrie multimodale basée sur l’iris et le visage / Multimodal biometrics based on iris and face

Khiari, Nefissa 24 May 2016 (has links)
Cette thèse vise à apporter une contribution dans le domaine de la biométrie par l’iris (l’une des modalités les plus précises et difficiles à pirater) et le visage (l’une des modalités les moins intrusives et les moins coûteuses). A travers ce travail, nous abordons plusieurs aspects importants de la biométrie mono et multimodale. Nous commençons par dresser un état de l’art sur la biométrie monomodale par l’iris et par le visage et sur la multimodalité iris/visage, avant de proposer plusieurs approches personnelles de reconnaissance d’individus pour chacune des deux modalités. Nous abordons, en particulier, la reconnaissance faciale par des approches classiques reposant sur des combinaisons d’algorithmes et des approches bio-inspirées émulant le mécanisme de la vision humaine. Nous démontrons l’intérêt des approches bio-inspirées par rapport aux approches classiques à travers deux méthodes. La première exploite les résultats issus de travaux neuroscientifiques indiquant l’importance des régions et des échelles de décomposition utiles à l’identification d’un visage. La deuxième consiste à appliquer une méthode de codage par ordre de classement dans la phase de prétraitement pour renforcer le contenu informatif des images de visage. Nous retenons la meilleure approche de chacune des modalités de l’iris et du visage pour concevoir deux méthodes biométriques multimodales. A travers ces méthodes, nous évaluons différentes stratégies classiques de fusion multimodale au niveau des scores. Nous proposons ensuite une nouvelle règle de fusion de scores basée sur un facteur de qualité dépendant du taux d’occultation des iris. Puis, nous mettons en avant l’intérêt de l’aspect double échantillons de l’iris dans une approche multimodale.L’ensemble des méthodes proposées sont évaluées sur la base multimodale réelle IV² capturée dans des environnements variables voire dégradés et en suivant un protocole bien précis fourni dans le cadre de la campagne d’évaluation IV². Grâce à une étude comparative avec les algorithmes participants à la campagne IV², nous prouvons la compétitivité de nos algorithmes qui arrivent dans plusieurs cas à se positionner en tête de liste. / This thesis aims to make a contribution in the field of biometrics based on iris (one of the most accurate and hard to hack biometrics) in conjunction with face (one of the cheapest and less intrusive biometrics).Through this work, we discuss several important aspects of unimodal and multimodal biometrics. After an overview on unimodal and multimodal biometrics based on iris and face, we propose several personal approaches of biometric authentication using each single trait. Particularly, we address facial recognition first with conventional approaches based on combined algorithms, then with bio-inspired approaches emulating the human vision mechanism. We demonstrate the interest of bio-inspired approaches over conventional approaches through two proposed methods. The first one exploits the results of neuroscientific work indicating the relevant regions and scales in a face identification task. The second consists in applying a rank order coding method at the preprocessing step so as to enhance the information content of face images.We keep the best unimodal approach of iris and face recognition to design two multimodal biometric methods. Through these methods, we evaluate different classic strategies of multimodal score-level fusion. Afterwards, we propose a new score-level fusion rule based on a quality metric according to irises occultation rates. Then, we point out the interest of the double-sample iris aspect in a multimodal approach.All the proposed methods are evaluated on the real multimodal IV² database captured under variable to degraded environments, and following a specific protocol provided as part of the IV² evaluation campaign. After a comparative study with the participant algorithms in the IV² campaign, we prove the competitiveness of our algorithms witch outperform most of the participant ones in the IV² campaign in many experiments.
182

Un algorithme génétique pour l'arrimage moléculaire

Levac, François January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
183

Optimisation de stratifiés en utilisant un algorithme génétique

Girard, Frédéric 12 April 2018 (has links)
Ces travaux portent sur l'optimisation de structures stratifiées en utilisant un algorithme génétique. Un programme d'optimisation est développé et est ensuite appliqué à la résolution d'une série de problèmes d'optimisation pour lesquels les variables de design peuvent appartenir soit à un domaine discret soit à un domaine continu. Tout d'abord, il est question de problèmes où le nombre de plis, le matériau et l'épaisseur des plis sont fixés. Les variables de design sont alors l'orientation de chaque pli qui peut prendre, dans un premier cas, des valeurs discrètes (0ʻ, ł45ʻ, 90ʻ) puis des valeurs continues (de 0ʻ à 90ʻ). Deuxièmement, il est question de problèmes pour lesquels le nombre de plis et le matériau des plis deviennent des variables de design qui s'ajoutent alors à l'orientation des plis. Dans ces cas, la valeur des variables de design (matériaux et orientations) est choisie dans une liste de valeurs. / L'objectif de ces problèmes est, en premier lieu, la minimisation du poids ou du coût de la structure sous différentes contraintes et finalement, la minimisation du poids et du coût simultanément avec une formulation multi-objectifs. L'algorithme génétique développé utilise une stratégie multi-élitiste et empêche la présence d'individus identiques dans la population. Finalement, un algorithme génétique hybride, combinant l'algorithme génétique et une recherche locale, est développé et ensuite testé sur ces mêmes problèmes. Cette hybridation de l'algorithme résulte en une diminution du temps de calcul exigé et en une amélioration substantielle des résultats.
184

Representation learning for few-shot image classification

Afrasiyabi, Arman 13 December 2023 (has links)
En tant qu'algorithmes d'apprentissage automatique à la pointe de la technologie, les réseaux de neurones profonds nécessitent de nombreux exemples pour bien fonctionner sur une tâche d'apprentissage. La collecte et l'annotation de multiples échantillons nécessitent un travail humain important et c'est même impossible dans la plupart des problèmes du monde réel tel que l'analyse de données biomédicales. Dans le contexte de la vision par ordinateur, la classification d'images à quelques plans vise à saisir la capacité humaine à apprendre de nouveaux concepts avec peu de supervision. À cet égard, l'idée générale est de transférer les connaissances des catégories de base avec plus d'encadrement vers des classes nouvelles avec peu d'exemples. En particulier, les approches actuelles d'apprentissage à quelques coups pré entraînent un modèle sur les classes de base disponible pour généraliser aux nouvelles classes, peut-être avec un réglage fin. Cependant, la généralisation du modèle actuel est limitée en raison de certaines hypothèses lors de la préformation et de restrictions lors de l'étape de mise au point. Cette thèse vise à assouplir trois hypothèses des modèles d'apprentissage à quelques plans actuels et nous proposons un apprentissage de représentation pour la classification d'images à quelques plans. Tout d'abord, le gel d'un modèle préformé semble inévitable dans la phase de réglage fin en raison de la forte possibilité de surentraînement sur quelques exemples. Malheureusement, l'apprentissage par transfert avec une hypothèse de modèle gelé limite la capacité du modèle puisque le modèle n'est pas mis à jour avec aucune connaissance des nouvelles classes. Contrairement au gel d'un modèle, nous proposons un alignement associatif qui permet d'affiner et de mettre à jour le réseau sur de nouvelles catégories. Plus précisément, nous présentons deux stratégies qui détectent et alignent les nouvelles classes sur les catégories de base hautement liées. Alors que la première stratégie pousse la distribution des nouvelles classes au centre de leurs catégories de base associées, la seconde stratégie effectue une correspondance de distribution à l'aide d'un algorithme d'entraînement contradictoire. Dans l'ensemble, notre alignement associatif vise à éviter le surentraînement et à augmenter la capacité du modèle en affinant le modèle à l'aide de nouveaux exemples et d'échantillons de base associés. Deuxièmement, les approches actuelles d'apprentissage à quelques coups effectuent le transfert de connaissances vers de nouvelles classes distinctes sous l'hypothèse uni modale, où tous les exemples d'une seule classe sont représentés par un seul cluster. Au lieu de cela, nous proposons une approche d'apprentissage de l'espace des caractéristiques basée sur le mélange (MixtFSL) pour déduire une représentation multimodale. Alors qu'un précédent travail basé sur un modèle de mélange d'Allen et al. citeallen2019infinite est basé sur une méthode de clusters classique de manière non différentielle, notre MixtFSL est un nouveau modèle multimodale de bout en bout et entièrement différentielle. MixtFSL capture la multimodale des classes de base sans aucun algorithme de clusters classique à l'aide d'un cadre en deux étapes. La première phase s'appeler formation initiale et vise à apprendre la représentation préliminaire du mélange avec une paire de fonctions de perte. Ensuite, l'étape suivante progressive, la deuxième étape, stabilise la formation avec un cadre de formation de type enseignant-élève utilisant une fonction de perte unique. Troisièmement, contrairement aux techniques actuelles à quelques prises de vue consistant à représenter chaque exemple d'entrée avec une seule entité à la fin du réseau, nous proposons un extracteur d'entités d'ensemble et des ensembles d'entités correspondantes qui assouplissent l'hypothèse typique basée sur une seule entité en raisonnant sur des ensembles d'entités. Ici, nous émettons l'hypothèse que l'hypothèse d'une seule caractéristique est problématique dans la classification d'images à quelques prises de vue puisque les nouvelles classes sont différentes des classes de base préformées. À cette fin, nous proposons nouvel extracteur de caractéristiques d'ensemble d'apprentissage profond basé sur les réseaux de neurones hybrides convolution-attention. De plus, nous suggérons trois métriques ensemble à ensemble non paramétriques pour séduire la classe de l'entrée donnée. Cette thèse utilise plusieurs indicateurs standards publiés dans la littérature sur l'apprentissage en peu d'exemples et l'ossature de réseau pour évaluer les méthodes que nous proposons. / As the current state-of-the-art machine learning algorithms, deep neural networks require many examples to perform well on a learning task. Gathering and annotating many samples requires significant human labor, and it is even impossible in most real-world problems such as biomedical data analysis. Under the computer vision context, few-shot image classification aims at grasping the human ability to learn new concepts with little supervision. In this respect, the general idea is to transfer knowledge from base categories with more supervision to novel classes with few examples. In particular, the current few-shot learning approaches pre-train a model on available base classes to generalize to the novel classes, perhaps with fine-tuning. However, the current model's generalization is limited because of some assumptions in the pre-training and restrictions in the fine-tuning stage. This thesis aims to relax three assumptions of the current few-shot learning models, and we propose representation learning for few-shot image classification. First, freezing a pre-trained model looks inevitable in the fine-tuning stage due to the high possibility of overfitting on a few examples. Unfortunately, transfer learning with a frozen model assumption limits the model capacity since the model is not updated with any knowledge of the novel classes. In contrast to freezing a model, we propose associative alignment that enables fine-tuning and updating the network on novel categories. Specifically, we present two strategies that detect and align the novel classes to the highly related base categories. While the first strategy pushes the distribution of the novel classes to the center of their related base categories, the second strategy performs distribution matching using an adversarial training algorithm. Overall, our associative alignment aims to prevent overfitting and increase the model capacity by refining the model using novel examples and related base samples. Second, the current few-shot learning approaches perform transferring knowledge to distinctive novel classes under the uni-modal assumption, where all the examples of a single class are represented with a single cluster. Instead, we propose a mixture-based feature space learning (MixtFSL) approach to infer a multi-modal representation. While a previous mixture-model-based work of Allen et al. [1] is based on a classical clustering method in a non-differentiable manner, our MixtFSL is a new end-to-end multi-modal and fully differentiable model. MixtFSL captures the multi-modality of base classes without any classical clustering algorithm using a two-stage framework. The first phase is called initial training and aims to learn preliminary mixture representation with a pair of loss functions. Then, the progressive following stage, the second stage, stabilizes the training with a teacher-student kind of training framework using a single loss function. Third, unlike the current few-shot techniques of representing each input example with a single feature at the end of the network, we propose a set feature extractor and matching feature sets that relax the typical single feature-based assumption by reasoning on feature sets. Here, we hypothesize that the single feature assumption is problematic in few-shot image classification since the novel classes are different from pre-trained base classes. To this end, we propose a new deep learning set feature extractor based on the hybrid convolution-attention neural networks. Additionally, we offer three non-parametric set-to-set metrics to infer the class of the given input. This thesis employs several standard benchmarks of few-shot learning literature and network backbones to evaluate our proposed methods.
185

Sample Compressed PAC-Bayesian Bounds and learning algorithms

Shanian, Sara 18 April 2018 (has links)
Dans le domaine de la classification, les algorithmes d'apprentissage par compression d'échantillons sont des algorithmes qui utilisent les données d'apprentissage disponibles pour construire l'ensemble de classificateurs possibles. Si les données appartiennent seulement à un petit sous-espace de l'espace de toutes les données «possibles», ces algorithmes possédent l'intéressante capacité de ne considérer que les classificateurs qui permettent de distinguer les exemples qui appartiennent à notre domaine d'intérêt. Ceci contraste avec d'autres algorithmes qui doivent considérer l'ensemble des classificateurs avant d'examiner les données d'entraînement. La machine à vecteurs de support (le SVM) est un algorithme d'apprentissage très performant qui peut être considéré comme un algorithme d'apprentissage par compression d'échantillons. Malgré son succès, le SVM est actuellement limité par le fait que sa fonction de similarité doit être un noyau symétrique semi-défini positif. Cette limitation rend le SVM difficilement applicable au cas où on désire utiliser une mesure de similarité quelconque. / In classification, sample compression algorithms are the algorithms that make use of the available training data to construct the set of possible predictors. If the data belongs to only a small subspace of the space of all "possible" data, such algorithms have the interesting ability of considering only the predictors that distinguish examples in our areas of interest. This is in contrast with non sample compressed algorithms which have to consider the set of predictors before seeing the training data. The Support Vector Machine (SVM) is a very successful learning algorithm that can be considered as a sample-compression learning algorithm. Despite its success, the SVM is currently limited by the fact that its similarity function must be a symmetric positive semi-definite kernel. This limitation by design makes SVM hardly applicable for the cases where one would like to be able to use any similarity measure of input example. PAC-Bayesian theory has been shown to be a good starting point for designing learning algorithms. In this thesis, we propose a PAC-Bayes sample-compression approach to kernel methods that can accommodate any bounded similarity function. We show that the support vector classifier is actually a particular case of sample-compressed classifiers known as majority votes of sample-compressed classifiers. We propose two different groups of PAC-Bayesian risk bounds for majority votes of sample-compressed classifiers. The first group of proposed bounds depends on the KL divergence between the prior and the posterior over the set of sample-compressed classifiers. The second group of proposed bounds has the unusual property of having no KL divergence when the posterior is aligned with the prior in some precise way that we define later in this thesis. Finally, for each bound, we provide a new learning algorithm that consists of finding the predictor that minimizes the bound. The computation times of these algorithms are comparable with algorithms like the SVM. We also empirically show that the proposed algorithms are very competitive with the SVM.
186

eCandy Evolutionary Camera Network Deploy

Fortin, Félix-Antoine 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Les systèmes de surveillance vidéo comme méthode de prévention et de protection connaissent une popularité grandissante. Cependant, des études tendent à démontrer que le placement des caméras est généralement inadéquat, se soldant en des systèmes à efficacité limitée. Ce mémoire propose une méthode permettant le placement automatique d'un nombre variable de caméras dans un environnement arbitraire en vue d'en optimiser le coût et la performance. Nous développons une formulation de la problématique pouvant servir à l'expression générale de plusieurs problèmes de placement de caméras. Les problèmes sont résolus grâce à un algorithme évolutionnaire, utilisant une représentation à taille variable, qui produit en sortie un ensemble de solutions exprimant les compromis possibles entre le coût et la performance. L'analyse qualitative des solutions est réalisée à l'aide de trois paradigmes de visualisation développée pour ce projet. Nous analysons trois problèmes concrets résolus par l'algorithme.
187

Extension et validation de bGPUMCD, un algorithme de calcul de dose Monte Carlo pour la curiethérapie implémenté sur processeur graphique

Joachim-Paquet, Charles 02 February 2024 (has links)
Le présent mémoire présente les récents travaux de développement d'un algorithme de calcul de dose monte carlo en brachythérapie implémenté sur GPU (bGPUMCD, GPU Monte Carlo Dose for brachytherapy) ainsi que la validation des résultats et de la performance de celui-ci en vue d'une utilisation clinique future pour les cas de curiethérapie HDR et d'une utilisation académique permettant de remplacer l'utilisation de codes Monte Carlo plus lents dans le domaine académique. Les cas de test définis par le Groupe de travail sur les algorithmes de calcul de dose en curiethérapie (WG-DCAB, Working Group on Dose Calculation Algorithms in Brachytherapy)[1] et quatre cas de patients cliniques représentant des sites de traitement représentatifs sont utilisés pour explorer la précision, la vitesse et les limites de l'algorithme dans une multitude de contextes. bGPUMCD est comparé aux résultats de calcul de dose provenant de plusieurs codes Monte Carlo tel que MCNP6 et ALGEBRA[2]. Les résultats obtenus par bGPUMCD sont dans les limites d'incertitudes requises par les recommandations du Rapport du Groupe de Travail No.186 de l'AAPM (TG-186, Report on the Task Group No.43)[3]. Une simulation en situation de Rapport du Groupe de Travail No.43 de l'AAPM (TG-43, Report on the Task Group No.43)[4] a été effectuée pour trois modèles de source et les fonctions 𝑔𝐿(𝑟) et 𝐹 (𝑟, 𝜃) obtenues correspondent avec une erreur de 2 % aux valeurs de référence à l'exception des grands angles. Nous démontrons aussi que bGPUMCD est capable de simuler une dose cliniquement équivalente à un code Monte Carlo de référence en une fraction du temps ; en fonction des différents paramètres pouvant modifier le temps de calcul, bGPUMCD permet d'obtenir un résultat équivalent à la dose de référence avec un temps de calcul se trouvant entre quelques secondes à quelques minutes par rapport à plusieurs heures pour ALGEBRA.
188

Améliorations aux systèmes à initiative partagée humain-ordinateur pour l'optimisation des systèmes linéaires

Chéné, François 02 February 2024 (has links)
La programmation linéaire permet d’effectuer l’optimisation de la gestion des réseaux de création de valeur. Dans la pratique, la taille de ces problèmes demande l’utilisation d’un ordinateur pour effectuer les calculs nécessaires, et l’algorithme du simplexe, entre autres, permet d’accomplir cette tâche. Ces solutions sont cependant construites sur des modèles approximatifs et l’humain est généralement méfiant envers les solutions sorties de « boîtes noires ». Les systèmes à initiative partagée permettent une synergie entre, d’une part, l’intuition et l’expérience d’un décideur humain et, d’autre part, la puissance de calcul de l’ordinateur. Des travaux précédents au sein du FORAC ont permis l’application de cette approche à la planification tactique des opérations des réseaux de création de valeur. L’approche permettrait l’obtention de solutions mieux acceptées. Elle a cependant une interface utilisateur limitée et contraint les solutions obtenues à un sous-espace de l’ensemble des solutions strictement optimales. Dans le cadre de ce mémoire, les principes de conception d’interface humain-machine sont appliqués pour concevoir une interface graphique plus adaptée à l’utilisateur type du système. Une interface basée sur le modèle de présentation de données de l’outil Logilab, à laquelle sont intégrées les interactivités proposées par Hamel et al. est présentée. Ensuite, afin de permettre à l’expérience et à l’intuition du décideur humain de compenser les approximations faites lors de la modélisation du réseau de création de valeur sous forme de problème linéaire, une tolérance quant à l’optimalité des solutions est introduite pour la recherche interactive de solutions alternatives. On trouvera un nouvel algorithme d’indexation des solutions à combiner et une nouvelle heuristique de combinaison convexe pour permettre cette flexibilité. Afin d‘augmenter la couverture de l’espace solutions accessible au décideur humain, un algorithme de recherche interactive de solution basé sur le simplexe est introduit. Cet algorithme présente une stabilité similaire à la méthode de Hamel et al., mais ses performances en temps de calcul sont trop basses pour offrir une interactivité en temps réel sur de vrais cas industriels avec les ordinateurs présentement disponibles.Une seconde approche d’indexation complète de l’espace solutions est proposée afin de réduire les temps de calcul. Les nouveaux algorithmes « Linear Redundancyless Recursive Research » (Recherche linéaire récursive sans redondance, LRRR) pour la cartographie et l’indexation de l’espace solutions et « N-Dimension Navigation Direction » (direction de navigation à n-dimensions, NDND) pour l’exploration interactive de celui-ci sont présentés. Ces algorithmes sont justes et rapides, mais ont cependant un coût mémoire au-delà de la capacité des ordinateurs contemporains. Finalement, d’autres pistes d’exploration sont présentées, notamment l’exploitation des méthodes du point intérieur et de l’algorithme de Karmarkar ainsi qu’une ébauche d’approche géométrique.
189

Adaptation d'un algorithme de deuxième ordre pour l'analyse haute-résolution de courbes électrochimiques

Mathault, Jessy 03 July 2018 (has links)
Ce mémoire présente une nouvelle méthode d'analyse des courbes de voltampérométrie cyclique. Cette méthode utilise deux algorithmes distincts afin de permettre la caractérisation automatique et précise des pics gaussiens d'oxydoréduction qui sont liés à la concentration des molécules en solution. En premier lieu, des améliorations significatives sont apportées à un algorithme de suppression de la courbe de fond qui fonctionne par approximation polynomiale itérative. Avec les améliorations proposées, l'algorithme isole les pics d'oxydoréduction à partir des mesures de voltampérométrie cyclique automatiquement. La variation de l'amplitude des pics en fonction de la concentration est alors mieux conservée et les erreurs d'estimation sont diminuées par rapport à l'algorithme initial. Ensuite, le développement d'un algorithme qui permet de caractériser des pics gaussiens basé sur l'algorithme de deuxième ordre MUSIC est présenté. Cet algorithme est adapté de manière à caractériser avec une haute précision le nombre, la position, la largeur et l'amplitude des pics d'oxydoréduction. Finalement, les performances de cet algorithme sont comparées à celles d'autres algorithmes similaires à l'aide de courbes simulées et expérimentales. L'algorithme proposé permet une meilleure caractérisation des pics sans chevauchement ainsi que des pics déformés. Il permet aussi de diminuer la fréquence des fausses détections et d'obtenir une haute précision de la mesure de position, et ce même lorsque les signaux sont bruités. / This master's thesis describes a new method for analyzing cyclic voltammetry curves for an efficient peak detection and automatic baseline substraction. This method uses two distinct algorithms for a precise characterization of Gaussian redox peaks which are correlated with molecules' concentration in a solution. First, significant improvements are made to an existing algorithm that uses iterative polynomial approximations to suppress the baseline automatically from the voltammetric curves. With these enhancements, the algorithm extracts redox peaks from cyclic voltammetry measurements automatically and allows a better representation of the variation of peak's amplitude according to concentration. In addition, the approximation errors are reduced compared to the initial algorithm. Then, the development of an algorithm for characterizing Gaussian peaks based on the MUSIC second-order algorithm is presented. This algorithm is adapted to characterize the number, position, width and amplitude of redox peaks with high accuracy. Finally, the performances of this algorithm are compared with those of other similar algorithms using simulated and experimental curves. The suggested algorithm leads to a better characterization of non-overlapping peaks as well as distorted peaks. It also reduces the frequency of false detections and allows the precise measurement of peaks' positions in noisy signals.
190

Un système intelligent de planification et d'ordonnancement dédié au contexte d'ingénierie sur commande

Neumann, Anas 05 August 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2023 / Les activités de planification et d'ordonnancement sont complexes et leur optimisation est cruciale pour les entreprises, particulièrement dans les réalités économiques et industrielles modernes. En effet, la forte concurrence engendrée par la globalisation du marché, l'exigence croissante des consommateurs en termes de qualité et délais, ou encore l'utilisation d'environnements technologiques fortement connectés (Industrie 4.0), motivent les entreprises à améliorer continuellement leurs approches de gestion tactique et opérationnelle (Lasi et al., 2014; Hozdić, 2015; Alcácer and Cruz-Machado, 2019). C'est particulièrement vrai pour les produits d'ingénierie sur demande, ou Engineer-To-Order (ETO). Ces produits sont souvent très complexes en termes de structure, uniques ou non-standards, et sont fabriqués sur la base de besoins incertains et d'une conception incomplète ou vouée à évoluer (Wortmann, 1983, 1992; Mather, 1999; Little et al., 2000; Jünge et al., 2021; Alfnes et al., 2021). Ils conviennent particulièrement bien aux Petites et Moyennes Entreprises (PMEs) qui voient dans ce service de personnalisation un avantage concurrentiel par rapport aux grandes organisations disposant de capacités de production plus importantes (Little et al., 2000; Kusturica et al., 2018; Zennaro et al., 2019). Cependant, la nature incertaine de ces produits rend plus difficile l'évaluation des prix, la prévision des charges et des durées, engendre du gaspillage (d'éléments achetés ou produits avant d'être modifiés ou annulés) et réduit la robustesse des ordonnancements (par nécessité de réordonnancement) (Gutfeld et al., 2014; Hooshmand et al., 2016; Bhalla et al., 2022). Afin de proposer des décisions pertinentes et de prédire avec justesse les résultats qui en découleront, un système d'aide à la décision pour la planification et l'ordonnancement dédié au contexte ETO se doit de tenir compte des spécificités de ses produits et du processus permettant leur réalisation. Par exemple, les projets ETO sont généralement exécutés en ingénierie concurrente : on produit les pièces validées sans attendre la fin de la conception du projet. De plus, contrairement aux activités de production ou d'assemblage, les étapes d'ingénierie et de design peuvent être répétées jusqu'à la validation du client, ne sont exécutées qu'une fois pour différents éléments identiques du projet, sont souvent mesurées en journées, voire semaines, et sont soumises à des règles de précédence différentes. À cet égard, cette thèse s'articule autour de la question de recherche suivante : "Par quels moyens fonctionnels, méthodologiques, technologiques et architecturaux un système d'aide à la décision pour la planification et l'ordonnancement peut-il répondre aux problématiques des PMEs liées à l'approche ETO ?" Les cinq principales problématiques visées étant (i) l'instabilité des plans et ordonnancement construits, (ii) le gaspillage (de temps, de ressources matérielles ou financières) dû aux révisions de la conception, (iii) la difficulté à satisfaire les attentes des clients en termes de coût et délais, (iv) la forte concurrence du marché industriel moderne ou encore (v) la difficulté à prédire la performance des décisions prises. À travers cette thèse, nous répondons à cette question en proposant un système intelligent de planification et d'ordonnancement dédié au contexte ETO. L'objectif étant d'obtenir un système complet et fonctionnel. Ce dernier est composé d'un modèle de données (comportant les décisions clés, les informations nécessaires à la prise de ces décisions, les métriques d'évaluation et les contraintes d'optimisation), de plusieurs modules fonctionnels reposant sur des algorithmes d'optimisation et d'apprentissage novateurs, ainsi que sur une séquence d'interactions entre ces modules pour accomplir les différents cas d'utilisation. Afin d'appréhender de manière réalisable l'atteinte de cet objectif, nous avons réparti les étapes de création du système en sept contributions scientifiques. Tout d'abord, l'architecture est composée de cinq contributions conceptuelles : (i) la conceptualisation et la modélisation mathématique du problème étudié, (ii) la proposition d'une stratégie d'ordonnancement robuste, (iii) la conception d'une méthode heuristique de résolution (algorithme génétique hybride) du problème de planification et d'ordonnancement, (iv) la conception d'une méthode de construction d'une stratégie qui incorpore les décisions de planification et d'ordonnancement dans une stratégie commerciale et prédit son impact sur plusieurs métriques (à l'aide d'un réseau de neurones artificiels), et finalement, (v) l'architecture qui regroupe ces différents éléments. Ces contributions ont été possibles à la suite de différentes analyses et revues de la littérature scientifique. Ces revues ont permis de détecter des manques à combler et de faire des choix quant aux outils et méthodes à exploiter. La nature complexe, stochastique et combinatoire des problèmes rencontrés nous a motivé à opter pour une utilisation combinée de méthodes issues de l'intelligence artificielle (apprentissage automatique, méthodes d'optimisation combinatoire et simulation). Finalement, nous avons développé un prototype de notre architecture sous la forme d'un logiciel de simulation pédagogique et gamifiée. Nos contributions ont tout d'abord été testées unitairement et quantitativement à l'aide de deux types de métriques : leur performance computationnelle (vitesse d'exécution et mémoire utilisée) et la qualité des solutions proposées (déviation de l'optimalité, qualité pratique mesurée à l'aide de scénarios aléatoires d'exécution). Les résultats publiés démontrent ainsi (i) la capacité de nos méthodes à opérer sur des projets de taille réelle et (ii) la qualité des solutions proposées. Ensuite, la réalisation du prototype a permis de tester leur intégration sous la forme d'un système complet et fonctionnel. Ce prototype a par ailleurs été utilisé dans le cadre d'un cours dispensé à l'Université Laval. / Planning and scheduling activities are difficult and significantly impact the performance of manufacturing companies. The latter are therefore forced to constantly search for optimization methods that could help improve their tactical and operational decisions. It is especially true in modern economic and industrial realities characterized by strong competition due to the globalization of the market and growing expectations for quality and short lead times (Lasi et al., 2014; Hozdić, 2015; Alcácer and Cruz-Machado, 2019). Both activities are even more challenging in the Engineer-To-Order (ETO) context. Indeed, ETO products are one-of-a-kind or highly customized and non-standard. They are often composed of a complex structure (BOM/EBOM) and their production is executed based on uncertain needs for features and an incomplete design, intended to evolve over time (Wortmann, 1983, 1992; Mather, 1999; Little et al., 2000; Jünge et al., 2021; Alfnes et al., 2021). The ETO context is very suitable for Small and Medium Enterprises (SMEs) which see this additional service of design and engineering as a competitive advantage over industries with larger production capacities (Little et al., 2000; Kusturica et al., 2018; Zennaro et al., 2019). However, producing a partially unknown product complicates the forecast of costs, workloads, or deadlines (Gutfeld et al., 2014; Hooshmand et al., 2016; Bhalla et al., 2022). ETO projects are also subject to unstable schedules (with frequent rescheduling) and waste of time and resources. To offer appropriate planning and scheduling decisions and precisely forecast their performance, decision support systems dedicated to the ETO context should consider the specificities of typical products and execution processes. For instance, ETO projects are typically executed in concurrent engineering: already validated items are produced without waiting for the complete design of the product. Besides, unlike physical operations (production and assembly), non-physical activities (design and engineering) are repeated until validated by the client; are executed once for several identical items; are measured in days or even weeks; and do not respect the same precedence relations. This thesis intends to answer the following research question: "By what functional, methodological, technological, and architectural means can a decision support system for planning and scheduling address the issues faced by SMEs due to the ETO approach?" The five main issues addressed are (i) the frequent need for rescheduling, (ii) the waste of time and resources (due to items cancellation or modification after their purchase or production), (iii) the difficulty to satisfy the client expectations in terms of cost and lead time, (iv) the strong competition of the modern industrial market, and (v) the inability to forecast the impact of the decisions. Through this thesis, we answer this question by proposing an intelligent planning and scheduling system dedicated to the ETO context. We aim to obtain a complete and operational system. Hence, its architecture is composed of a data model (including the main decisions, the mandatory data to make those decisions, the metrics to evaluate their quality, and the optimization constraints), several business modules based on innovative optimization and learning algorithms, and the sequence of interactions needed to accomplish the different use cases. We then divided the different steps needed to answer the research question into seven achievable scientific contributions. First, the technical components of our architectures represent the five main contributions: (i) a mathematical model representing the studied problem, (ii) a robust planning and scheduling strategy, (iii) a hybrid genetic algorithm able to solve a real-sized instance of the problem, (iv) a prediction model, based on artificial neural networks, to build a complete commercial strategy incorporating the planning and scheduling decisions and forecasting its performance, and (v) the software architecture. Our contributions were possible only after various analyses and literature reviews. Those reviews allowed us to notice gaps regarding our context and make informed choices. To overcome the complex, stochastic, and combinatorial nature of the problems encountered, we opted for a combined use of methods linked to Artificial Intelligence (heuristic optimization, machine learning, and simulation). Finally, we implemented a prototype of our system as a gamified software dedicated to learning purposes. We first tested our contributions separately (unit tests) using two types of quantitative metrics: the computational performance (computing time and memory used) and the quality of the proposed solutions (deviation, impact of randomly generated scenarios). The results highlighted the capacity of our methods to solve realistic instances and the impact of our planning and scheduling strategy. Then, our prototype of implementation allowed us to validate their viable integration as a complete system. Our prototype has also been tested and used as part of a course given at Université Laval.

Page generated in 0.0765 seconds