• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1054
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Développement d'un algorithme de cinématique d'interaction appliqué sur un bras robotique dans un contexte de coopération humain-robot

LeBel, Philippe 16 April 2019 (has links)
Ce mémoire présente le développement d’un algorithme de cinématique d’interaction dans un contexte de coopération humain-robot. Cet algorithme vise à faciliter le contrôle de bras robotiques en évitant les collisions, singularités et limites articulaires du robot lorsqu’il est contrôlé par un humain. La démarche adoptée pour l’ateinte de l’objectif est le prototypage d’un algorithme sur une structure robotique simple, la validation expérimentale de ce prototype, la généralisation de l’algorithme sur une base robotique à 6 degrés de liberté et la validation de l’algorithme final en le comparant expérimentalement avec un algorithme similaire. Premièrement, le prototype d’algorithme est développé sur un bras robotisé Jaco, de l’entreprise Kinova, duquel le poignet a été retiré. Cette architecture permet le déplacement de l’effecteur selon 3 degrés de liberté en translation. L’algorithme développé sur cette base robotique permet : — l’évitement des collisions avec les objets présents dans l’environnement de travail, — l’évitement des limitations articulaires — et l’évitement des singularités propres à l’architecture du robot. Les performances de l’algorithme sont ensuite validées lors d’expérimentations dans lesquelles il a été démontré que l’algorithme a permis une réduction d’approximativement 50% du temps de complétion d’une tâche donnée tout en réduisant l’attention que l’utilisateur doit porter sur le contrôle du robot comparativement à l’attention portée à l’accomplissement de la tâche demandée. Ensuite, des améliorations sont apportées à l’infrastructure : — une méthode de numérisation de l’environnement de travail est ajoutée, — un meilleur algorithme de détection de collisions et de mesure des distances minimales entre les membrures du robot et les obstacles présents dans l’environnement de travail est implémenté. De plus, une méthode de balayage de l’environnement de travail à l’aide d’une caméra Kinect ainsi qu’un algorithme de segmentation de nuage de points en polygones convexes sont présentés. Des tests effectués avec l’algorithme prototype ont été effectués et ont révélé que bien que des imperfections au niveau de la méthode de balayage existent, ces modifications de l’infrastructure peuvent améliorer la facilité avec laquelle l’algorithme de cinématique d’interaction peut être implémenté. Finalement, l’algorithme implémenté sur une architecture robotique à six degrés de liberté est présenté. Les modifications et les adaptations requises pour effectuer la transition avec la version initiale de l’algorithme sont précisées. Les expérimentations ont validé la performance de l’algorithme vis à vis un autre algorithme de contrôle pour l’évitement de collisions. Elles ont démontré une amélioration de 25% en terme de temps requis pour effectuer une tâche donnée comparé aux temps obtenus avec un algorithme de ressorts-amortisseurs virtuels.
422

Détection, reconstruction 3D et identification des êtres vivants du règne animal

Lévesque, Olivier 24 April 2018 (has links)
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances. / Automating the detection and identification of animals is a task that has an interest in many biological research fields and in the development of electronic security systems. The author present a detection and identification system based on computer stereo vision to achieve this task. A number of criteria are being used to identify the animals, but the emphasis is on the harmonic analysis of the animal real time reconstructed 3D shape. The result of the analysis is compared with others stored in an evolutive knowledge base.
423

Learning dialogue POMDP model components from expert dialogues

Chinaei, Hamid Reza 19 April 2018 (has links)
Un système de dialogue conversationnel doit aider les utilisateurs humains à atteindre leurs objectifs à travers des dialogues naturels et efficients. C'est une tache toutefois difficile car les langages naturels sont ambiguës et incertains, de plus le système de reconnaissance vocale (ASR) est bruité. À cela s'ajoute le fait que l'utilisateur humain peut changer son intention lors de l'interaction avec la machine. Dans ce contexte, l'application des processus décisionnels de Markov partiellement observables (POMDPs) au système de dialogue conversationnel nous a permis d'avoir un cadre formel pour représenter explicitement les incertitudes, et automatiser la politique d'optimisation. L'estimation des composantes du modelé d'un POMDP-dialogue constitue donc un défi important, car une telle estimation a un impact direct sur la politique d'optimisation du POMDP-dialogue. Cette thèse propose des méthodes d'apprentissage des composantes d'un POMDPdialogue basées sur des dialogues bruités et sans annotation. Pour cela, nous présentons des méthodes pour apprendre les intentions possibles des utilisateurs à partir des dialogues, en vue de les utiliser comme états du POMDP-dialogue, et l'apprendre un modèle du maximum de vraisemblance à partir des données, pour transition du POMDP. Car c'est crucial de réduire la taille d'état d'observation, nous proposons également deux modèles d'observation: le modelé mot-clé et le modelé intention. Dans les deux modèles, le nombre d'observations est réduit significativement tandis que le rendement reste élevé, particulièrement dans le modele d'observation intention. En plus de ces composantes du modèle, les POMDPs exigent également une fonction de récompense. Donc, nous proposons de nouveaux algorithmes pour l'apprentissage du modele de récompenses, un apprentissage qui est basé sur le renforcement inverse (IRL). En particulier, nous proposons POMDP-IRL-BT qui fonctionne sur les états de croyance disponibles dans les dialogues du corpus. L'algorithme apprend le modele de récompense par l'estimation du modele de transition de croyance, semblable aux modèles de transition des états dans un MDP (processus décisionnel de Markov). Finalement, nous appliquons les méthodes proposées à un domaine de la santé en vue d'apprendre un POMDP-dialogue et ce essentiellement à partir de dialogues réels, bruités, et sans annotations. / Spoken dialogue systems should realize the user intentions and maintain a natural and efficient dialogue with users. This is however a difficult task as spoken language is naturally ambiguous and uncertain, and further the automatic speech recognition (ASR) output is noisy. In addition, the human user may change his intention during the interaction with the machine. To tackle this difficult task, the partially observable Markov decision process (POMDP) framework has been applied in dialogue systems as a formal framework to represent uncertainty explicitly while supporting automated policy solving. In this context, estimating the dialogue POMDP model components is a signifficant challenge as they have a direct impact on the optimized dialogue POMDP policy. This thesis proposes methods for learning dialogue POMDP model components using noisy and unannotated dialogues. Speciffically, we introduce techniques to learn the set of possible user intentions from dialogues, use them as the dialogue POMDP states, and learn a maximum likelihood POMDP transition model from data. Since it is crucial to reduce the observation state size, we then propose two observation models: the keyword model and the intention model. Using these two models, the number of observations is reduced signifficantly while the POMDP performance remains high particularly in the intention POMDP. In addition to these model components, POMDPs also require a reward function. So, we propose new algorithms for learning the POMDP reward model from dialogues based on inverse reinforcement learning (IRL). In particular, we propose the POMDP-IRL-BT algorithm (BT for belief transition) that works on the belief states available in the dialogues. This algorithm learns the reward model by estimating a belief transition model, similar to MDP (Markov decision process) transition models. Ultimately, we apply the proposed methods on a healthcare domain and learn a dialogue POMDP essentially from real unannotated and noisy dialogues.
424

Contrôle adaptatif d'un bioréacteur cardiaque par algorithme génétique

Gosselin, Jérôme 24 April 2018 (has links)
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique. / A proper functioning of the human heart is essential for maintaining a good quality of life. However, when the heart fails, some surgical procedures are necessary to prolong life expectancy. As part of a multidisciplinary project linking mechanical engineering to biomedical science, our team is working on the manufacture of heart valves entirely designed by tissue engineering. To achieve this, obtaining optimum mechanical properties is an important aspect for the biological tissues. To obtain these mechanical properties, an important tool was designed in a previous study : the cardiac bioreactor. Cardiac bioreactors allow the reproduction of the physiological environment of the heart, including flow and pressure conditions. It is crucial to properly control these conditions, as they play an important role in valvular substitutes conditioning. However, it is complex to simultaneously control both conditions effectively. This is why our team has focused on developing a new control strategy so that the bioreactor can reproduce as faithfully as possible the physiological environment. Several control techniques have been experimented so far. However, accuracy was generally limited. So, a new approach has been considered and is presented here. This new approach is based on a well-known optimisation technique that is still quite unusual for control: genetic algorithms. This promising approach has allowed us to produce unprecedented results for one of the two conditions, the physiological flow.
425

Résolution du problème d'allocation optimale de ressources multiples à l'aide d'un algorithme génétique

Ben Jabeur, Marouene 16 April 2018 (has links)
Les opérations de recherche et de sauvetage font partie des activités humanitaires que le gouvernement canadien offre. Ces opérations doivent être mises à la disposition de tous les vols aériens dans un espace de plus de vingt millions de kilomètres carrés et de tous les bateaux naviguant dans les eaux maritimes du gouvernement fédéral dont les océans, le fleuve Saint-Laurent et les Grands Lacs. L'ultime objectif que se fixe le gouvernement canadien en mettant à l'oeuvre ce genre d'opérations consiste à "prévenir les pertes de vie et les blessures en utilisant les ressources privées et publiques pour alerter, répondre et aider dans les situations de détresse". Leur travail, humanitaire, consiste à trouver un objet perdu dans les meilleurs délais afin de ne pas risquer de perdre des vies. Ce but pourrait être atteint si l'on arrive à trouver un moyen d'affecter d'une manière optimale les ressources dont on dispose à des secteurs sur lesquels les opérations de recherche vont être effectuées. L'objectif de nos travaux est d'examiner de plus près et d'essayer de résoudre le problème d'allocation de ressources multiples que vivent les centres de coordination des opérations de recherche et de sauvetage. Ce problème se résume à mettre en place un plan d'affectation des ressources à des zones de recherche permettant de maximiser l'efficience de leurs utilisations et d'augmenter les chances de trouver des survivants en peu de temps. Pour ce faire, nous définissons un algorithme génétique capable de trouver une solution au problème à résoudre. Ensuite, nous adapterons la solution proposée afin de prendre en charge et manipuler les contraintes imposées par le problème. Lors de nos expérimentations, nous avons cherché à améliorer la performance et l'efficacité de notre algorithme en y introduisant plusieurs méthodes basées sur le principe de la satisfaction des contraintes. Notre bilan nous indique que nos meilleurs résultats sont obtenus en mettant en place un algorithme génétique dont le fonctionnement des opérateurs de reproduction ne tolère aucune violation de contraintes. En les comparant à ceux obtenus en résolvant le problème par l'approche d'optimisation combinatoire, nous avons constaté qu'on n'a pas pu égaler le niveau de succès atteint. Ceci est dû à l'aspect aléatoire sur lequel les algorithmes génétiques se basent pour parcourir l'espace de recherche, sélectionner et améliorer une solution.
426

Contraintes et observabilité dans les systèmes de Markov décentralisés

Besse, Camille 16 April 2018 (has links)
De manière générale, les problèmes séquentiels de décisions multiagents sont très difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement ni complètement l'état de leur environnement. Les modèles actuels pour représenter ces problèmes restent à ce jour très généraux et difficilement applicables dans les multiples applications possibles. Nous proposons dans cette thèse plusieurs approches de réduction de la complexité computationnelle et en pire cas de ces modèles. Une première approche se base sur l'utilisation de contraintes sur l'espace des actions possibles que les différents agents du système peuvent entreprendre. Cette utilisation de connaissances a priori dans la modélisation au travers de modèles déjà connus, mais non appliqués à la prise de décision séquentielle permet une réduction significative d'un des facteurs de la complexité algorithmique. La seconde approche consiste à restreindre les possibilités d'observations de l'agent à un ensemble similaire à l'espace d'états utilisé pour représenter son environnement. De cette manière, nous montrons que les agents peuvent converger rapidement en probabilité vers des croyances communes sans nécessairement avoir à communiquer. Dans ce contexte, nous avons également développé un algorithme permettant alors aux agents de se coordonner au moment de l'exécution lorsqu'il n'existe pas de communication explicite. Enfin, nous avons entrepris la mise en application de telles réductions à deux problèmes. Un premier problème de patrouille multiagent est considéré et modélisé, et un second problème lié à l'apprentissage de POMDPS continus dans des cas précis de transition et d'observabilité est également abordé. Les résultats obtenus montrent que dans certains cas de problèmes de coordination, la communication ? lorsqu'elle est disponible ? est non négligeable, et que dans le cas de l'apprentissage de POMDPs, considérer le quasi-déterminisme du modèle permet l'apprentissage de converger.
427

Capture-Recapture. Problématique des listes incomplètes

Caron, Bernard 16 April 2018 (has links)
Il arrive parfois lors de l'utilisation de la méthode multi-liste que les listes administratives ne couvrent pas exactement la même période. On appelle ce problème un problème de listes incomplètes. La façon la plus courante pour résoudre ce problème est de se servir exclusivement des parties des listes où il y a un chevauchement complet. Cette méthode entraîne beaucoup d'imprécision. Afin de tenir compte de toute l'information disponible, il est possible de modéliser conjointement les strates. Deux méthode de modélisation conjointe sont présentées. Premièrement, il est possible d'estimer les valeurs manquantes à l'aide le l'algorithme EM et ainsi travailler avec des listes complètes. Deuxièmement, un modèle log-linéaire avec effet de strate qui permet de tenir compte de toute l'information tout en demeurant beaucoup plus simple à utiliser. En mesurant l'efficacité de façon explicite, on voit que la modélisation conjointe est plus avantageuse que la modélisation strate par strate.
428

Digital signal processing algorithms in single-carrier optical coherent communications

Ng, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
429

Optimisation d'échangeurs de chaleur : condenseur à calandre, réseau d'échangeurs de chaleur et production d'eau froide

Allen, Benoît 17 April 2018 (has links)
La présente étude porte sur l'optimisation de systèmes thermiques servant soit à récupérer de la chaleur ou à produire de la chaleur ou du froid. Essentiellement, le travail portera sur les condenseurs de type tubes et calandre, sur les réseaux d'échangeurs de chaleur ainsi que sur les systèmes de production d'eau froide. L'objectif ultime est de développer une méthode permettant de déterminer le design minimisant les coûts reliés à l'achat et à l'opération de ces systèmes thermiques. Pour atteindre cet objectif, on doit d'abord créer un modèle mathématique permettant de calculer les surfaces d'échanges requises et les puissances de pompage requises pour faire fonctionner un échangeur de chaleur. Basé sur des relations analytiques et empiriques, le modèle doit tenir compte des variables design considérées dans le problème, soit une dizaine de paramètres géométriques et le régime d'opération. Il s'agit d'identifier les valeurs à accorder à chacune de ces variables de design afin de faire le meilleur compromis entre la minimisation des surfaces d'échange de chaleur requises et la quantité d'énergie requise pour faire fonctionner les systèmes. Autrement dit, on cherche à minimiser le coût total, constitué du coût d'achat du matériel et des coûts d'opération. Une fois cette démarche réalisée pour le condenseur à tubes et calandre, on applique une méthode similaire pour optimiser une série d'échangeurs de chaleur dans le cas des réseaux d'échangeurs de chaleur et finalement pour un cycle de réfrigération composé de deux échangeurs, un condenseur et un évaporateur, ainsi qu'un compresseur. Étant donné le nombre important de variables de design considéré pour chacun de ces problèmes, le nombre total de design possible est trop élevé pour calculer le coût de chacun d'entre eux et choisir le meilleur. Cela serait trop coûteux en temps de calcul. C'est pourquoi nous ferons appel à l'utilisation d'algorithmes génétiques. Ces derniers nous permettront d'identifier avec une excellente probabilité le design optimal et ce, dans un laps de temps acceptable en pratique. La méthode est finalement validée grâce à des exemples d'application.
430

Design d'expérimentation interactif : aide à la compréhension de systèmes complexes

De Rainville, François-Michel 17 April 2018 (has links)
Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié.

Page generated in 0.048 seconds