Spelling suggestions: "subject:"algorithme""
441 |
Data-driven covariance estimation for the iterative closest point algorithmLandry, David 14 January 2025 (has links)
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article. / Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
|
442 |
New algorithms for the analysis of live-cell images acquired in phase contrast microscopyJuneau, Pierre-Marc 23 April 2018 (has links)
La détection et la caractérisation automatisée des cellules constituent un enjeu important dans de nombreux domaines de recherche tels que la cicatrisation, le développement de l'embryon et des cellules souches, l’immunologie, l’oncologie, l'ingénierie tissulaire et la découverte de nouveaux médicaments. Étudier le comportement cellulaire in vitro par imagerie des cellules vivantes et par le criblage à haut débit implique des milliers d'images et de vastes quantités de données. Des outils d'analyse automatisés reposant sur la vision numérique et les méthodes non-intrusives telles que la microscopie à contraste de phase (PCM) sont nécessaires. Comme les images PCM sont difficiles à analyser en raison du halo lumineux entourant les cellules et de la difficulté à distinguer les cellules individuelles, le but de ce projet était de développer des algorithmes de traitement d'image PCM dans Matlab® afin d’en tirer de l’information reliée à la morphologie cellulaire de manière automatisée. Pour développer ces algorithmes, des séries d’images de myoblastes acquises en PCM ont été générées, en faisant croître les cellules dans un milieu avec sérum bovin (SSM) ou dans un milieu sans sérum (SFM) sur plusieurs passages. La surface recouverte par les cellules a été estimée en utilisant un filtre de plage de valeurs, un seuil et une taille minimale de coupe afin d'examiner la cinétique de croissance cellulaire. Les résultats ont montré que les cellules avaient des taux de croissance similaires pour les deux milieux de culture, mais que celui-ci diminue de façon linéaire avec le nombre de passages. La méthode de transformée par ondelette continue combinée à l’analyse d'image multivariée (UWT-MIA) a été élaborée afin d’estimer la distribution de caractéristiques morphologiques des cellules (axe majeur, axe mineur, orientation et rondeur). Une analyse multivariée réalisée sur l’ensemble de la base de données (environ 1 million d’images PCM) a montré d'une manière quantitative que les myoblastes cultivés dans le milieu SFM étaient plus allongés et plus petits que ceux cultivés dans le milieu SSM. Les algorithmes développés grâce à ce projet pourraient être utilisés sur d'autres phénotypes cellulaires pour des applications de criblage à haut débit et de contrôle de cultures cellulaires. / Automated cell detection and characterization is important in many research fields such as wound healing, embryo development, immune system studies, cancer research, parasite spreading, tissue engineering, stem cell research and drug research and testing. Studying in vitro cellular behavior via live-cell imaging and high-throughput screening involves thousands of images and vast amounts of data, and automated analysis tools relying on machine vision methods and non-intrusive methods such as phase contrast microscopy (PCM) are a necessity. However, there are still some challenges to overcome, since PCM images are difficult to analyze because of the bright halo surrounding the cells and blurry cell-cell boundaries when they are touching. The goal of this project was to develop image processing algorithms to analyze PCM images in an automated fashion, capable of processing large datasets of images to extract information related to cellular viability and morphology. To develop these algorithms, a large dataset of myoblasts images acquired in live-cell imaging (in PCM) was created, growing the cells in either a serum-supplemented (SSM) or a serum-free (SFM) medium over several passages. As a result, algorithms capable of computing the cell-covered surface and cellular morphological features were programmed in Matlab®. The cell-covered surface was estimated using a range filter, a threshold and a minimum cut size in order to look at the cellular growth kinetics. Results showed that the cells were growing at similar paces for both media, but their growth rate was decreasing linearly with passage number. The undecimated wavelet transform multivariate image analysis (UWT-MIA) method was developed, and was used to estimate cellular morphological features distributions (major axis, minor axis, orientation and roundness distributions) on a very large PCM image dataset using the Gabor continuous wavelet transform. Multivariate data analysis performed on the whole database (around 1 million PCM images) showed in a quantitative manner that myoblasts grown in SFM were more elongated and smaller than cells grown in SSM. The algorithms developed through this project could be used in the future on other cellular phenotypes for high-throughput screening and cell culture control applications.
|
443 |
Influence of complex environments on LiDAR-Based robot navigationMichaud, Sébastien 05 October 2024 (has links)
La navigation sécuritaire et efficace des robots mobiles repose grandement sur l’utilisation des capteurs embarqués. L’un des capteurs qui est de plus en plus utilisé pour cette tâche est le Light Detection And Ranging (LiDAR). Bien que les recherches récentes montrent une amélioration des performances de navigation basée sur les LiDARs, faire face à des environnements non structurés complexes ou des conditions météorologiques difficiles reste problématique. Dans ce mémoire, nous présentons une analyse de l’influence de telles conditions sur la navigation basée sur les LiDARs. Notre première contribution est d’évaluer comment les LiDARs sont affectés par les flocons de neige durant les tempêtes de neige. Pour ce faire, nous créons un nouvel ensemble de données en faisant l’acquisition de données durant six précipitations de neige. Une analyse statistique de ces ensembles de données, nous caractérisons la sensibilité de chaque capteur et montrons que les mesures de capteurs peuvent être modélisées de manière probabilistique. Nous montrons aussi que les précipitations de neige ont peu d’influence au-delà de 10 m. Notre seconde contribution est d’évaluer l’impact de structures tridimensionnelles complexes présentes en forêt sur les performances d’un algorithme de reconnaissance d’endroits. Nous avons acquis des données dans un environnement extérieur structuré et en forêt, ce qui permet d’évaluer l’influence de ces derniers sur les performances de reconnaissance d’endroits. Notre hypothèse est que, plus deux balayages laser sont proches l’un de l’autre, plus la croyance que ceux-ci proviennent du même endroit sera élevée, mais modulé par le niveau de complexité de l’environnement. Nos expériences confirment que la forêt, avec ses réseaux de branches compliqués et son feuillage, produit plus de données aberrantes et induit une chute plus rapide des performances de reconnaissance en fonction de la distance. Notre conclusion finale est que, les environnements complexes étudiés influencent négativement les performances de navigation basée sur les LiDARs, ce qui devrait être considéré pour développer des algorithmes de navigation robustes. / To ensure safe and efficient navigation, mobile robots heavily rely on their ability to use on-board sensors. One such sensor, increasingly used for robot navigation, is the Light Detection And Ranging (LiDAR). Although recent research showed improvement in LiDAR-based navigation, dealing with complex unstructured environments or difficult weather conditions remains problematic. In this thesis, we present an analysis of the influence of such challenging conditions on LiDAR-based navigation. Our first contribution is to evaluate how LiDARs are affected by snowflakes during snowstorms. To this end, we create a novel dataset by acquiring data during six snowfalls using four sensors simultaneously. Based on statistical analysis of this dataset, we characterized the sensitivity of each device and showed that sensor measurements can be modelled in a probabilistic manner. We also showed that falling snow has little impact beyond a range of 10 m. Our second contribution is to evaluate the impact of complex of three-dimensional structures, present in forests, on the performance of a LiDAR-based place recognition algorithm. We acquired data in structured outdoor environment and in forest, which allowed evaluating the impact of the environment on the place recognition performance. Our hypothesis was that the closer two scans are acquired from each other, the higher the belief that the scans originate from the same place will be, but modulated by the level of complexity of the environments. Our experiments confirmed that forests, with their intricate network of branches and foliage, produce more outliers and induce recognition performance to decrease more quickly with distance when compared with structured outdoor environment. Our conclusion is that falling snow conditions and forest environments negatively impact LiDAR-based navigation performance, which should be considered to develop robust navigation algorithms.
|
444 |
Localisation haute-résolution de sources sonores à raies spectrales non-stationnaire / Localisation haute-résolution de sources sonores à raies spectrales non-stationnairesBouchard, Simon 05 April 2024 (has links)
Ce mémoire présente trois algorithmes qui ensemble, ont pour objectifs d’estimer la direction d’arrivée de sources sonores composées de raies spectrales non-stationnaires. Ces algorithmes permettent de faire une localisation à haute-résolution qui surpasse les performances d’un corrélateur. Le premier algorithme a comme objectifs d’estimer et de pister les composantes fréquentielles contenues dans un spectre échantillonné par un réseau linéaire uniforme. Le second utilise une version adaptée de l’algorithme MUSIC afin d’estimer la direction d’arrivée de chacune des raies spectrales pistées. Le troisième permet de focaliser les directions d’arrivée de chacune des raies spectrales vers la source qui les a émises afin de la localiser de façon précise. Finalement, ce mémoire présente des mesures expérimentales et des simulations afin de valider le fonctionnement des algorithmes.
|
445 |
Inference algorithms for the regression approach to sequence predictionRolland, Amélie 28 January 2025 (has links)
La prédiction de séquence comporte plusieurs applications en traitement du langage naturel, en bioinformatique, et en vision numérique. La complexité de calcul requise pour trouver la séquence optimale parmi un nombre exponentiel de possibilités limite cependant l’utilisation de tels algorithmes. Dans ce mémoire, nous proposons une approche permettant de résoudre cette recherche efficacement pour deux types de problèmes différents. Plus précisément, nous adressons le problème de pré-image en prédiction de structure nécessitant de trouver la séquence associée à une entrée arbitraire, et le problème consistant à trouver la séquence qui maximise la fonction de prédiction de plusieurs classificateurs et régresseurs à noyaux. Nous démontrons que ces deux problèmes se réduisent en un même problème combinatoire valide pour plusieurs noyaux à séquences. Pour ce problème, nous proposons une borne supérieure sur la fonction de prédiction pouvant être utilisée dans un algorithme de recherche branch and bound pour l’obtention de solutions optimales. Sur les tâches de reconnaissance de mots et de prédiction de phonèmes, l’approche proposée obtient des résultats compétitifs avec les algorithmes de prédiction de structure de l’état de l’art. De plus, la solution exacte du problème de pré-image augmente de manière significative les performances de prédiction en comparaison avec une approximation trouvée par l’heuristique la plus connue. Pour les tâches consistant à trouver la séquence maximisant la fonction de prédiction de classificateurs et régresseurs, nous montrons que des méthodes existantes peuvent être biaisées à prédire de longues séquences comportant des symboles répétitifs. Nous soulignons que ce biais est enlevé lorsque le noyau est normalisé. Finalement, nous présentons des résultats en conception de médicaments sur la découverte de composés principaux. Le code source peut être téléchargé à https://github.com/a-ro/preimage. / Sequence prediction algorithms have many applications in natural language processing, bioinformatics, and computer vision. However, the computational complexity required to find the optimal sequence among an exponential number of possibilities limits the use of such algorithms. In this thesis, we propose an approach to solve this search efficiently for two types of sequence prediction problems. More precisely, we address the pre-image problem encountered in structured output prediction, which consists of finding the sequence associated with an arbitrary input, and the problem of finding a sequence maximizing the prediction function of various kernel-based classifiers and regressors. We demonstrate that these problems reduce to a common combinatorial problem valid for many sequence kernels. For this problem, we propose an upper bound on the prediction function which has low computational complexity and which can be used in a branch and bound search algorithm to obtain optimal solutions. On the practical tasks of optical word recognition and grapheme-to-phoneme prediction, the proposed approach is shown to be competitive with state-of-the-art structured prediction algorithms. Moreover, the exact solution of the pre-image problem is shown to significantly improve the prediction accuracy in comparison with an approximation found by the best known heuristic. On the task of finding a sequence maximizing the prediction function of kernelbased classifiers and regressors, we highlight that existing methods can be biased toward long sequences that contain many repeated symbols. We demonstrate that this bias is removed when using normalized kernels. Finally, we present results for the discovery of lead compounds in drug discovery. The source code can be found at https://github.com/a-ro/preimage.
|
446 |
Étude des algorithmes de stratification et illustration utilisant la réalisation de l'enquête sur le recrutement, l'emploi et les besoins de formation au Québec en 2015, l'EREFEQ 2015Houimli, Oussama 27 January 2024 (has links)
Dans un plan stratifié, le calcul des bornes de strates peut se faire de plusieurs façons. On peut se fier à un jugement personnel et séparer les unités de la population en se basant sur la distribution de la variable de stratification. D’autres méthodes scientifiques et rigoureuses donnent un meilleur résultat, dont les algorithmes de cum √f, Sethi et Kosak. Pour les populations asymétriques, telles que retrouvées dans les enquêtes entreprises, l’utilisation d’une strate recensement permet de diminuer la taille d’échantillon et donner des estimations plus fiables. Parfois, la variable de stratification utilisée dans l’élaboration du plan de sondage ne garantit pas l’obtention de la précision cible pour toutes les variables d’intérêt de l’enquête. Utiliser la variable d’intérêt la plus difficile à estimer, comme variable de stratification, permet de garantir un CV cible minimal pour toutes les autres variables, mais engendre des grandes tailles d’échantillon. / In a stratified sampling design, the calculation of the stratum boundaries can be done in several ways. We can rely on personal judgment and separate the units of the population based on the distribution of the stratification variable. Other scientific and rigorous methods give a better result, including the algorithms of cum √f, Sethi and Kosak. For asymmetric populations, as found in the business surveys, the use of a census stratum reduces the sample size and gives more reliable estimates. Univariate methods, those that use a single stratification variable in calculating the boundaries, do not guarantee that the target precision will be obtained for all the variables of interest in the survey. Using the variable of interest that is the most difficult to estimate, as a stratification variable, makes it possible to guarantee a minimum target CV for all the other variables, but generates large sample sizes.
|
447 |
Digital signal processing algorithms in single-carrier optical coherent communicationsNg, Wing Chau 23 April 2018 (has links)
Des systèmes de détection cohérente avec traitement numérique du signal (DSP) sont présentement déployés pour la transmission optique de longue portée. La modulation par déplacement de phase en quadrature à deux polarisations (DP-QPSK) est une forme de modulation appropriée pour la transmission optique sur de longues distances (1000 km ou plus). Une autre forme de modulation, le DP-16-QAM (modulation d’amplitude en quadrature) a été récemment utilisée pour les communications métropolitaines (entre 100 et 1000 km). L’extension de la distance maximum de transmission du DP-16-QAM est un domaine de recherche actif. Déterminer si l’utilisation de la détection cohérente pour les transmissions à courtes distances (moins de 100 km) en justifieraient les coûts demeure cependant une question ouverte. Dans cette thèse, nous nous intéresserons principalement au recouvrement de phase et au démultiplexage en polarisation dans les récepteurs numériques cohérents pour les applications à courte distance. La réalisation de systèmes optiques gigabauds cohérents en temps-réel utilisant des formats de modulation à monoporteuse plus complexes, comme le 64-QAM, dépend fortement du recouvrement de phase. Pour le traitement numérique hors-ligne, la récupération de phase utilisant les résultats de décisions (decision-directed phase recovery (DD-PR)) permet d’obtenir, au débit des symboles, les meilleures performances, et ce avec un effort computationnel moindre que celui des meilleurs algorithmes connus. L’implémentation en temps-réel de systèmes gigabauds requiert un haut degré de parallélisation qui dégrade de manière significative les performances de cet algorithme. La parallélisation matérielle et le délais de pipelinage sur la boucle de rétroaction imposent des contraintes strictes sur la largeur spectrale du laser, ainsi que sur le niveau de bruit spectral des sources laser. C’est pourquoi on retrouve peu de démonstrations de recouvrement de phase en temps-réel pour les modulations 64-QAM ou plus complexes. Nous avons analysé expérimentalement l’impact des lasers avec filtres optiques sur le recouvrement de phase realisé en pipeline sur un système cohérent à monoporteuse 64-QAM à 5 Gbaud. Pour les niveaux de parallélisation plus grands que 24, le laser avec filtres optiques a permis une amélioration de 2 dB du ratio signal-à-bruit optique, en comparaison avec le même laser sans filtre optique. La parallélisation du recouvrement de phase entraîne non seulement une plus grande sensibilité au bruit de phase du laser, mais aussi une plus grande sensibilité aux fréquences résiduelles induites par la présence de tonalités sinusoïdales dans la source. La modulation de fréquences sinusoïdales peut être intentionnelle, pour des raisons de contrôle, ou accidentelles, dues à l’électronique ou aux fluctuations environnementales. Nous avons étudié expérimentalement l’impact du bruit sinusoïdal de phase du laser sur le système parallèle de recouvrement de phase dans un système 64-QAM à 5 Gbauds, en tenant compte des effets de la compensation du décalage de fréquence et de l’égalisation. De nos jours, les filtres MIMO (multi-input multi-output) à réponse finie (FIR) sont couramment utilisés pour le démultiplexage en polarisation dans les systèmes cohérents. Cependant, ces filtres souffrent de divers problèmes durant l’acquisition, tels la singularité (les mêmes données apparaissent dans les deux canaux de polarisation) et la longue durée de convergence de certaines combinaisons d’états de polarisation (SOP). Pour réduire la consommation d’énergie exigée dans les systèmes cohérents pour les applications à courtes distances où le délais de groupe différentiel n’est pas important, nous proposons une architecture DSP originale. Notre approche introduit une pré-rotation de la polarisation, avant le MIMO, basée sur une estimation grossière de l’état de polarisation qui n’utilise qu’un seul paramètre Stokes (s1). Cette méthode élimine les problèmes de singularité et de convergence du MIMO classique, tout en réduisant le nombre de filtres MIMO croisés, responsables de l’annulation de la diaphonie de polarisation. Nous présentons expérimentalement un compromis entre la réduction de matériel et la dégradation des performances en présence de dispersion chromatique résiduelle, afin de permettre la réalisation d’applications à courtes distances. Finalement, nous améliorons notre méthode d’estimation à l’aveugle par un filtre Kalman étendu (EKF) à temps discret de faible complexité, afin de réduire la consommation de mémoire et les calculs redondants apparus dans la méthode précédante. Nous démontrons expérimentalement que la pré-rotation de polarisation basée sur le EKF operé au taux ASIC (Application-Specific Integrated Circuits) permet de récupérer la puissance de fréquence d’horloge du signal multiplexé en polarisation ainsi que d’améliorer la performance du taux d’erreur sur les bits (BER) en utilisant un MIMO de complexité réduite. / Coherent detection with digital signal processing (DSP) is currently being deployed in longhaul optical communications. Dual-polarization (DP) quadrature phase shift keying (QPSK) is a modulation format suitable for long-haul transmission (1000 km or above). Another modulation, DP-16-QAM (quadrature amplitude modulation) has been deployed recently in metro regions (between 100 and 1000 km). Extending the reach of DP-16QAM is an active research area. For short-reach transmission (shorter than 100 km), there is still an open question as to when the technology will be mature enough to meet cost pressures for this distance. In this dissertation, we address mainly on phase recovery and polarization demultiplexing in digital coherent receivers for short-reach applications. Implementation of real-time Gbaud (Gsymbol per second) optical coherent systems for singlecarrier higher-level modulation formats such as 64-QAM depends heavily on phase tracking. For offline DSP, decision-directed phase recovery is performed at the symbol rate with the best performance and the least computational effort compared to best-known algorithms. Real-time implementations at Gbaud requires significant parallelizing that greatly degrades performance of this algorithm. Hardware parallelization and pipelining delay on the feedback path impose stringent requirements on the laser linewidth, or the frequency noise spectral level of laser sources. This leads to the paucity of experiments demonstrating real-time phase tracking for 64- or higher QAM. We experimentally investigated the impact of opticallyfiltered lasers on parallel and pipelined phase tracking in a single-carrier 5 Gbaud 64-QAM back-to-back coherent system. For parallelization levels higher than 24, the optically-filtered laser shows more than 2 dB improvement in optical signal-to-noise ratio penalty compared to that of the same laser without optical filtering. In addition to laser phase noise, parallelized phase recovery also creates greater sensitivity to residual frequency offset induced by the presence of sinusoidal tones in the source. Sinusoidal frequency modulation may be intentional for control purposes, or incidental due to electronics and environmental fluctuations. We experimentally investigated the impact of sinusoidal laser phase noise on parallel decision-directed phase recovery in a 5 Gb 64-QAM system, including the effects of frequency offset compensation and equalization. MIMO (multi-input multi-output) FIR (finite-impulse response) filters are conventionally used for polarization demultiplexing in coherent communication systems. However, MIMO FIRs suffer from acquisition problems such as singularity and long convergence for a certain polarization rotations. To reduce the chip power consumption required in short-reach coherent systems where differential group delay is not prominent, we proposed a novel parallelizable DSP architecture. Our approach introduces a polarization pre-rotation before MIMO, based on a very-coarse blind SOP (state of polarization) estimation using only a single Stokes parameter (s1). This method eliminates the convergence and singularity problems of conventional MIMO, and reduces the number of MIMO cross taps responsible for cancelling the polarization crosstalk. We experimentally presented a tradeoff between hardware reduction and performance degradation in the presence of residual chromatic dispersion for short-reach applications. Finally, we extended the previous blind SOP estimation method by using a low-complexity discrete-time extended Kalman filter in order to reduce the memory depth and redundant computations of the previous design. We experimentally verified that our extended Kalman filter-based polarization prerotation at ASIC rates enhances the clock tone of polarization-multiplexed signals as well as the bit-error rate performance of using reduced-complexity MIMO for polarization demultiplexing.
|
448 |
Capture-Recapture. Problématique des listes incomplètesCaron, Bernard 16 April 2018 (has links)
Il arrive parfois lors de l'utilisation de la méthode multi-liste que les listes administratives ne couvrent pas exactement la même période. On appelle ce problème un problème de listes incomplètes. La façon la plus courante pour résoudre ce problème est de se servir exclusivement des parties des listes où il y a un chevauchement complet. Cette méthode entraîne beaucoup d'imprécision. Afin de tenir compte de toute l'information disponible, il est possible de modéliser conjointement les strates. Deux méthode de modélisation conjointe sont présentées. Premièrement, il est possible d'estimer les valeurs manquantes à l'aide le l'algorithme EM et ainsi travailler avec des listes complètes. Deuxièmement, un modèle log-linéaire avec effet de strate qui permet de tenir compte de toute l'information tout en demeurant beaucoup plus simple à utiliser. En mesurant l'efficacité de façon explicite, on voit que la modélisation conjointe est plus avantageuse que la modélisation strate par strate.
|
449 |
Optimisation d'échangeurs de chaleur : condenseur à calandre, réseau d'échangeurs de chaleur et production d'eau froideAllen, Benoît 17 April 2018 (has links)
La présente étude porte sur l'optimisation de systèmes thermiques servant soit à récupérer de la chaleur ou à produire de la chaleur ou du froid. Essentiellement, le travail portera sur les condenseurs de type tubes et calandre, sur les réseaux d'échangeurs de chaleur ainsi que sur les systèmes de production d'eau froide. L'objectif ultime est de développer une méthode permettant de déterminer le design minimisant les coûts reliés à l'achat et à l'opération de ces systèmes thermiques. Pour atteindre cet objectif, on doit d'abord créer un modèle mathématique permettant de calculer les surfaces d'échanges requises et les puissances de pompage requises pour faire fonctionner un échangeur de chaleur. Basé sur des relations analytiques et empiriques, le modèle doit tenir compte des variables design considérées dans le problème, soit une dizaine de paramètres géométriques et le régime d'opération. Il s'agit d'identifier les valeurs à accorder à chacune de ces variables de design afin de faire le meilleur compromis entre la minimisation des surfaces d'échange de chaleur requises et la quantité d'énergie requise pour faire fonctionner les systèmes. Autrement dit, on cherche à minimiser le coût total, constitué du coût d'achat du matériel et des coûts d'opération. Une fois cette démarche réalisée pour le condenseur à tubes et calandre, on applique une méthode similaire pour optimiser une série d'échangeurs de chaleur dans le cas des réseaux d'échangeurs de chaleur et finalement pour un cycle de réfrigération composé de deux échangeurs, un condenseur et un évaporateur, ainsi qu'un compresseur. Étant donné le nombre important de variables de design considéré pour chacun de ces problèmes, le nombre total de design possible est trop élevé pour calculer le coût de chacun d'entre eux et choisir le meilleur. Cela serait trop coûteux en temps de calcul. C'est pourquoi nous ferons appel à l'utilisation d'algorithmes génétiques. Ces derniers nous permettront d'identifier avec une excellente probabilité le design optimal et ce, dans un laps de temps acceptable en pratique. La méthode est finalement validée grâce à des exemples d'application.
|
450 |
Design d'expérimentation interactif : aide à la compréhension de systèmes complexesDe Rainville, François-Michel 17 April 2018 (has links)
Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié.
|
Page generated in 0.0785 seconds