• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 21
  • 4
  • Tagged with
  • 72
  • 72
  • 65
  • 47
  • 42
  • 35
  • 33
  • 22
  • 18
  • 16
  • 13
  • 12
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapides

Trottier, Éric 10 May 2024 (has links)
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre. / For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
12

Optimisation par recuit simulé et fabrication de masques de phase pour l'augmentation de la profondeur de champ d'un microscope

Caron, Nicolas 13 April 2018 (has links)
La profondeur de champ est un paramètre crucial pour la conception des systèmes optiques. Cette affirmation est particulièrement vraie dans le cas des microscopes. Plusieurs solutions ont été proposées dans le passé pour contourner les limites imposées par ce paramètre. L'ingénierie du front d'onde consiste par exemple à ajouter un masque de phase dans le système optique pour rendre la fonction de transfert optique invariante par rapport à la position axiale de l'objet. Ce mémoire propose d'atteindre ce but en optimisant des masques de phase polynomiaux par la méthode du recuit simulé. L'invariance de la fonction de transfert optique est assurée par la minimisation d'une fonction de coût faisant intervenir la MTF du système optique en fonction de l'aberration du défocus. L'optique de Fourier est utilisée pour obtenir cette information à partir d'un modèle théorique du microscope. Les masques de phases sont optimisés selon deux géométries en particulier : le système de coordonnées cartésiennes séparables et la symétrie de rotation. Cette façon de procéder permet d'évaluer un grand nombre de solutions différentes dans un temps raisonnable, ce qui maximise les chances d'atteindre le minimum global de la fonction de coût. Le meilleur masque ainsi obtenu est fabriqué par la méthode des gravures binaires successives. Cette technique photolithographique permet d'obtenir quatre niveaux de phase. Le masque fabriqué est finalement ajouté au montage du microscope afin de vérifier son effet sur la profondeur de champ. Les résultats obtenus après déconvolution des images acquises respectent le but initialement fixé.
13

Approche intégrée de traitements numériques des données bathymétriques acoustiques et optiques en vue de réduire l'intervention humaine

Pouliot, Jacynthe 11 April 2018 (has links)
Québec Université Laval, Bibliothèque 2016
14

Description incrémentale d'objets déformables dans des séquences vidéo

Drouin, Stéphane 13 April 2018 (has links)
Cette thèse propose une méthode pour la description incrémentale d'objets formés de plusieurs parties en mouvement observées dans des séquences vidéo. La principale contribution de ce travail est l'automatisation de la modélisation incrémentale des objets en mouvement. L'approche proposée permet l'initialisation entièrement automatique des modèles. Puisque cette opération n'est plus distincte, la topologie des modèles n'a pas à être connue à l'avance et les objets observés n'ont pas à être segmentés correctement à un instant prédéterminé. Afin de décrire automatiquement les mouvements d'un objet déformable, les parties rigides qui le composent sont segmentées selon leur déplacement dans les images. Un algorithme de segmentation combinant le mouvement des points d'intérêt et le déplacement de patrons d'arêtes est proposé afin de rendre les résultats moins dépendants de la texture présente dans les images. De plus, l'utilisation de la mesure de quantité de mouvement est introduite afin d'assurer une certaine indépendance face à l'échelle temporelle. La segmentation n'est activée que localement, quand les parties existantes ne peuvent plus être suivies correctement. Les parties ainsi segmentées sont automatiquement intégrées dans un modèle formé de parties rigides qui est ensuite utilisé pour le suivi de l'objet. La gestion des occultations de même que la création et la validation de modèles articulés sont toutes deux réalisées lors du suivi. Cette approche permet d'intégrer l'initialisation des modèles et leur suivi dans une boucle de rétroaction entre la segmentation et le suivi. Une mémoire des modèles favorise l'émergence des meilleurs modèles en renforçant ceux qui sont souvent réobservés et en pénalisant les autres. Les objets qui peuvent être représentés par cette nouvelle approche sont composés de parties rigides et ils sont déformables. Dans ce contexte, la déformation d'un objet est définie comme un déplacement relatif de ses parties. Des exemples montrent l'application du système sur des objets manufacturés composés d'une ou de plusieurs parties, des personnes et des personnes qui transportent des objets.
15

High speed optical communications in silicon photonics modulators

Zhalehpour, Sasan 16 March 2024 (has links)
Les communications optiques basées sur la photonique sur silicium (SiP) sont au centre des récents efforts de recherche pour le développement des futures technologies de réseaux optiques à haut débit. Dans cette thèse, nous étudions le traitement numérique du signal (DSP) pour pallier aux limites physiques des modulateurs Mach-Zehnder sur silicium (MZM) opérés à haut débit et exploitant des formats de modulation avancés utilisant la détection cohérente. Dans le premier chapitre, nous présentons une nouvelle méthode de précompensation adaptative appelée contrôle d’apprentissage itératif par gain (G-ILC, aussi utilisé en linéarisation d’amplificateurs RF) permettant de compenser les distorsions non-linéaires. L’adaptation de la méthode G-ILC et la précompensation numérique linéaire sont accomplies par une procédure « hardware-in-the-loop » en quasi-temps réel. Nous examinons différents ordres de modulation d’amplitude en quadrature (QAM) de 16QAM à 256QAM avec des taux de symboles de 20 à 60 Gbaud. De plus, nous combinons les précompensations numériques et optiques pour contrevenir surmonter les limitations de bande-passante du système en régime de transmission haut débit. Dans le second chapitre, inspiré par les faibles taux de symbole du G-ILC, nous augmentons la vitesse de transmission au-delà de la limite de bande-passante du système SiP. Pour la première fois, nous démontrons expérimentalement un record de 100 Gbaud par 16QAM et 32QAM en transmission consécutive avec polarisation mixte. L’optimisation est réalisée sur le point d’opération du MZM et sur la DSP. Les performances du G-ILC sont améliorées par égalisation linéaire à entrées/sorties multiples (MIMO). Nous combinons aussi notre précompensation non-linéaire innovante avec une post-compensation. Par émulation de la polarisation mixte, nous réalisons un taux net de 833 Gb/s avec 32QAM au seuil de correction d’erreur (FEC) pour une expansion en largeur de bande de 20% et 747 Gb/s avec 16QAM (une expansion en largeur de bande de 7% du FEC). Dans le troisième chapitre, nous démontrons expérimentalement un algorithme de précompensation numérique basé sur une table de consultation (LUT) unidimensionnelle pour compenser les non-linéarités introduites à l’émetteur, e.g. réponse en fréquence non-linéaire du MZM en silicium, conversion numérique-analogique et amplificateur RF. L’évaluation est réalisée sur un QAM d’ordre élevé, i.e. 128QAM et 256QAM. Nous examinons la diminution en complexité de la LUT et son impact sur la performance. Finalement, nous examinons la généralisation de la méthode de précompensation proposée pour des jeux de données différents des données d’apprentissage de la table de consultation. / Optical communications based on silicon photonics (SiP) have become a focus of the recent research for future high speed optical network technologies. In this thesis, we investigate digital signal processing (DSP) approaches to combat the physical limits of SiP Mach-Zehnder modulators (MZM) driven at high baud rates and exploiting advanced modulation formats with coherent detection. In the first section, we present a novel adaptive pre-compensation method known as gain based iterative learning control (G-ILC, previously used in RF amplifier linearization) to overcome nonlinear distortions. We experimentally evaluate the G-ILC technique. Adaptation of the G-ILC, in combination with linear digital pre-compensation, is accomplished with a quasireal- time hardware-in-the-loop procedure. We examine various orders of quadrature amplitude modulation (QAM), i.e., 16QAM to 256QAM, and symbol rates, i.e., 20 to 60 Gbaud. Furthermore, we exploit joint digital and optical linear pre-compensation to overcome the bandwidth limitation of the system in the higher baud rate regime. In the second section, inspired by lower symbol rate G-ILC results, we push the baud rate beyond the bandwidth limit of the SiP system. For the first time, we experimentally report record-breaking 16QAM and 32QAM at 100 Gbaud in dual polarization back-to-back transmission. The optimization is performed on both MZM operating point and DSP. The G-ILC performance is improved by employing linear multiple input multiple output (MIMO) equalization during the adaptation. We combine our innovative nonlinear pre-compensation with post-compensation as well. Via dual polarization emulation, we achieve a net rate of 833 Gb/s with 32QAM at the forward error correction (FEC) threshold for 20% overhead and 747 Gb/s with 16QAM (7% FEC overhead). In the third section, we experimentally present a digital pre-compensation algorithm based on a one-dimensional lookup table (LUT) to compensate the nonlinearity introduced at the transmitter, e.g., nonlinear frequency response of the SiP MZM, digital to analog converter and RF amplifier. The evaluation is performed on higher order QAM, i.e., 128QAM and 256QAM. We examine reduction of LUT complexity and its impact on performance. Finally, we examine the generalization of the proposed pre-compensation method to data sets other than the original training set for the LUT.
16

Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés

Martel-Brisson, Nicolas 18 April 2018 (has links)
La présente thèse propose un algorithme de segmentation de bas niveau pour des environnements complexes, allant de scènes intérieures peuplées aux scènes extérieures dynamiques. Basé sur des méthodes d'apprentissage développées pour une séquence vidéo où la caméra est fixe, le système est en mesure d'identifier les sections de l'image appartenant aux objets ou personnes d'avant-plan et ce, en dépit de perturbations temporelles de l'image de l'arrière-plan causées par les ombres, éléments naturels, changements d'illumination, etc. Nous proposons un cadre statistique d'estimation de densité de probabilité basé sur des kernels (KDE). Méthode polyvalente, les KDE requièrent toutefois des séquences d'entraînement où l'activité de l'avant-plan est minimale afin d'obtenir une bonne description initiale de la distribution de l'arrière-plan. Afin d'augmenter la flexibilité de ce type d'approche, nous exploitons la cohérence spatiale des événements d'avant-plan : en minimisant une fonction d'énergie globale par coupure de graphe, nous estimons les probabilités à priori et les densités associées à l'avant et l'arrière-plan pour chaque pixel de la scène. Pour y arriver, des indices tels la dispersion des données, la probabilité associée aux modes dans l'espace RGB, la persistance spatiale des événements et l'entropie relative des régions dans l'image sont utilisés dans un cadre statistique cohérent. Les ombres projetées qui sont détectées lors du processus de soustraction d'arrière-plan induisent des perturbations, tels la distorsion et la fusion des silhouettes, qui nuisent à la performance générale d'algorithmes de plus haut niveau dans un contexte de surveillance vidéo. Deux stratégies sont alors proposées afin de d'éliminer l'ombre projetée de la région d'intérêt. La première méthode utilise la capacité d'apprentissage de l'algorithme de Mixtures de Gaussiennes (GMM) dans le but de caractériser le comportement des ombres projetées sur les surfaces composant l'arrière-plan. La deuxième méthode s'appuie sur les propriétés physiques de l'ombre projetée et d'une mesure de gradient dans un cadre statistique non paramétrique afin d'estimer les valeurs d'atténuation des surfaces ombragées. La méthode permet la différenciation des ombres et de l'avant-plan lorsque ceux-ci partagent des valeurs de chromaticité similaire. Les résultats démontrent que notre approche est efficace dans une multitude de scénarios complexes.
17

Développement d'outils d'IA pour évaluer l'état de douleur d'une souris

Bonilla Villatoro, William Ricardo 06 May 2024 (has links)
Ce mémoire présente une méthodologie novatrice pour mesurer les niveaux de douleur chez la souris en utilisant des techniques d'interprétation des images par apprentissage profond. L'un des principaux défis rencontrés dans cette étude a été l'acquisition de données de haute qualité. Une fois les données de qualité obtenues, il a été possible d'entraîner des réseaux de neurones capables de mesurer les niveaux de douleur. Afin de relever ces défis, nous avons développé un système de capture et de traitement d'images spécifiquement conçu pour cette étude. Ce système permet l'acquisition d'images de haute résolution avec un éclairage ajustable, ainsi que le traitement presque en temps réel des images. Grâce à ce système, nous avons pu constituer une base de données, appelée *MGS_UL*, comprenant plus de 2000 images annotées. Ensuite, des algorithmes d'apprentissage profond sont exploités pour évaluer de manière fiable les niveaux de douleur chez les souris. Ces algorithmes ont été testés sur la base de données *MGS_UL* pour évaluer leur efficacité à mesurer les niveaux de douleur. Les résultats obtenus démontrent la viabilité de ces algorithmes d'apprentissage profond pour la mesure de la douleur chez les souris. Ils ouvrent également la voie à de nouvelles avancées dans ce domaine de recherche.
18

Combustion monitoring for biomass boilers using multivariate image analysis

Cousineau-Pelletier, Myriam 16 April 2018 (has links)
Les procédés de combustion sont utilisés dans la plupart des industries chimiques, métallurgiques et manufacturières, pour produire de la vapeur (chaudières), pour sécher des solides ou les transformer dans des fours rotatifs (ou autres). Or, les combustibles fossiles qui les alimentent (ex. : gaz naturel) sont de plus en plus dispendieux, ce qui incite plusieurs compagnies à utiliser d’autres sources de combustibles tels que de la biomasse, des rejets inflammables produits par le procédé lui-même ou des combustibles fossiles de moindre qualité. Ces alternatives sont moins coûteuses, mais de composition, et donc de pouvoir calorifique, plus variable. De telles variations dans la chaleur dégagée par la combustion perturbent l’opération des procédés et la qualité des produits qui dépendent de ces installations. De nouvelles stratégies de contrôle de la combustion doivent donc être élaborées afin de tenir compte de cette nouvelle réalité. Il a été récemment démontré que l’énergie dégagée par la combustion est corrélée à l’aspect visuel de la flamme, principalement sa couleur, ce qui permet d’en quantifier les variations par imagerie numérique. L’objectif de ce projet industriel consiste à faire la démonstration que l’analyse d’images multivariées peut servir à l’identification du comportement d’une chaudière à biomasse. La chaudière à biomasse opérée par Irving Pulp & Paper Ltd (Saint-John, Nouveau-Brunswick) fera office d’exemple. Les résultats montrent qu’un modèle bâtit à partir des informations fournies par les images ainsi que les données de procédé donne de bonnes prédictions de la quantité de vapeur produite (R2modèle=93.6%, R2validation=70.1%) et ce, 2,5 minutes à l’avance. Ce projet est la première étape du développement d’une nouvelle stratégie de contrôle automatique de la combustion de biomasse, capable de stabiliser l’énergie dégagée, malgré les variations imprévisibles dans le pouvoir calorifique et les proportions des combustibles utilisés provenant de différentes sources. / Biomass is increasingly used in the process industry, particularly in utility boilers, as a low cost source of renewable, carbon neutral energy. It is, however, a solid fuel with some degree of moisture which feed rate and heat of combustion is often highly variable and difficult to control. Indeed, the variable bark properties such as its carbon content or its moisture content have an influence on heat released. Moreover, the uncertain and unsteady bark flow rate increases the level of difficulty for predicting heat released. The traditional 3-element boiler control strategy normally used needs to be improved to make sure the resulting heat released remains as steady as possible, thus leading to a more widespread use biomass as a combustible. It has been shown in the past that the flame digital images can be used to estimate the heat released by combustion processes. Therefore, this work investigates the use of Multivariate Image Analysis (MIA) of biomass combustion images for early detection of combustion disturbances. Applied to a bark boiler operated by Irving Pulp & Paper Ltd, it was shown to provide good predictions, 2.5 minutes in advance, of variations in steam flow rate (R2fit=93.6%, R2val=70.1%) when information extracted from images were combined with relevant process data. This project is the first step in the development of a new automatic control scheme for biomass boilers, which would have the ability to take proactive control actions before such disturbances in the manipulated variable (i.e. bark flow and bark properties) could affect steam production and steam header pressure.
19

Automatic segmentation of the bony structure of the shoulder

Nguyen, Nhat Tan 11 April 2018 (has links)
Plusieurs problèmes dans le placement d'endoprothèses sont dus à une compréhension pré-opératoire limitée de l'état du patient. La plupart des patients souffrent de l'arthrite rhumatoïde, ce qui affect la qualité et la forme de l'os en question: souvent la cavité glénoïde de l'omoplate s'est rétractée. Le plan de l'opération doit être planifiée à l'aide d'images Roentgen 2-D. Pendant la chirurgie, l'espace de travail de l'opération est très limité, seule la surface articulaire du scapula est exposée. Le patient est placé sur le côté, avec l'épaule endommagé pointant vers le haut, ce qui entraine un glissement vers le bas de l'omoplate. Pendant la chirurgie, la technique la plus souvent utilisée implique l'enlèvement du cartilage restant, le moulage de la forme de l'endoprothèse dans l'os trabeculaire, l'application d'une certaine quantité de ciment d'os, le placement de l'endoprothèse et l'insertion de vis pour une fixation préliminaire. D'autres préfèrent approcher l'espace d'opération du côté arrière du patient en fendant le scapula en deux. La technique préférée est de supporter l'endoprothèse sur l'os corticale et d'essayer de rétablir une position et une orientation fonctionnelles. Une prothèse faite sur mesure est donc nécessaire en plus d'une bonne vue de l'omoplate. La segmentation automatique des structures osseuses dans les bases de données agiographiques IRM est une étape préliminaire essentielle pour la plupart des tâches de visualisation et d'analyse. Afin d'obtenir une meilleure compréhension de l'épaule en santé et de l'épaule arthrosique pathologique, ce projet développera une méthode pour la segmentation des structures de l'épaule à partir de bases de données de l'IRM. Le développement de techniques convenables pour la segmentation du scapula et de l'humérus dans une base de données bidimensionnelle de l'IRM constitue une partie majeure de ce projet. Actuellement nous nous penchons sur des techniques de segmentation basées sur les contours, c'est-à-dire un point de l'os est défini d'abord. Les contours de l'os sont extraits dans une deuxième étape. / Image segmentation is an important area in the general field of image processing and computer vision. It is a fundamental part of the 'low level' aspects of computer vision and has many practical applications such as in medical imaging, industrial automation and satellite imagery. Traditional methods for image segmentation have approached the problem either from localization in class space using region information, or from localization in position, using edge or boundary information. More recently, however, attempts have been made to combine both region and boundary information in order to overcome the inherent limitations of using either approach alone. The shoulder has the widest range of motion than any joint in the body. Normally, shoulder stability is maintained through complex interaction between static and dynamic stabilizing mechanisms, including the bony glenoid, the labrum, the glenohumeral ligaments and joint capsule, and the muscles and tendons of the rotator cuff. Due to the complicated mechanisms involved in glenohumeral stability, a clinical evaluation can be very challenging. The primary motivation behind this research is to improve the accurate clinical evaluation of shoulder pathology. In this thesis, a new approach to image segmentation is presented that integrates region and boundary information. Our ultimate goal is to develop a framework for integrating boundary finding and region-based segmentation. This would lead to a System where the two modules would operate respectively so that at each step the outputs of each module get updated using information from the outputs of both the modules from the previous iteration. The main objective we present in this thesis is aimed at using the results of boundary detection to assist region-based segmentation. Unlike most of other existing methods, it integrates boundary-based segmentation with region growing rather than edge detection, thereby making it resistant to the problems of false and broken edges while at the same time having well localized boundaries. This method is successful in segmenting the set of slices of MR images of the shoulder. The experiments show that the results given by the method archive 96.32% correspondence to results given by a specialist does segment manually.
20

Nettoyage d'une carte de primitives par appariement et relaxation

Filiatrault, Alexandre 12 April 2018 (has links)
Ce mémoire présente une étape intermédiaire de traitement dans le but d'isoler les objets principaux d'une scène. Les calculs sont effectués à partir de la sortie du logiciel Magno, qui a pour but de segmenter une image numérique en segments de droites et en arcs de cercles. L'objectif du projet est de nettoyer la carte de primitives ; garder celles qui sont disposées à former un objet multi-parties et rejeter celles qui vraisemblablement représentent l'arrière-scène. L'approche retenue implique un appariement de toutes les paires de primitives possibles et y ajoute une phase de relaxation pour stabiliser les résultats.

Page generated in 0.0667 seconds