161 |
Méthodes statistiques utilisant des simulations hydrodynamiques d'atmosphères stellaires pour détecter des exoplanètes en vitesse radiale / Statistical methods using hydrodynamic simulations of stellar atmospheres for detecting exoplanets in radial velocity dataSulis, Sophia 02 October 2017 (has links)
Considérant une série temporelle affectée par un bruit coloré dont les propriétés statistiques sont inconnues, la difficulté pour la détection de signaux périodiques est de contrôler le degré de confiance avec lequel les tests de détection rejettent l'hypothèse nulle en faveur de l'hypothèse alternative. L'objectif de cette thèse est de développer une nouvelle méthode utilisant des séries temporelles simulées du bruit pour améliorer ce contrôle. Dans le cas d'un échantillonnage régulier, nous avons analysé les performances de différents tests de détection appliqués à un périodogramme standardisé par le spectre simulé du bruit. La standardisation proposée entraîne, dans la majorité des cas, des tests de détection puissants dont les taux de fausses alarmes sont constants. Grâce au développement des distributions asymptotiques de ce périodogramme, nous avons déterminé des expressions analytiques pour les probabilités de fausses alarmes (PFA) et de détections de différents tests. Dans le cas d'un échantillonnage irrégulier, nous montrons qu'il est possible de combiner la standardisation proposée du périodogramme avec des techniques de bootstrap pour contrôler la PFA de manière fiable. La procédure peut être optimisée en utilisant les valeurs extrêmes généralisées. Cette étude a été appliquée au cas de la détection de planètes extrasolaires par la méthode des vitesses radiales dont l'une des principales barrières pour détecter des planètes de masse terrestre vient de l'activité de l'étoile hôte, notamment la convection de surface. Le travail effectué dans cette thèse a porté sur la contribution de simulations hydrodynamiques du bruit convectif dans le processus de détection. / Considering a time series affected by a colored noise of unknown statistics, a difficulty for periodic signal detection is to control the true significance level at which the detection tests are conducted. The objective of this thesis is to develop a new method using training datasets of the noise to improve this control. For the case of regularly sampled observations, we analyze the performances of various detectors applied to periodograms standardized using the noise training datasets. The proposed standardization leads, in some cases, to powerful constant false alarm rate tests. Thanks to the development of the asymptotical distribution of the standardized periodogram, we derive analytical expressions for the false alarm and detection rates of several tests. In the case of irregular sampling, we show that it is possible to combine the proposed periodogram standardization and bootstrap techniques to consistently estimate the false alarm rate. We also show that the procedure can be improved by using generalized extreme value distributions. This study has been applied to the case of extrasolar planet detection in radial velocity (RV) data. The main barrier to detect Earth-mass planets comes from the host star activity, as the convection at the stellar surface. This work investigates the possibility of using hydrodynamic simulations of the stellar convection in the detection process to control exoplanet detection claims.
|
162 |
Représentations pour la détection d’anomalies : Application aux données vibratoires des moteurs d’avions / Representations for anomaly detection : Application to aircraft engines’ vibration dataAbdel Sayed, Mina 03 July 2018 (has links)
Les mesures de vibrations sont l’une des données les plus pertinentes pour détecter des anomalies sur les moteurs. Les vibrations sont acquises sur banc d’essai en phase d’accélération et de décélération pour assurer la fiabilité du moteur à la sortie de la chaine de production. Ces données temporelles sont converties en spectrogrammes pour permettre aux experts d’effectuer une analyse visuelle de ces données et de détecter les différentes signatures atypiques. Les sources vibratoires correspondent à des raies sur les spectrogrammes. Dans cette thèse, nous avons mis en place un outil d’aide à la décision automatique pour analyser les spectrogrammes et détecter tout type de signatures atypiques, ces signatures ne proviennent pas nécessairement d’un endommagement du moteur. En premier lieu, nous avons construit une base de données numérique de spectrogrammes annotés. Il est important de noter que les signatures inusuelles sont variables en forme, intensité et position et se trouvent dans un faible nombre de données. Par conséquent, pour détecter ces signatures, nous caractérisons les comportements normaux des spectrogrammes, de manière analogue aux méthodes de détection de nouveautés, en représentant les patchs des spectrogrammes sur des dictionnaires comme les curvelets et la Non-negative matrix factorization (NMF), ainsi qu’en estimant la distribution de chaque point du spectrogramme à partir de données normales dépendamment ou non de leur voisinage. La détection des points atypiques est réalisée par comparaison des données tests au modèle de normalité estimé sur des données d’apprentissage normales. La détection des points atypiques permet la détection des signatures inusuelles composées par ces points. / Vibration measurements are one of the most relevant data for detecting anomalies in engines. Vibrations are recorded on a test bench during acceleration and deceleration phases to ensure the reliability of every flight engine at the end of the production line. These temporal signals are converted into spectrograms for experts to perform visual analysis of these data and detect any unusual signature. Vibratory signatures correspond to lines on the spectrograms. In this thesis, we have developed a decision support system to automatically analyze these spectrograms and detect any type of unusual signatures, these signatures are not necessarily originated from a damage in the engine. Firstly, we have built a numerical spectrograms database with annotated zones, it is important to note that data containing these unusual signatures are sparse and that these signatures are quite variable in shape, intensity and position. Consequently, to detect them, like in the novelty detection process, we characterize the normal behavior of the spectrograms by representing patches of the spectrograms in dictionaries such as the curvelets and the Non-negative matrix factorization (NMF) and by estimating the distribution of every points of the spectrograms with normal data depending or not of the neighborhood. The detection of the unusual points is performed by comparing test data to the model of normality estimated on learning normal data. The detection of the unusual points allows the detection of the unusual signatures composed by these points.
|
163 |
Techniques de détection de défauts à base d’estimation d’état ensembliste pour systèmes incertains / Fault detection techniques based on set-membership state estimation for uncertain systemsBen Chabane, Sofiane 13 October 2015 (has links)
Cette thèse propose une nouvelle approche de détection de défauts pour des systèmes linéaires soumis à des incertitudes par intervalles, des perturbations et des bruits de mesures bornés. Dans ce contexte, la détection de défauts est fondée sur une estimation ensembliste de l'état du système. Les contributions de cette thèse concernent trois directions principales :- La première partie propose une méthode d'estimation d'état ensembliste améliorée combinant l'estimation à base des zonotopes (qui offre une bonne précision) et l'estimation à base d'ellipsoïdes (qui offre une complexité réduite).- Dans la deuxième partie, une nouvelle approche d'estimation d'état ellipsoïdale fondée sur la minimisation du rayon de l'ellipsoïde est développée. Dans ce cadre, des systèmes multivariables linéaires invariants dans le temps, ainsi que des systèmes linéaires variants dans le temps ont été considérés. Ces approches, résolues à l'aide de problèmes d'optimisation sous la forme d'Inégalités Matricielles Linéaires, ont été étendues au cas des systèmes soumis à des incertitudes par intervalles.- Dans la continuité des approches précédentes, deux techniques de détection de défauts ont été proposées dans la troisième partie utilisant les méthodes d'estimation ensemblistes. La première technique permet de détecter des défauts capteur en testant la cohérence entre le modèle et les mesures. La deuxième technique fondée sur les modèles multiples permet de traiter simultanément les défauts actionneur/composant/capteur. Une commande prédictive Min-Max a été développée afin de déterminer la commande optimale et le meilleur modèle à utiliser pour le système, malgré la présence des différents défauts. / This thesis proposes a new Fault Detection approach for linear systems with interval uncertainties, bounded perturbations and bounded measurement noises. In this context, the Fault Detection is based on a set-membership state estimation of the system. The main contributions of this thesis are divided into three parts:- The first part proposes an improved method which combines the good accuracy of the zonotopic set-membership state estimation and the reduced complexity of the ellipsoidal set-membership estimation.- In the second part, a new ellipsoidal state estimation approach based on the minimization of the ellipsoidal radius is developed, leading to Linear Matrix Inequality optimization problems. In this context, both multivariable linear time-invariant systems and linear time-variant systems are considered. An extension of these approaches to systems with interval uncertainties is also proposed. - In the continuity of the previous approaches, two Fault Detection techniques have been proposed in the third part based on these set-membership estimation techniques. The first technique allows to detect sensor faults by checking the consistency between the model and the measurements. The second technique is based on Multiple Models. It deals with actuator/component/sensor faults in the same time. A Min-Max Model Predictive Control is developed in order to find the optimal control and the best model to use for the system in spite of the presence of these faults.
|
164 |
Détection de tableaux dans des documents : une étude de TableBankYockell, Eugénie 04 1900 (has links)
L’extraction d’information dans des documents est une nécessité, particulièrement dans
notre ère actuelle où il est commun d’employer un téléphone portable pour photographier
des documents ou des factures. On trouve aussi une utilisation répandue de documents
PDF qui nécessite de traiter une imposante quantité de documents digitaux. Par leur
nature, les données des documents PDF sont complexes à extraire, nécessitant d’être
analysés comme des images. Dans cette recherche, on se concentre sur une information
particulière à prélever: des tableaux. En effet, les tableaux retrouvés dans les docu-
ments représentent une entité significative, car ils contiennent des informations décisives.
L’utilisation de modèles neuronaux pour performer des extractions automatiques permet
considérablement d’économiser du temps et des efforts.
Dans ce mémoire, on définit les métriques, les modèles et les ensembles de données
utilisés pour la tâche de détection de tableaux. On se concentre notamment sur l’étude
des ensembles de données TableBank et PubLayNet, en soulignant les problèmes d’an-
notations présents dans l’ensemble TableBank. On relève que différentes combinaisons
d’ensembles d’entraînement avec TableBank et PubLayNet semblent améliorer les perfor-
mances du modèle Faster R-CNN, ainsi que des méthodes d’augmentations de données.
On compare aussi le modèle de Faster R-CNN avec le modèle CascadeTabNet pour la
détection de tableaux où ce premier demeure supérieur.
D’autre part, on soulève un enjeu qui est peu discuté dans la tâche de détection
d’objets, soit qu’il existe une trop grande quantité de métriques. Cette problématique
rend la comparaison de modèles ardue. On génère ainsi les résultats de modèles selon
plusieurs métriques afin de démontrer qu’elles conduisent généralement vers différents
modèles gagnants, soit le modèle ayant les meilleures performances. On recommande
aussi les métriques les plus pertinentes à observer pour la détection de tableaux, c’est-à-
dire APmedium/APmedium, Pascal AP85 ou COCO AP85 et la métrique de TableBank. / Extracting information from documents is a necessity, especially in today’s age where
it is common to use a cell phone to photograph documents or invoices. There is also
the widespread use of PDF documents that requires processing a large amount of digital
documents. Due to their nature, the data in PDF documents are complex to retrieve,
needing to be analyzed as images. In this research, we focus on a particular information to
be extracted: tables. Indeed, the tables found in documents represent a significant entity,
as they contain decisive information. The use of neural networks to perform automatic
retrieval saves time and effort.
In this research, the metrics, models and datasets used for the table detection task are
defined. In particular, we focus on the study of the TableBank and PubLayNet datasets,
highlighting the problems of annotations present in the TableBank set. We point out that
different combinations of training sets using TableBank and PubLayNet appear to improve
the performance of the Faster R-CNN model, as well as data augmentation methods. We
also compare the Faster R-CNN model with the CascadeTabNet model for table detection
where the former remains superior.
In addition, we raise an issue that is not often discussed in the object detection task,
namely that there are too many metrics. This problem makes model comparison difficult.
We therefore generate results from models with several metrics in order to demonstrate
the influence of these metrics in defining the best performing model. We also recommend
the most relevant metrics to observe for table detection, APmedium/APmedium, Pascal
AP85 or COCO AP85 and the TableBank metric.
|
165 |
Transfert technologique et validation de tests microbiologiques sur un laboratoire mobile conçu pour la surveillance de la qualité de l'eau en régions éloignéesBernier, Jean-Luc 12 April 2018 (has links)
L'eau est un vecteur important pour la transmission de maladies infectieuses. Les méthodes classiques utilisées pour évaluer la qualité microbiologique de l'eau sont cependant inaptes à garantir l'absence de tous les microorganismes pathogènes. Le développement de nouvelles méthodes moléculaires permettant la détection rapide, sensible, spécifique et abordable de ces microorganismes pourrait diminuer le nombre de cas d'infections reliées à la consommation d'eau potable. Ce mémoire décrit la démarche empruntée pour adapter, utiliser et comparer des méthodes microbiologiques classiques à bord du laboratoire mobile Atlantis (LMA) lors d'une campagne de surveillance de la qualité l'eau en région éloignée. Nous élaborons ensuite sur le processus permettant le transfert technologique de deux méthodes moléculaires ciblant deux indicateurs de contamination fécale, Escherichia coli et les entérocoques. Les résultats de ces recherches permettent de conclure que le LMA pourra jouer un rôle prometteur pour la surveillance des maladies infectieuses d'origine hydrique.
|
166 |
Techniques d'identification d'entités nommées et de classification non-supervisée pour des requêtes de recherche web à l'aide d'informations contenues dans les pages web visitéesGoulet, Sylvain January 2014 (has links)
Le web est maintenant devenu une importante source d’information et de divertissement pour un grand nombre de personnes et les techniques pour accéder au contenu désiré ne cessent d’évoluer. Par exemple, en plus de la liste de pages web habituelle, certains moteurs de recherche présentent maintenant directement, lorsque possible, l’information recherchée par l’usager. Dans ce contexte, l’étude des requêtes soumises à ce type de moteur de recherche devient un outil pouvant aider à perfectionner ce genre de système et ainsi améliorer l’expérience d’utilisation de ses usagers. Dans cette optique, le présent document présentera certaines techniques qui ont été développées pour faire l’étude des requêtes de recherche web soumises à un moteur de recherche. En particulier, le travail présenté ici s’intéresse à deux problèmes distincts. Le premier porte sur la classification non-supervisée d’un ensemble de requêtes de recherche web dans le but de parvenir à regrouper ensemble les requêtes traitant d’un même sujet. Le deuxième problème porte quant à lui sur la détection non-supervisée des entités nommées contenues dans un ensemble de requêtes qui ont été soumises à un moteur de recherche. Les deux techniques proposées utilisent l’information supplémentaire apportée par la connaissance des pages web qui ont été visitées par les utilisateurs ayant émis les requêtes étudiées.
|
167 |
Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualitéHoré, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
|
168 |
Système d'alignement d'une partition de musique basé sur la déformation dynamique étendue du tempsGagnon, Bruno January 2009 (has links)
Ce mémoire propose un système permettant de suivre, à l'aide d'un ordinateur domestique et d'un microphone, une partition de musique jouée par un musicien. Le système utilise en entrée une partition de musique et le signal audio numérique monophonique de la partition de musique jouée par le musicien. Contrairement aux systèmes habituels, le système proposé donne la liberté au musicien de jouer différents segments de la partition de musique dans l'ordre qu'il le désire, et ce, sans préalablement informer le système de ses intentions. Pour ce faire, le système propose une variante de l'algorithme de la déformation dynamique du temps ( Dynamic Time Warping ) utilisant des notions musicales pour effectuer le suivi. Il est à noter que la complexité du système est suffisamment faible pour qu'un ordinateur domestique récent puisse suivre le musicien pendant que celui-ci joue la partition de musique, et ce, avec un délai constant de quelques notes de musique.
|
169 |
Gestion de mémoire pour la détection de fermeture de boucle pour la cartographie temps réel par un robot mobileLabbé, Mathieu January 2010 (has links)
Pour permettre à un robot autonome de faire des tâches complexes, il est important qu'il puisse cartographier son environnement pour s'y localiser. À long terme, pour corriger sa carte globale, il est nécessaire qu'il détecte les endroits déjà visités. C'est une des caractéristiques les plus importantes en localisation et cartographie simultanée (SLAM), mais aussi sa principale limitation. La charge de calcul augmente en fonction de la taille de l'environnement, et alors les algorithmes n'arrivent plus à s'exécuter en temps réel. Pour résoudre cette problématique, l'objectif est de développer un nouvel algorithme de détection en temps réel d'endroits déjà visités, et qui fonctionne peu importe la taille de l'environnement. La détection de fermetures de boucle, c'est-à-dire la reconnaissance des endroits déjà visités, est réalisée par un algorithme probabiliste robuste d'évaluation de la similitude entre les images acquises par une caméra à intervalles réguliers. Pour gérer efficacement la charge de calcul de cet algorithme, la mémoire du robot est divisée en mémoires à long terme (base de données), à court terme et de travail (mémoires vives). La mémoire de travail garde les images les plus caractéristiques de l'environnement afin de respecter la contrainte d'exécution temps réel. Lorsque la contrainte de temps réel est atteinte, les images des endroits vus les moins souvent depuis longtemps sont transférées de la mémoire de travail à la mémoire à long terme. Ces images transférées peuvent être récupérées de la mémoire à long terme à la mémoire de travail lorsqu'une image voisine dans la mémoire de travail reçoit une haute probabilité que le robot soit déjà passé par cet endroit, augmentant ainsi la capacité de détecter des endroits déjà visités avec les prochaines images acquises. Le système a été testé avec des données préalablement prises sur le campus de l'Université de Sherbrooke afin d'évaluer sa performance sur de longues distances, ainsi qu'avec quatre autres ensembles de données standards afin d'évaluer sa capacité d'adaptation avec différents environnements. Les résultats suggèrent que l'algorithme atteint les objectifs fixés et permet d'obtenir des performances supérieures que les approches existantes. Ce nouvel algorithme de détection de fermeture de boucle peut être utilisé directement comme une technique de SLAM topologique ou en parallèle avec une technique de SLAM existante afin de détecter les endroits déjà visités par un robot autonome. Lors d'une détection de boucle, la carte globale peut alors être corrigée en utilisant la nouvelle contrainte créée entre le nouveau et l'ancien endroit semblable.
|
170 |
Localisation de sources sonores par techniques d’antennes en milieu réverbérantMoro, Clément January 2014 (has links)
Le bruit est aujourd'hui un enjeu majeur dans l'aéronautique. Au coeur d'un milieu concurrentiel, les motoristes aéronautiques doivent réduire les émissions sonores de leurs produits pour améliorer le confort des passagers des avions. C'est le cas de Pratt and Whitney Canada (P&WC) qui doit réduire le niveau sonore de ses moteurs, et donc avant tout connaître ces sources sonores. L'objectif de ce projet de recherche est d'identifier et de discriminer les sources acoustiques des sources aéroacoustiques de moteurs d'avions fabriqués par P&WC placés dans des cellules de tests. Ces cellules sont déjà utilisées à des fins aéroacoustiques par P&WC. Pour ce faire, l'utilisation d'outils de calcul numériques est primordiale pour simuler le problème. Dans un premier temps, ils permettront de dimensionner une antenne (géométrie, nombre de microphones, envergure) de manière optimale pour effectuer la mesure du champ acoustique généré par les sources sonores. Ensuite, les simulations numériques permettront de proposer des algorithmes de localisation de sources sonores se basant sur la technique de formation de voies (beamforming en anglais). Ils doivent s'adapter aux conditions expérimentales imposées par P&WC. En effet, toutes les mesures se font dans les salles de test de P&WC, qui sont des milieux réverbérants. Les murs de ces salles réfléchissent les ondes acoustiques, ajoutant ainsi du bruit indésirable au signal initial, rendant l'établissement de la cartographie sonore plus difficile, voire inexact. Des mesures dans les salles de test de P&WC permettront de les caractériser acoustiquement (temps de réverbération, coefficient de réflexion des murs etc...). Ensuite, des expériences en salle réverbérante au Groupe d'Acoustique de l'Université de Sherbrooke (GAUS) seront menées pour valider différentes approches du problème. L'application aux salles de P&WC suivra. La technique sera compatible avec tous les moteurs de P&WC (et même généralisable à une multitude d'autres situations). Elle permettra d'identifier et de localiser les sources acoustiques des moteurs.
|
Page generated in 0.2037 seconds