• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 26
  • 4
  • Tagged with
  • 64
  • 36
  • 25
  • 18
  • 15
  • 15
  • 14
  • 13
  • 11
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse d'images pour une recherche d'images basée contenu dans le domaine transformé.

Bai, Cong 21 February 2013 (has links) (PDF)
Cette thèse s'inscrit dans la recherche d'images basée sur leur contenu. La recherche opère sur des images eprésentéesdans un domaine transformé et où sont construits directement les vecteurs de caractéristiques ou indices. Deux types detransformations sont explorés : la transformée en cosinus discrète ou Discrete Cosine Transform (DCT) et la transforméen ondelettes discrète ou Discrete Wavelet Transform (DWT), utilisés dans les normes de compression JPEG et JPEG2000. Basés sur les propriétés des coefficients de la transformation, différents vecteurs de caractéristiquessont proposés. Ces vecteurs sont mis en oeuvre dans la reconnaissance de visages et de textures couleur.Dans le domaine DCT, sont proposés quatre types de vecteurs de caractéristiques dénommés "patterns" : Zigzag-Pattern,Sum-Pattern, Texture-Pattern et Color-Pattern. Le premier type est l'amélioration d'une approche existante. Les trois derniers intègrent la capacité de compactage des coefficients DCT, sachant que certains coefficients représentent une information de directionnalité. L'histogramme de ces vecteurs est retenu comme descripteur de l'image. Pour une réduction de la dimension du descripteur lors de la construction de l'histogramme il est défini, soit une adjacence sur des patterns proches puis leur fusion, soit une sélection des patterns les plus fréquents. Ces approches sont évaluées sur des bases de données d'images de visages ou de textures couramment utilisées. Dans le domaine DWT, deux types d'approches sont proposés. Dans le premier, un vecteur-couleur et un vecteur-texture multirésolution sont élaborés. Cette approche se classe dans le cadre d'une caractérisation séparée de la couleur et de la texture. La seconde approche se situe dans le contexte d'une caractérisation conjointe de la couleur et de la texture. Comme précédemment, l'histogramme des vecteurs est choisi comme descripteur en utilisant l'algorithme K-means pour construire l'histogramme à partir de deux méthodes. La première est le procédé classique de regroupement des vecteurs par partition. La seconde est un histogramme basé sur une représentation parcimonieuse dans laquelle la valeur des bins représente le poids total des vecteurs de base de la représentation.
32

Closed and Open World Multi-shot Person Re-identification / Ré-identification de personnes à partir de multiples images dans le cadre de bases d'identités fermées et ouvertes

Chan-Lang, Solène 06 December 2017 (has links)
Dans cette thèse, nous nous sommes intéressés au problème de la ré-identification de personnes dans le cadre de bases d'identités ouvertes. Ré-identifier une personne suppose qu'elle a déjà été identifiée auparavant. La galerie fait référence aux identités connues. Dans le cas de bases d'identités ouvertes, la galerie ne contient pas toutes les identités possibles. Ainsi une personne requête peut être une des personnes de la galerie, mais peut aussi ne pas être présente dans la galerie. Ré-identifier en base ouverte consiste donc non seulement à ranger par ordre de similarité les identités galeries les plus semblables à la personne requête mais également à rejeter les personnes requêtes si elles ne correspondent à aucune personne de la galerie. Une de nos contributions, COPReV, s'appuie exclusivement sur des contraintes de vérification afin d'apprendre une projection des descripteurs telle que la distance entre les descripteurs d'une même personne soit inférieure à un seuil et que la distance entre les descripteurs de deux personnes distinctes soit supérieure au même seuil. Nos autres contributions se basent sur des méthodes parcimonieuses collaboratives qui sont performantes pour résoudre des tâches de classement. Nous proposons d'améliorer ces méthodes en introduisant un aspect vérification grâce à une collaboration élargie. De plus, une variante bidirectionnelle de cette approche la rend encore plus robuste et donne des résultats meilleurs que les autres approches actuelles de l'état de l'art dans le cadre de la ré-identification de personne en base d'identités ouverte. / In this thesis we tackle the open world person re-identification task in which the people we want to re-identify (probe) might not appear in the database of known identities (gallery). For a given probe person, the goal is to find out whether he is present in the gallery or not and if so, who he is. Our first contribution is based on a verification formulation of the problem. A linear transformation of the features is learnt so that the distance between features of the same person are below a threshold and that of distinct people are above that same threshold so that it is easy to determine whether two sets of images represent the same person or not. Our other contributions are based on collaborative sparse representations. A usual way to use collaborative sparse representation for re-identification is to approximate the feature of a probe image by a sparse linear combination of gallery elements, where all the known identities collaborate but only the most similar elements are selected. Gallery identities are then ranked according to how much they contributed to the approximation. We propose to enhance the collaborative aspect so that collaborative sparse representations can be used not only as a ranking tool but also as a detection tool which rejects wrong matches. A bidirectional variant gives even more robust results by taking into account the fact that a good match is a match where there is a reciprocal relation in which both the probe and the gallery identities consider the other one as a good match. COPReV shows average performances but bidirectional collaboration enhanced sparse representation method outperforms state-of-the-art methods for open world scenarios.
33

One-class classification for cyber intrusion detection in industrial systems / Classification mono-classe pour la détection des cyber-intrusions dans les systèmes industriels

Nader, Patric 24 September 2015 (has links)
La sécurité des infrastructures critiques a suscité l'attention des chercheurs récemment avec l'augmentation du risque des cyber-attaques et des menaces terroristes contre ces systèmes. La majorité des infrastructures est contrôlée par des systèmes SCADA (Supervisory Control And Data Acquisition) permettant le contrôle à distance des processus industriels, comme les réseaux électriques, le transport de gaz, la distribution d'eau potable, les centrales nucléaires, etc. Les systèmes traditionnels de détection d'intrusions sont incapables de détecter les nouvelles attaques ne figurant pas dans leurs bases de données. L'objectif de cette thèse est d'apporter une aide supplémentaire à ces systèmes pour assurer une meilleure protection contre les cyber-attaques.La complexité et la diversité des attaques rendent leur modélisation difficile. Pour surmonter cet obstacle, nous utilisons des méthodes d'apprentissage statistique mono-classes. Ces méthodes élaborent une fonction de décision à partir de données d'apprentissage, pour classer les nouveaux échantillons en données aberrantes ou données normales. La fonction de décision définie l’enveloppe d’une région de l’espace de données contenant la majeure partie des données d’apprentissage. Cette thèse propose des méthodes de classification mono-classe, des formulations parcimonieuses de ces méthodes, et une méthode en ligne pour la détection temps réel. Les performances de ces méthodes sont montrées sur des données benchmark de différents types d’infrastructures critiques / The security of critical infrastructures has been an interesting topic recently with the increasing risk of cyber-attacks and terrorist threats against these systems. The majority of these infrastructures is controlled via SCADA (Supervisory Control And Data Acquisition) systems, which allow remote monitoring of industrial processes such as electrical power grids, gas pipelines, water distribution systems, wastewater collection systems, nuclear power plants, etc. Traditional intrusion detection systems (IDS) cannot detect new types of attacks not listed in their databases, so they cannot ensure maximum protection for these infrastructures.The objective of this thesis is to provide additional help to IDS to ensure better protection for industrial systems against cyber-attacks and intrusions. The complexity of studied systems and the diversity of attacks make modeling these attacks very difficult. To overcome this difficulty, we use machine learning, especially one-class classification. Based on training samples, these methods develop decision rules to classify new samples as outliers or normal ones. This dissertation proposes specific one-class classification approaches, sparse formulations of these approaches, and an online approach to improve the real-time detection. The relevance of these approaches is illustrated on benchmark data from three different types of critical infrastructures
34

Compréhension moléculaire et prédiction des propriétés physicochimiques dans les produits pétroliers / Molecular understanding and prediction of physicochemical properties in petroleum products

Da Costa Soares, Jean-Jérôme 14 December 2017 (has links)
La diminution en pétrole brut léger nécessite de convertir les fractions lourdes en produits valorisables (essences, gazoles, huiles, etc.). Dans ce contexte, l'hydrocraquage (HCK) fournit des produits de très haute qualité à partir de distillats sous vide (DSV) du pétrole brut. La qualité des coupes obtenues est caractérisée par des propriétés physico-chimiques qui sont soumises à des spécifications. L'optimisation du procédé nécessite des expérimentations longues et coûteuses. IFPEN a donc de plus en plus recours à des tests sur unité d'expérimentation haut débit (EHD). Ces derniers posent cependant un problème d'accessibilité aux coupes d'intérêt. Par ailleurs, pour comprendre et prédire l'impact des conditions opératoires sur la qualité des produits, des simulateurs sont développés. Certaines propriétés de produits sont cependant complexes et difficiles à modéliser voire mal comprises. Ce travail de thèse a porté sur l'amélioration de la compréhension moléculaire des propriétés produits pour une meilleure prédiction. Dans cette étude, nous nous sommes focalisés sur le point de trouble (PT) de la coupe gazole et l'indice de viscosité (VI) de l'huile obtenue lors de l'hydrocraquage de DSV. Deux techniques d'analyse moléculaire ont été utilisées : la chromatographie en phase gazeuse bidimensionnelle (GC×GC) qui permet de déterminer la composition par famille chimique des différentes coupes et la résonance magnétique nucléaire (RMN) du 13C qui fournit des informations sur la structure chimique des hydrocarbures présents dans ces mélanges. Nous présentons les résultats obtenus par une régression multivariée parcimonieuse (sparse Partial Least Squares) appliquée aux données GC×GC et 13C RMN. Il s'agit d'une variante de la PLS classique qui permet de réduire le nombre de facteurs tout en privilégiant ceux qui sont les plus corrélés à une propriété d'intérêt donnée. Globalement, cette étude a notamment permis de mieux comprendre l'impact des différents hydrocarbures (n-paraffines, isoparaffines, aromatiques,…) et de leur structure moléculaire (longueur de chaînes, degrés de branchements,…) sur le PT des gazoles et le VI des huiles. La bonne qualité des modèles obtenus par sparse PLS montre par ailleurs la possibilité d'accéder à la qualité des produits lors de l'utilisation d'EHD. Des modèles de prédiction par krigeage ont également été développés. Cette méthode d'interpolation permet de prédire une propriété en un point donné en effectuant une moyenne pondérée des observations au voisinage de ce point. Les modèles de krigeage sont des modèles locaux adaptés aux structures de données complexes. Ce sont des approches probabilistes qui permettent d'estimer les incertitudes de prédiction. Aussi bien dans le cas du PT de la coupe gazole que dans celui du VI de la coupe huile, les résultats montrent une amélioration des performances. Cette approche est tout à fait novatrice dans le domaine des produits pétroliers. Lors de l'utilisation d'unités EHD, elle permet d'accéder au VI des huiles de base plus aisément que via des données chromatographiques ou spectroscopiques, qui sont de plus non accessibles en raffinerie / The rapid decline in light crude oils requires to convert heavy petroleum fractions into more valuable products (naphtha, diesel, lubricants, etc.). In this context, hydrocracking process (HCK) consists on upgrading vaccum gas oil (VGO) into high quality products. The quality of petroleum products is based on some chemical and physical properties that should fulfill prerequisite specifications. The hydrocracking process optimization requires to set up time consuming and costly experiments for developing catalysts and setting operating conditions. High throughput experimentation (HTE) units are then increasingly used at IFPEN. However, these units do not enable to obtain end products. Otherwise, predictive models were developed in order to understand and predict the impact of operating conditions about products quality. However, some complex properties are very difficult to model and require a better understanding. This work is mainly concerned with the understanding of diesel cloud point (CP) and viscosity index (VI) of base oils. Two analytical techniques were used: the two-dimensional gas chromatography (GC×GC) that enables to identify hydrocarbons compounds in petroleum products and the 13C nuclear magnetic resonance (NMR) spectroscopy which provides structural characteristics of these compounds. A sparse multivariate regression (sparse Partial Least Squares) was performed using chromatographic and spectroscopic data. The sparse PLS is derived from classical PLS. It allows to reduce the number of factors by performing a variable selection. The selected factors are the most correlated to the property to model. Globally, this approach enabled to better understand how hydrocarbon compounds (nparaffins, isoparaffins, aromatics,…) and their molecular characteristics (carbon number, degree of branching,…) affect the diesel CP and the VI of base oil. Furthermore, the good performances of developed sparse PLS models show that it is possible to access to the products quality when using HTE units. Kriging models were also developed. Kriging is an interpolation method that predicts the value of a function at a given point by computing a weighted average of the known values of the function in the neighborhood of the point. Kriging models have local aspect which is well adapted to complex data. Its probabilistic approach enables to provide an estimate of predicted value uncertainty. Results show that kriging improves predictive performances for both diesel CP and VI of base oil. This approach is quite innovative in modelling of petroleum products properties. When using HTE units, it allows to estimate the VI of base oil more easily than from chromatographic or spectroscopic data which are not available for the refiners
35

Robust low-rank and sparse decomposition for moving object detection : from matrices to tensors / Détection d’objets mobiles dans des vidéos par décomposition en rang faible et parcimonieuse : de matrices à tenseurs

Cordolino Sobral, Andrews 11 May 2017 (has links)
Dans ce manuscrit de thèse, nous introduisons les avancées récentes sur la décomposition en matrices (et tenseurs) de rang faible et parcimonieuse ainsi que les contributions pour faire face aux principaux problèmes dans ce domaine. Nous présentons d’abord un aperçu des méthodes matricielles et tensorielles les plus récentes ainsi que ses applications sur la modélisation d’arrière-plan et la segmentation du premier plan. Ensuite, nous abordons le problème de l’initialisation du modèle de fond comme un processus de reconstruction à partir de données manquantes ou corrompues. Une nouvelle méthodologie est présentée montrant un potentiel intéressant pour l’initialisation de la modélisation du fond dans le cadre de VSI. Par la suite, nous proposons une version « double contrainte » de l’ACP robuste pour améliorer la détection de premier plan en milieu marin dans des applications de vidéo-surveillance automatisées. Nous avons aussi développé deux algorithmes incrémentaux basés sur tenseurs afin d’effectuer une séparation entre le fond et le premier plan à partir de données multidimensionnelles. Ces deux travaux abordent le problème de la décomposition de rang faible et parcimonieuse sur des tenseurs. A la fin, nous présentons un travail particulier réalisé en conjonction avec le Centre de Vision Informatique (CVC) de l’Université Autonome de Barcelone (UAB). / This thesis introduces the recent advances on decomposition into low-rank plus sparse matrices and tensors, as well as the main contributions to face the principal issues in moving object detection. First, we present an overview of the state-of-the-art methods for low-rank and sparse decomposition, as well as their application to background modeling and foreground segmentation tasks. Next, we address the problem of background model initialization as a reconstruction process from missing/corrupted data. A novel methodology is presented showing an attractive potential for background modeling initialization in video surveillance. Subsequently, we propose a double-constrained version of robust principal component analysis to improve the foreground detection in maritime environments for automated video-surveillance applications. The algorithm makes use of double constraints extracted from spatial saliency maps to enhance object foreground detection in dynamic scenes. We also developed two incremental tensor-based algorithms in order to perform background/foreground separation from multidimensional streaming data. These works address the problem of low-rank and sparse decomposition on tensors. Finally, we present a particular work realized in conjunction with the Computer Vision Center (CVC) at Autonomous University of Barcelona (UAB).
36

Représentations parcimonieuses et apprentissage de dictionnaires pour la compression et la classification d'images satellites / Sparse representations and dictionary learning for the compression and the classification of satellite images

Aghaei Mazaheri, Jérémy 20 July 2015 (has links)
Cette thèse propose d'explorer des méthodes de représentations parcimonieuses et d'apprentissage de dictionnaires pour compresser et classifier des images satellites. Les représentations parcimonieuses consistent à approximer un signal par une combinaison linéaire de quelques colonnes, dites atomes, d'un dictionnaire, et ainsi à le représenter par seulement quelques coefficients non nuls contenus dans un vecteur parcimonieux. Afin d'améliorer la qualité des représentations et d'en augmenter la parcimonie, il est intéressant d'apprendre le dictionnaire. La première partie de la thèse présente un état de l'art consacré aux représentations parcimonieuses et aux méthodes d'apprentissage de dictionnaires. Diverses applications de ces méthodes y sont détaillées. Des standards de compression d'images sont également présentés. La deuxième partie traite de l'apprentissage de dictionnaires structurés sur plusieurs niveaux, d'une structure en arbre à une structure adaptative, et de leur application au cas de la compression d'images satellites en les intégrant dans un schéma de codage adapté. Enfin, la troisième partie est consacrée à l'utilisation des dictionnaires structurés appris pour la classification d'images satellites. Une méthode pour estimer la Fonction de Transfert de Modulation (FTM) de l'instrument dont provient une image est étudiée. Puis un algorithme de classification supervisée, utilisant des dictionnaires structurés rendus discriminants entre les classes à l'apprentissage, est présenté dans le cadre de la reconnaissance de scènes au sein d'une image. / This thesis explores sparse representation and dictionary learning methods to compress and classify satellite images. Sparse representations consist in approximating a signal by a linear combination of a few columns, known as atoms, from a dictionary, and thus representing it by only a few non-zero coefficients contained in a sparse vector. In order to improve the quality of the representations and to increase their sparsity, it is interesting to learn the dictionary. The first part of the thesis presents a state of the art about sparse representations and dictionary learning methods. Several applications of these methods are explored. Some image compression standards are also presented. The second part deals with the learning of dictionaries structured in several levels, from a tree structure to an adaptive structure, and their application to the compression of satellite images, by integrating them in an adapted coding scheme. Finally, the third part is about the use of learned structured dictionaries for the classification of satellite images. A method to estimate the Modulation Transfer Function (MTF) of the instrument used to capture an image is studied. A supervised classification algorithm, using structured dictionaries made discriminant between classes during the learning, is then presented in the scope of scene recognition in a picture.
37

Séparation aveugle de source : de l'instantané au convolutif / Blind source separation : from instantaneous to convolutive

Feng, Fangchen 29 September 2017 (has links)
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile.Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées.Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération.Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle.Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération. / Blind source separation (BSS) consists of estimating the source signals only from the observed mixtures. The problem can be divided into two categories according to the mixing model: instantaneous mixtures, where delay and reverberation (multi-path effect) are not taken into account, and convolutive mixtures which are more general but more complicated. Moreover, the additive noise at the sensor level and the underdetermined setting, where there are fewer sensors than the sources, make the problem even more difficult.In this thesis, we first studied the link between two existing methods for instantaneous mixtures: independent component analysis (ICA) and sparse component analysis (SCA). We then proposed a new formulation that works in both determined and underdetermined cases, with and without noise. Numerical evaluations show the advantage of the proposed approaches.Secondly, the proposed formulation is generalized for convolutive mixtures with speech signals. By integrating a new approximation model, the proposed algorithms work better than existing methods, especially in noisy and/or high reverberation scenarios.Then, we take into account the technique of morphological decomposition and the use of structured sparsity which leads to algorithms that can better exploit the structures of audio signals. Such approaches are tested for underdetermined convolutive mixtures in a non-blind scenario.At last, being benefited from the NMF model, we combined the low-rank and sparsity assumption and proposed new approaches for under-determined convolutive mixtures. The experiments illustrate the good performance of the proposed algorithms for music signals, especially in strong reverberation scenarios.
38

Quelques contributions à l'estimation de grandes matrices de précision / Some contributions to large precision matrix estimation

Balmand, Samuel 27 June 2016 (has links)
Sous l'hypothèse gaussienne, la relation entre indépendance conditionnelle et parcimonie permet de justifier la construction d'estimateurs de l'inverse de la matrice de covariance -- également appelée matrice de précision -- à partir d'approches régularisées. Cette thèse, motivée à l'origine par la problématique de classification d'images, vise à développer une méthode d'estimation de la matrice de précision en grande dimension, lorsque le nombre $n$ d'observations est petit devant la dimension $p$ du modèle. Notre approche repose essentiellement sur les liens qu'entretiennent la matrice de précision et le modèle de régression linéaire. Elle consiste à estimer la matrice de précision en deux temps. Les éléments non diagonaux sont tout d'abord estimés en considérant $p$ problèmes de minimisation du type racine carrée des moindres carrés pénalisés par la norme $ell_1$.Les éléments diagonaux sont ensuite obtenus à partir du résultat de l'étape précédente, par analyse résiduelle ou maximum de vraisemblance. Nous comparons ces différents estimateurs des termes diagonaux en fonction de leur risque d'estimation. De plus, nous proposons un nouvel estimateur, conçu de sorte à tenir compte de la possible contamination des données par des {em outliers}, grâce à l'ajout d'un terme de régularisation en norme mixte $ell_2/ell_1$. L'analyse non-asymptotique de la convergence de notre estimateur souligne la pertinence de notre méthode / Under the Gaussian assumption, the relationship between conditional independence and sparsity allows to justify the construction of estimators of the inverse of the covariance matrix -- also called precision matrix -- from regularized approaches. This thesis, originally motivated by the problem of image classification, aims at developing a method to estimate the precision matrix in high dimension, that is when the sample size $n$ is small compared to the dimension $p$ of the model. Our approach relies basically on the connection of the precision matrix to the linear regression model. It consists of estimating the precision matrix in two steps. The off-diagonal elements are first estimated by solving $p$ minimization problems of the type $ell_1$-penalized square-root of least-squares. The diagonal entries are then obtained from the result of the previous step, by residual analysis of likelihood maximization. This various estimators of the diagonal entries are compared in terms of estimation risk. Moreover, we propose a new estimator, designed to consider the possible contamination of data by outliers, thanks to the addition of a $ell_2/ell_1$ mixed norm regularization term. The nonasymptotic analysis of the consistency of our estimator points out the relevance of our method
39

Méthodes statistiques utilisant des simulations hydrodynamiques d'atmosphères stellaires pour détecter des exoplanètes en vitesse radiale / Statistical methods using hydrodynamic simulations of stellar atmospheres for detecting exoplanets in radial velocity data

Sulis, Sophia 02 October 2017 (has links)
Considérant une série temporelle affectée par un bruit coloré dont les propriétés statistiques sont inconnues, la difficulté pour la détection de signaux périodiques est de contrôler le degré de confiance avec lequel les tests de détection rejettent l'hypothèse nulle en faveur de l'hypothèse alternative. L'objectif de cette thèse est de développer une nouvelle méthode utilisant des séries temporelles simulées du bruit pour améliorer ce contrôle. Dans le cas d'un échantillonnage régulier, nous avons analysé les performances de différents tests de détection appliqués à un périodogramme standardisé par le spectre simulé du bruit. La standardisation proposée entraîne, dans la majorité des cas, des tests de détection puissants dont les taux de fausses alarmes sont constants. Grâce au développement des distributions asymptotiques de ce périodogramme, nous avons déterminé des expressions analytiques pour les probabilités de fausses alarmes (PFA) et de détections de différents tests. Dans le cas d'un échantillonnage irrégulier, nous montrons qu'il est possible de combiner la standardisation proposée du périodogramme avec des techniques de bootstrap pour contrôler la PFA de manière fiable. La procédure peut être optimisée en utilisant les valeurs extrêmes généralisées. Cette étude a été appliquée au cas de la détection de planètes extrasolaires par la méthode des vitesses radiales dont l'une des principales barrières pour détecter des planètes de masse terrestre vient de l'activité de l'étoile hôte, notamment la convection de surface. Le travail effectué dans cette thèse a porté sur la contribution de simulations hydrodynamiques du bruit convectif dans le processus de détection. / Considering a time series affected by a colored noise of unknown statistics, a difficulty for periodic signal detection is to control the true significance level at which the detection tests are conducted. The objective of this thesis is to develop a new method using training datasets of the noise to improve this control. For the case of regularly sampled observations, we analyze the performances of various detectors applied to periodograms standardized using the noise training datasets. The proposed standardization leads, in some cases, to powerful constant false alarm rate tests. Thanks to the development of the asymptotical distribution of the standardized periodogram, we derive analytical expressions for the false alarm and detection rates of several tests. In the case of irregular sampling, we show that it is possible to combine the proposed periodogram standardization and bootstrap techniques to consistently estimate the false alarm rate. We also show that the procedure can be improved by using generalized extreme value distributions. This study has been applied to the case of extrasolar planet detection in radial velocity (RV) data. The main barrier to detect Earth-mass planets comes from the host star activity, as the convection at the stellar surface. This work investigates the possibility of using hydrodynamic simulations of the stellar convection in the detection process to control exoplanet detection claims.
40

Surveillance d'intégrité des structures par apprentissage statistique : application aux structures tubulaires / Structural health monitoring using statistical learning methods : Application on tubular structures

Mountassir, Mahjoub El 30 April 2019 (has links)
Les approches de surveillance de l’intégrité des structures ont été proposées pour permettre un contrôle continu de l’état des structures en intégrant à celle-ci des capteurs intelligents. En effet, ce contrôle continu doit être effectué pour s’assurer du bon fonctionnement de celles-ci car la présence d’un défaut dans la structure peut aboutir à un accident catastrophique. Cependant, la variation des conditions environnementales et opérationnelles (CEO) dans lesquelles la structure évolue, impacte sévèrement les signaux collectés ce qui induit parfois une mauvaise interprétation de la présence du défaut dans la structure. Dans ce travail de thèse, l’application des méthodes d’apprentissage statistiques classiques a été envisagée dans le cas des structures tubulaires. Ici, les effets des paramètres de mesures sur la robustesse de ces méthodes ont été investiguées. Ensuite, deux approches ont été proposées pour remédier aux effets des CEO. La première approche suppose que la base de données des signaux de référence est suffisamment riche en variation des CEO. Dans ce cas, une estimation parcimonieuse du signal mesuré est calculée. Puis, l’erreur d’estimation est utilisée comme indicateur de défaut. Tandis que la deuxième approche est utilisée dans le cas où la base de données des signaux des références contient une variation limitée des CEO mais on suppose que celles-ci varient lentement. Dans ce cas, une mise à jour du modèle de l’état sain est effectuée en appliquant l’analyse en composante principale (PCA) par fenêtre mobile. Dans les deux approches, la localisation du défaut a été assurée en utilisant une fenêtre glissante sur le signal provenant de l’état endommagé. / To ensure better working conditions of civil and engineering structures, inspections must be made on a regular basis. However, these inspections could be labor-intensive and cost-consuming. In this context, structural health monitoring (SHM) systems using permanently attached transducers were proposed to ensure continuous damage diagnostic of these structures. In SHM, damage detection is generally based on comparison between the healthy state signals and the current signals. Nevertheless, the environmental and operational conditions will have an effect on the healthy state signals. If these effects are not taken into account they would result in false indication of damage (false alarm). In this thesis, classical machine learning methods used for damage detection have been applied in the case of pipelines. The effects of some measurements parameters on the robustness of these methods have been investigated. Afterthat, two approaches were proposed for damage diagnostic depending on the database of reference signals. If this database contains large variation of these EOCs, a sparse estimation of the current signal is calculated. Then, the estimation error is used as an indication of the presence of damage. Otherwise, if this database is acquired at limited range of EOCs, moving window PCA can be applied to update the model of the healthy state provided that the EOCs show slow and continuous variation. In both approaches, damage localization was ensured using a sliding window over the damaged pipe signal.

Page generated in 0.5514 seconds