• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 6
  • 3
  • Tagged with
  • 28
  • 28
  • 15
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Détection et segmentation robustes de cibles mobiles par analyse du mouvement résiduel, à l'aide d'une unique caméra, dans un contexte industriel. Une application à la vidéo-surveillance automatique par drone. / A robust moving target detection by the analysis of the residual motion, with a mono-camera, in an industrial context. An application to the automatic aerial video surveillance.

Pouzet, Mathieu 05 November 2015 (has links)
Nous proposons dans cette thèse une méthode robuste de détection d’objets mobiles depuis une caméra en mouvement montée sur un vecteur aérien de type drone ou hélicoptère. Nos contraintes industrielles sont particulièrement fortes : robustesse aux grands mouvements de la caméra, robustesse au flou de focus ou de bougé, et précision dans la détection et segmentation des objets mobiles. De même, notre solution doit être optimisée afin de ne pas être trop consommatrice en termes de puissance de calcul. Notre solution consiste en la compensation du mouvement global, résultant du mouvement de la caméra, puis en l’analyse du mouvement résiduel existant entre les images pour détecter et segmenter les cibles mobiles. Ce domaine a été particulièrement exploré dans la littérature, ce qui se traduit par une richesse des méthodes proposées fondamentalement différentes. Après en avoir étudié un certain nombre, nous nous sommes aperçus qu’elles avaient toutes un domaine d’applications restreint, malheureusement incompatible avec nos préoccupations industrielles. Pour pallier à ce problème, nous proposons une méthodologie consistant à analyser les résultats des méthodes de l’état de l’art de manière à en comprendre les avantages et inconvénients de chacune. Puis, des hybridations de ces méthodes sont alors mis en place. Ainsi, nous proposons trois étapes successives : la compensation du mouvement entre deux images successives, l’élaboration d’un arrière plan de la scène afin de pouvoir segmenter de manière correcte les objets mobiles dans l’image et le filtrage de ces détections par confrontation entre le mouvement estimé lors de la première étape et le mouvement résiduel estimé par un algorithme local. La première étape consiste en l’estimation du mouvement global entre deux images à l’aide d’une méthode hybride composée d’un algorithme de minimisation ESM et d’une méthode de mise en correspondance de points d’intérêt Harris. L’approche pyramidale proposée permet d’optimiser les temps de calcul et les estimateursrobustes (M-Estimateur pour l’ESM et RANSAC pour les points d’intérêt) permettent de répondre aux contraintes industrielles. La deuxième étape établit un arrière plan de la scène à l’aide d’une méthode couplant les résultats d’une différence d’images successives (après compensation) et d’une segmentation en régions. Cette méthode réalise une fusion entre les informations statiques et dynamiques de l’image. Cet arrière plan est ensuite comparé avec l’image courante afin de détecter les objets mobiles. Enfin, la dernière étape confronte les résultats de l’estimation de mouvement global avec le mouvement résiduel estimé par un flux optique local Lucas-Kanade afin de valider les détections obtenues lors de la seconde étape. Les expériences réalisées dans ce mémoire sur de nombreuses séquences de tests (simulées ou réelles) permettent de valider la solution retenue. Nous montrons également diverses applications possibles de notre méthode proposée. / We propose a robust method about moving target detection from a moving UAV-mounted or helicopter-mounted camera. The industrial solution has to be robust to large motion of the camera, focus and motion blur in the images, and need to be accurate in terms of the moving target detection and segmentation. It does not have to need a long computation time. The proposed solution to detect the moving targets consists in the global camera motion compensation, and the residual motion analysis, that exists between the successive images. This research domain has been widely explored in the literature, implying lots of different proposed methods. The study of these methods show us that they all have a different and limited application scope, incompatible with our industrial constraints. To deal with this problem, we propose a methodology consisting in the analysis of the state-of-the-art method results, to extract their strengths and weaknesses. Then we propose to hybrid them. Therefore, we propose three successive steps : the inter-frame motion compensation, thecreation of a background in order to correctly detect the moving targets in the image and then the filtering of these detections by a comparison between the estimated global motion of the first step and the residual motion estimated by a local algorithm. The first step consists in the estimation of the global motion between two successive images thanks to a hybrid method composed of a minimization algorithm (ESM) and a feature-based method (Harris matching). The pyramidal implementation allows to optimize the computation time and the robust estimators (M-Estimator for the ESM algorithm and RANSAC for the Harris matching) allow to deal with the industrial constraints. The second step createsa background image using a method coupling the results of an inter-frame difference (after the global motion compensation) and a region segmentation. This method merges the static and dynamic information existing in the images. This background is then compared with the current image to detect the moving targets. Finally, the last step compares the results of the global motion estimation with the residual motion estimated by a Lucas-Kanade optical flow in order to validate the obtained detections of the second step. This solution has been validated after an evaluation on a large number of simulated and real sequences of images. Additionally, we propose some possible applications of theproposed method.
22

Théorie des Matrices Aléatoires pour l'Imagerie Hyperspectrale / Random Matrix Theory for Hyperspectral Imaging

Terreaux, Eugénie 23 November 2018 (has links)
La finesse de la résolution spectrale et spatiale des images hyperspectrales en font des données de très grande dimension. C'est également le cas d'autres types de données, où leur taille tend à augmenter pour de plus en plus d'applications. La complexité des données provenant de l'hétérogénéité spectrale et spatiale, de la non gaussianité du bruit et des processus physiques sous-jacents, renforcent la richesse des informations présentes sur une image hyperspectrale. Exploiter ces informations demande alors des outils statistiques adaptés aux grandes données mais aussi à leur nature non gaussienne. Des méthodes reposant sur la théorie des matrices aléatoires, théorie adaptée aux données de grande dimension, et reposant sur la robustesse, adaptée aux données non gaussiennes, sont ainsi proposées dans cette thèse, pour des applications à l'imagerie hyperspectrale. Cette thèse propose d'améliorer deux aspects du traitement des images hyperspectrales : l'estimation du nombre d'endmembers ou de l'ordre du modèle et le problème du démélange spectral. En ce qui concerne l'estimation du nombre d'endmembers, trois nouveaux algorithmes adaptés au modèle choisi sont proposés, le dernier présentant de meilleures performances que les deux autres, en raison de sa plus grande robustesse.Une application au domaine de la finance est également proposée. Pour le démélange spectral, trois méthodes sont proposées, qui tiennent comptent des diff érentes particularités possibles des images hyperspectrales. Cette thèse a permis de montrer que la théorie des matrices aléatoires présente un grand intérêt pour le traitement des images hyperspectrales. Les méthodes développées peuvent également s'appliquer à d'autres domaines nécessitant le traitement de données de grandes dimensions. / Hyperspectral imaging generates large data due to the spectral and spatial high resolution, as it is the case for more and more other kinds of applications. For hyperspectral imaging, the data complexity comes from the spectral and spatial heterogeneity, the non-gaussianity of the noise and other physical processes. Nevertheless, this complexity enhances the wealth of collected informations, that need to be processed with adapted methods. Random matrix theory and robust processes are here suggested for hyperspectral imaging application: the random matrix theory is adapted to large data and the robustness enables to better take into account the non-gaussianity of the data. This thesis aims to enhance the model order selection on a hyperspectral image and the unmixing problem. As the model order selection is concerned, three new algorithms are developped, and the last one, more robust, gives better performances. One financial application is also presented. As for the unmixing problem, three methods that take into account the peculierities of hyperspectral imaging are suggested. The random matrix theory is of great interest for hyperspectral image processing, as demonstrated in this thesis. Differents methods developped here can be applied to other field of signal processing requiring the processing of large data.
23

Modèles statistiques d'apparence non gaussiens. Application à la création d'un atlas probabiliste de perfusion cérébrale en imagerie médicale

Vik, Torbjorn 21 September 2004 (has links) (PDF)
La tomoscintigraphie par émission mono-photonique (TEMP) est une méthode d'imagerie fonctionnelle 3D qui apporte des informations sur le débit sanguin cérébral (également appelé perfusion cérébrale). Cette méthode d'imagerie, par la détection visuelle d'anomalies de perfusion caractérisées par des zones hypo- ou hyper-intenses, est utilisée pour le diagnostic chez des patients atteints d'accidents vasculaires cérébraux, de démence, d'épilepsie ou d'autres pathologies cérébrales. La détection d'anomalies focalisées observées chez les patients ayant une attaque cérébrale est relativement aisée, alors que les anomalies diffuses, observées en début de démence, lors d'un accident entraînant une oxygénation insuffisante du cerveau ou suite à une exposition à une substance toxique, sont plus difficilement observables. Dans ces cas, une analyse quantitative des images, utilisant un atlas et des outils statistiques s'appuyant sur une base d'images de cas normaux, peut apporter une aide précieuse au diagnostic. Le travail présenté dans cette thèse est centré sur la problématique de la construction et de l'évaluation d'un atlas probabiliste de perfusion cérébrale à partir des images TEMP de sujets dits normaux. Les objectifs d'un tel atlas sont doubles : (1) création d'une cartographie statistique de la perfusion cérébrale d'une population normale, décrite de manière compacte, et (2) identification des différences de perfusion cérébrale qui sont statistiquement significatives entre une image TEMP d'un individu et l'atlas probabiliste. L'utilisation d'un atlas devrait avoir un impact important sur les applications cliniques où l'analyse qualitative d'images TEMP est pratique courante. Afin d'atteindre ces objectifs, trois points ont été abordés : le développement de modèles statistiques qui décrivent de façon fidèle la perfusion cérébrale, les outils de traitement d'images utilisés pour rendre les cerveaux "comparables", et enfin, l'évaluation expérimentale de l'atlas.
24

Estimation et analyse de champs denses de vitesses d'écoulements fluides

Corpetti, Thomas 09 July 2002 (has links) (PDF)
Cette étude a pour cadre l'analyse de mouvements fluides dans des séquences d'images et s'articule autour de deux axes. Nous traitons en premier lieu le problème de l'estimation du mouvement. Dans un contexte d'imagerie fluide, la luminance des images fait parfois apparaître de fortes distorsions spatiales et temporelles, rendant délicate l'utilisation de techniques standard issues de la Vision par Ordinateur, originalement conçues pour des mouvements rigides et reposant sur une hypothèse d'invariance de la fonction de luminance. Nous proposons un estimateur de mouvement modélisé au moyen d'une formulation énergétique et spécialement dédié à l'estimation du mouvement fluide. La fonctionnelle considérée est composée d'un terme d'attache aux données original issu de l'équation de continuité de la mécanique des fluides. Ce nouveau modèle de données, spécifié pour être aisément intégré dans un schéma multirésolution, est associé à une régularisation de type ``div-curl''. Les performances de cet estimateur sont expérimentalement démontrées sur des images synthétiques et réelles météorologiques. Une validation de la méthode sur un écoulement expérimental représentant une ``couche de mélange'' est par ailleurs présentée. L'intérêt de l'étude est en second lieu porté sur l'analyse d'un champ de déplacement préalablement estimé, relatif à un mouvement fluide. Nous proposons une méthode visant à extraire les vortex et puits/sources de l'écoulement en s'appuyant sur le modèle de Rankine. Ce problème est essentiel dans de nombreuses applications comme par exemple la détection d'importants événements météorologiques (dépressions, cellules convectives, ...) ou la caractérisation d'écoulements expérimentaux. La connaissance de telles structures autorise par ailleurs une représentation paramétrique de l'écoulement. La méthode que nous proposons s'appuie sur une représentation analytique du champ des vitesses e permet d'extraire d'autres informations pertinentes relatives à l'écoulement (fonctions de potentiels, décomposition selon Helmholtz de l'écoulement, points singuliers, ...). L'approche présentée sera expérimentalement étudiée sur des écoulement représentant divers phénomènes physiques.
25

Filtrage anisotrope robuste régi par propagation de fronts : vers une segmentation automatique de volumes IRM

RAGOUBI HOR, Refka 17 April 2013 (has links) (PDF)
La segmentation fiable et précise des volumes anatomiques (normaux ou pathologiques) issus des systèmes d'imagerie reste un objectif important en traitement de l'information médicale car elle constitue le premier maillon de la chaîne d'analyse aboutissant à l'aide au diagnostic par l'étude de la morphologie des structures internes, à la détection et à la quantification de lésion. La segmentation est une étape délicate et difficile, en particulier pour les images IRM, pour lesquelles elle est principalement réalisée manuellement lorsqu'il y a des contraintes fortes de précision. Dans ce contexte, l'objectif de cette thèse est le filtrage des images IRM des structures osseuses articulaires du corps humain, en vue d'une aide efficace et précise à la segmentation. Une première contribution concerne le développement d'une méthode itérative de filtrage 3D anisotrope robuste. Elle permet de diffuser l'intensité des voxels selon leur appartenance à deux populations : forte diffusion pour les voxels situés à l'intérieur de régions homogènes afin de réduire le bruit, tout en empêchant cette diffusion de traverser les zones de transition (surfaces). Une comparaison rigoureuse de plusieurs fonctions d'arrêt de cette diffusion a été réalisée afin d'insérer, dans le modèle itératif, la fonction la plus pertinente. Le paramètre seuil partageant ces deux populations a été estimé de manière originale et efficace au regard de l'état de l'art. Ce schéma original de diffusion a été confronté aux méthodes de propagation de fronts. L'identification de ces deux modèles, actuellement dissociés dans la littérature, a permis de fusionner les deux approches en un schéma complet de diffusion anisotrope régie par propagation de fronts. Cette formulation a permis de contrer les désavantages de chacune des approches, à savoir i) la difficulté d'arrêter les schémas itératifs de diffusion, ii) la difficulté de mise en oeuvre des approches " level-sets " vis-à-vis des temps de calcul prohibitifs. Le schéma itératif proposé combine quatre termes liés à la diffusion, au contraste, aux données initiales et à la géométrie locale. En particulier, nous avons montré l'importance du "terme géométrique" qui remédie aux problèmes des discontinuités des contours après le filtrage. Une application sur données IRM d'articulations d'épaule, de hanche et de genou est présentée dans la partie test et validation. Les résultats sont quantifiés à l'aide de deux fonctions d'évaluation en contours et en régions. Elles démontrent une robustesse et une précision du modèle proposé dans l'élimination du bruit et la préservation des contours.
26

Positionnement robuste et précis de réseaux d’images.

Moulon, Pierre 10 January 2014 (has links) (PDF)
Calculer une représentation 3D d'une scène rigide à partir d'une collection d'images est aujourd'hui possible grâce aux progrès réalisés par les méthodes de stéréo-vision multi-vues, et ce avec un simple appareil photographique. Le principe de reconstruction, découlant de travaux de photogrammétrie, consiste à recouper les informations provenant de plusieurs images, prises de points de vue différents, pour identifier les positions et orientations relatives de chaque cliché. Une fois les positions et orientations de caméras déterminées (calibration externe), la structure de la scène peut être reconstruite. Afin de résoudre le problème de calcul de la structure à partir du mouvement des caméras (Structure-from-Motion), des méthodes séquentielles et globales ont été proposées. Par nature, les méthodes séquentielles ont tendance à accumuler les erreurs. Cela donne lieu le plus souvent à des trajectoires de caméras qui dérivent et, lorsque les photos sont acquises autour d'un objet, à des reconstructions où les boucles ne se referment pas. Au contraire, les méthodes globales considèrent le réseau de caméras dans son ensemble. La configuration de caméras est recherchée et optimisée pour conserver au mieux l'ensemble des contraintes de cyclicité du réseau. Des reconstructions de meilleure qualité peuvent être obtenues, au détriment toutefois du temps de calcul. Cette thèse propose d'analyser des problèmes critiques au cœur de ces méthodes de calibration externe et de fournir des solutions pour améliorer leur performance (précision, robustesse, vitesse) et leur facilité d'utilisation (paramétrisation restreinte). Nous proposons tout d'abord un algorithme de suivi de points rapide et efficace. Nous montrons ensuite que l'utilisation généralisée de l'estimation robuste de modèles paramétriques a contrario permet de libérer l'utilisateur du réglage de seuils de détection, et d'obtenir une chaine de reconstruction qui s'adapte automatiquement aux données. Dans un second temps, nous utilisons ces estimations robustes adaptatives et une formulation du problème qui permet des optimisations convexes pour construire une chaine de calibration globale capable de passer à l'échelle. Nos expériences démontrent que les estimations identifiées a contrario améliorent de manière notable la qualité d'estimation de la position et de l'orientation des clichés, tout en étant automatiques et sans paramètres, et ce même sur des réseaux de caméras complexes. Nous proposons enfin d'améliorer le rendu visuel des reconstructions en proposant une optimisation convexe de la consistance colorée entre images.
27

Tolérance aux Défaillances par Capteurs Virtuels : application aux Systèmes de Régulation d'un Turboréacteur / Virtual Sensors for Fault-Tolerant System : application to a Jet Engine Control Systems

Souami, Yani 16 July 2015 (has links)
L'industrie aéronautique évolue dans un contexte concurrentiel qui encourage les motoristes et avionneurs à réduire les coûts de production et à améliorer leurs services aux compagnies aériennes tels que la réduction des coûts d'exploitation et de maintenances des avions. Afin de relever ce défi économique, nous proposons dans cette thèse de remplacer l'architecture de régulation actuelle de certains équipements du turboréacteur, par une architecture simplifiée plus économe en capteurs et harnais en remplaçant la redondance matérielle des capteurs par une redondance analytique. Ainsi, en cas de fonctionnement anormal, les capteurs virtuels proposés pourront être utilisés pour consolider la prise de décision sur l'état du capteur par des tests de cohérence et de validation croisée et le cas échéant se substituer aux mesures.Dans ce travail de thèse, on s'est intéressé à la surveillance des systèmes de régulation de géométries variables (régulation du flux d'air en entrée et la quantité de carburant) avec comme contrainte forte la non-modification des paramètres des lois de commande existantes et le maintien de l'opérabilité du turboréacteur avec une dégradation des performances acceptables selon les spécifications du cahier des charges.Pour répondre à ces contraintes opérationnelles, une approche FTC (Fault Tolerant Control) passive est proposée. Cette approche nommée, AVG-FTC (Aircraft Variables Geometries-Fault-Tolerant Control) s'articule autour de plusieurs sous-systèmes mis en cascades. Elle tient compte du caractère instationnaire des systèmes étudiés, des différents couplages entre géométries variables et des incertitudes de modélisation. Ainsi, l'approche utilise un modèle neuronal du capteur couplé à un observateur de type Takagi-Sugeno-LPV (Linéaire à Paramètres Variant) et à un estimateur non linéaire robuste de type NEKF (Filtre de Kalman Étendu Neuronal) qui permet de produire une estimation temps réel des grandeurs surveillées. En utilisant la plateforme de prototypage et de tests du motoriste, nous avons pu évaluer l'approche AVG-FTC en simulant plusieurs scénarios de vol en présence de défaillances. Ceci a permis de montrer les performances de l'approche en termes de robustesse, de garantie de stabilité des boucles de régulations et d'opérabilité du turboréacteur. To improve the availability, a solution that aircraft manufacturers and suppliers adopt was the fault tolerance. / Over the years, market pressure has ensured that engine manufacturers invest in technology to provide clean, quiet, affordable, reliable, and efficient power. One of the last improvements is the introduction of virtual sensors that make use of non-like signals (analytical redundancy). This, is expected to improve weight, flight safety and availability. However, this new approach has not been widely investigated yet and needs further attention to remove its limitations for certificated applications.The concept of virtual sensors goes along with fault tolerance control strategies that help in limiting disruptions and maintenance costs. Indeed, a fault-tolerant control (FTC) scheme, allows for a leaner hardware structure without decreasing the safety of the system.We propose in this thesis work, to monitor through a passive FTC architecture, the Variables Geometries subsystems' of the engine: the VSV (Variable Stator Vane) and FMV (Fuel Metering Valve). A strong constrains, is not to change the parameters of the existing controllers. The approach named AVG-FTC (Variable Geometries Aircraft-Fault-Tolerant Control) is based on several cascaded sub-systems that allow to deal with the Linear Parameter Varying (LPV) model of the systems and modelling errors. The proposed FTC scheme uses a neural model of the sensor associated with a Takagi-Sugeno observer and a Neuronal Extended Kalman Filter Neural (NEKF) to account for those dynamics that cannot be explained with the LPV model to produce a real-time estimate of the monitored outputs. In case of sensor abnormality, the proposed virtual sensors can then be used as an arbitrator for sensor monitoring or as a healthy sensor used by the controller. To evaluate the approach, serval closed-loop simulations, on SNECMA jet-engine simulator have been performed. The results for distinct flight scenarios with different sensors faults have shown the capabilities of the approach in terms of stability and robustness.
28

Algorithmes d’estimation et de détection en contexte hétérogène rang faible / Estimation and Detection Algorithms for Low Rank Heterogeneous Context

Breloy, Arnaud 23 November 2015 (has links)
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles. / One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.

Page generated in 0.5096 seconds