• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 9
  • 8
  • Tagged with
  • 39
  • 39
  • 21
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Méthodes bayésiennes semi-paramétriques d'extraction et de sélection de variables dans le cadre de la dendroclimatologie / Semi-parametric Bayesian Methods for variables extraction and selection in a dendroclimatological context

Guin, Ophélie 14 April 2011 (has links)
Selon le Groupe Intergouvernemental d'experts sur l'Évolution du Climat (GIEC), il est important de connaitre le climat passé afin de replacer le changement climatique actuel dans son contexte. Ainsi, de nombreux chercheurs ont travaillé à l'établissement de procédures permettant de reconstituer les températures ou les précipitations passées à l'aide d'indicateurs climatiques indirects. Ces procédures sont généralement basées sur des méthodes statistiques mais l'estimation des incertitudes associées à ces reconstructions reste une difficulté majeure. L'objectif principal de cette thèse est donc de proposer de nouvelles méthodes statistiques permettant une estimation précise des erreurs commises, en particulier dans le cadre de reconstructions à partir de données sur les cernes d'arbres.De manière générale, les reconstructions climatiques à partir de mesures de cernes d'arbres se déroulent en deux étapes : l'estimation d'une variable cachée, commune à un ensemble de séries de mesures de cernes, et supposée climatique puis l'estimation de la relation existante entre cette variable cachée et certaines variables climatiques. Dans les deux cas, nous avons développé une nouvelle procédure basée sur des modèles bayésiens semi- paramétriques. Tout d'abord, concernant l'extraction du signal commun, nous proposons un modèle hiérarchique semi-paramétrique qui offre la possibilité de capturer les hautes et les basses fréquences contenues dans les cernes d'arbres, ce qui était difficile dans les études dendroclimatologiques passées. Ensuite, nous avons développé un modèle additif généralisé afin de modéliser le lien entre le signal extrait et certaines variables climatiques, permettant ainsi l'existence de relations non-linéaires contrairement aux méthodes classiques de la dendrochronologie. Ces nouvelles méthodes sont à chaque fois comparées aux méthodes utilisées traditionnellement par les dendrochronologues afin de comprendre ce qu'elles peuvent apporter à ces derniers. / As stated by the Intergovernmental Panel on Climate Change (IPCC), it is important to reconstruct past climate to accurately assess the actual climatic change. A large number of researchers have worked to develop procedures to reconstruct past temperatures or precipitation with indirect climatic indicators. These methods are generally based on statistical arguments but the estimation of uncertainties associated to these reconstructions remains an active research field in statistics and in climate studies. The main goal of this thesis is to propose and study novel statistical methods that allow a precise estimation of uncertainties when reconstructing from tree-ring measurements data. Generally, climatic reconstructions from tree-ring observations are based on two steps. Firstly, a hidden environmental hidden variable, common to a collection of tree-ring measurements series, has to be adequately inferred. Secondly, this extracted signal has to be explained with the relevant climatic variables. For these two steps, we have opted to work within a semi-parametric bayesian framework that reduces the number of assumptions and allows to include prior information from the practitioner. Concerning the extraction of the common signal, we propose a model which can catch high and low frequencies contained in tree-rings. This was not possible with previous dendroclimatological methods. For the second step, we have developed a bayesian Generalized Additive Model (GAM) to explore potential links between the extracted signal and some climatic variables. This allows the modeling of non-linear relationships among variables and strongly differs from past dendrochronological methods. From a statistical perspective, a new selection scheme for bayesien GAM was also proposed and studied.
12

Planification des essais accélérés : optimisation, robustesse et analyse

Fatemi, Seyyedeh Zohreh 20 December 2012 (has links) (PDF)
La qualification d'un produit, lors des phases de développement, est une étape importante dans un projet qui vérifie que les performances et la fiabilité atteignent les objectifs. Les essais de qualification sont souvent couteux en temps et en nombre de produits testés. Les essais accélérés consistent à soumettre des unités à des niveaux de stress plus élevés qu'en condition d'exploitation afin de réduire le temps d'apparition des défaillances. Ils permettent de construire plus rapidement la fonction de fiabilité à partir d'un modèle appropriée reliant durée de vie et stress. De plus, un plan d'essai doit être construit, précisant les paramètres du plan (niveaux de stress, allocation de l'échantillon) pour trouver le meilleur compromis entre le coût d'essai et la qualité d'estimation. L'objectif de la thèse a été de définir une méthodologie de construction de plans d'essai accéléré optimaux et robustes. Nous avons donc développé un cadre général basé sur la minimisation du coût global et une approche bayésienne. Les distributions a priori, issues de la connaissance des paramètres de fiabilité et du modèle d'accélération, sont utilisées dans l'inférence bayésienne et dans une simulation de Monte Carlo d'exploration des fiabilités possibles. Le plan optimal et robuste est obtenu à partir de méthodes d'optimisation (Surface de réponse, Algorithmes génétiques). Enfin, une méthodologie de suivi des essais est développée en observant la pertinence des résultats par rapport aux informations a priori à partir d'un facteur de similitude. Il permet de vérifier si la décision quant à la qualification peut être prise plus rapidement, ou d'optimiser le plan en cours de réalisation.
13

Estimation de l'attitude d'un satellite à l'aide de caméras pushbroom et de capteurs stellaires

Perrier, Régis 27 September 2011 (has links) (PDF)
Les caméras pushbroom sont omniprésentes en imagerie satellitaire. Ce capteur linéaire enregistre des images 1-D et utilise le défilement du satellite autour de la terre pour construire des bandeaux d'image ; son principe de fonctionnement est identique aux scanners et photocopieurs que l'on peut utiliser tous les jours. Les avantages liés à cette technologie sont principalement une résolution d'image étendue qui va bien au delà des caméras perspectives, un coût d'exploitation faible et une robustesse au contexte spatial. Pour reconstruire des images couleur, le plan focal d'un satellite embarque plusieurs caméras pushbroom sensibles à différentes bandes spectrales de la lumière. Ce mode d'acquisition dépendant du temps suppose que l'orientation du satellite, également appelée attitude dans cette étude, ne varie pas au cours du survol d'une scène. Les satellites ont jusqu'à maintenant été considérés comme stables du fait de leur inertie. Cependant les technologies récentes développées dans la recherche spatiale tendent à réduire leur taille et alléger leur poids pour les rendre plus agiles et moins coûteux en énergie lors de leur mise en orbite. La résolution des capteurs a également été améliorée, ce qui rend nettement plus critique la moindre oscillation de l'imageur. Ces facteurs cumulés font qu'un changement d'attitude de quelques microradians peut provoquer des déformations géométriques notables dans les images. Les solutions actuelles utilisent les capteurs de positionnement du satellite pour asservir son attitude et rectifier les images, mais elles sont coûteuses et limitées en précision. Les images contiennent pourtant une information cohérente sur les mouvements du satellite de par leurs éventuelles déformations. Nous proposons dans cette étude de retrouver les variations d'attitude par recalage des images enregistrées par le satellite. Nous exploitons la disposition des caméras pushbroom dans le plan focal ainsi que la nature stationnaire des oscillations pour conduire l'estimation. Le tout est présenté dans un cadre bayesien, où les données images peuvent se mêler avec une information a priori sur le mouvement ainsi que des mesures exogènes fournies par un capteur stellaire couramment appelé star tracker. Différentes solutions sont décrites et comparées sur des jeux de données satellitaires fournis par le constructeur de satellite EADS Astrium.
14

Modèles graphiques évidentiels

Boudaren, Mohamed El Yazid 12 January 2014 (has links) (PDF)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d'images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d'estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d'estimer les paramètres du modèle à partir de l'observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l'évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l'aspect hétérogène des distributions de bruit s'inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l'hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l'instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d'estimation des paramètres associées. L'intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles
15

Méthodes de traitement du signal pour l'analyse quantitative de gaz respiratoires à partir d’un unique capteur MOX / Signal processing for quantitative analysis of exhaled breath using a single MOX sensor

Madrolle, Stéphanie 27 September 2018 (has links)
Prélevés de manière non invasive, les gaz respiratoires sont constitués de nombreux composés organiques volatils (VOCs) dont la quantité dépend de l’état de santé du sujet. L’analyse quantitative de l’air expiré présente alors un fort intérêt médical, que ce soit pour le diagnostic ou le suivi de traitement. Dans le cadre de ma thèse, nous proposons d’étudier un dispositif d’analyse des gaz respiratoires, et notamment de ces VOCs. Cette thèse multidisciplinaire aborde différents aspects, tels que le choix des capteurs, du matériel et des modes d’acquisition, l’acquisition des données à l’aide d’un banc gaz, et ensuite le traitement des signaux obtenus de manière à quantifier un mélange de gaz. Nous étudions la réponse d’un capteur à oxyde métallique (MOX) à des mélanges de deux gaz (acétone et éthanol) dilués dans de l’air synthétique (oxygène et azote). Ensuite, nous utilisons des méthodes de séparation de sources de manière à distinguer les deux gaz, et déterminer leur concentration. Pour donner des résultats satisfaisants, ces méthodes nécessitent d’utiliser plusieurs capteurs dont on connait la forme mathématique du modèle décrivant l’interaction du mélange avec le capteur, et qui présentent une diversité suffisante dans les mesures d’étalonnage pour estimer les coefficients de ce modèle. Dans cette thèse, nous montrons que les capteurs MOX peuvent être décrits par un modèle de mélange linéaire quadratique, et qu’un mode d’acquisition fonctionnant en double température permet de générer deux capteurs virtuels à partir d’un unique capteur physique. Pour quantifier précisément les composants du mélange à partir des mesures sur ces capteurs (virtuels), nous avons conçu des méthodes de séparation de sources, supervisées et non supervisées appliquées à ce modèle non-linéaire : l’analyse en composantes indépendantes, des méthodes de moindres carrés (algorithme de Levenberg-Marquardt), et une méthode bayésienne ont été étudiées. Les résultats expérimentaux montrent que ces méthodes permettent d’estimer les concentrations de VOCs contenus dans un mélange de gaz, de façon précise, en ne nécessitant que très peu de points de calibration. / Non-invasively taken, exhaled breath contains many volatile organic compounds (VOCs) whose amount depends on the health of the subject. Quantitative analysis of exhaled air is of great medical interest, whether for diagnosis or for a treatment follow-up. As part of my thesis, we propose to study a device to analyze exhaled breath, including these VOCs. This multidisciplinary thesis addresses various aspects, such as the choice of sensors, materials and acquisition modes, the acquisition of data using a gas bench, and then the processing of the signals obtained to quantify a gas mixture. We study the response of a metal oxide sensor (MOX) to mixtures of two gases (acetone and ethanol) diluted in synthetic air (oxygen and nitrogen). Then, we use source separation methods in order to distinguish the two gases, and to determine their concentration. To give satisfactory results, these methods require first to use several sensors for which we know the mathematical model describing the interaction of the mixture with the sensor, and which present a sufficient diversity in the calibration measurements to estimate the model coefficients. In this thesis, we show that MOX sensors can be described by a linear-quadratic mixing model, and that a dual temperature acquisition mode can generate two virtual sensors from a single physical sensor. To quantify the components of the mixture from measurements on these (virtual) sensors, we have develop supervised and unsupervised source separation methods, applied to this nonlinear model: independent component analysis, least squares methods (Levenberg Marquardt algorithm), and a Bayesian method were studied. The experimental results show that these methods make it possible to estimate the VOC concentrations of a gas mixture, accurately, while requiring only a few calibration points.
16

Estimation de l'attitude d'un satellite à l'aide de caméras pushbroom et de capteurs stellaires / How to estimate satellite attitude using pushbroom cameras and star trackers

Perrier, Régis 27 September 2011 (has links)
Les caméras pushbroom sont omniprésentes en imagerie satellitaire. Ce capteur linéaire enregistre des images 1-D et utilise le défilement du satellite autour de la terre pour construire des bandeaux d’image ; son principe de fonctionnement est identique aux scanners et photocopieurs que l’on peut utiliser tous les jours. Les avantages liés à cette technologie sont principalement une résolution d’image étendue qui va bien au delà des caméras perspectives, un coût d’exploitation faible et une robustesse au contexte spatial. Pour reconstruire des images couleur, le plan focal d’un satellite embarque plusieurs caméras pushbroom sensibles à différentes bandes spectrales de la lumière. Ce mode d’acquisition dépendant du temps suppose que l’orientation du satellite, également appelée attitude dans cette étude, ne varie pas au cours du survol d’une scène. Les satellites ont jusqu’à maintenant été considérés comme stables du fait de leur inertie. Cependant les technologies récentes développées dans la recherche spatiale tendent à réduire leur taille et alléger leur poids pour les rendre plus agiles et moins coûteux en énergie lors de leur mise en orbite. La résolution des capteurs a également été améliorée, ce qui rend nettement plus critique la moindre oscillation de l’imageur. Ces facteurs cumulés font qu’un changement d’attitude de quelques microradians peut provoquer des déformations géométriques notables dans les images. Les solutions actuelles utilisent les capteurs de positionnement du satellite pour asservir son attitude et rectifier les images, mais elles sont coûteuses et limitées en précision. Les images contiennent pourtant une information cohérente sur les mouvements du satellite de par leurs éventuelles déformations. Nous proposons dans cette étude de retrouver les variations d’attitude par recalage des images enregistrées par le satellite. Nous exploitons la disposition des caméras pushbroom dans le plan focal ainsi que la nature stationnaire des oscillations pour conduire l’estimation. Le tout est présenté dans un cadre bayesien, où les données images peuvent se mêler avec une information a priori sur le mouvement ainsi que des mesures exogènes fournies par un capteur stellaire couramment appelé star tracker. Différentes solutions sont décrites et comparées sur des jeux de données satellitaires fournis par le constructeur de satellite EADS Astrium. / Linear pushbroom cameras are widely used for earth observation applications. This sensor acquires 1-D images over time and uses the straight motion of the satellite to sweep out a region of space and build 2-D image ; it operates in the same way as a usual flatbed scanner. Main advantages of such technology are : robustness in the space context, higher resolution than classical 2-D CCD sensors and low production cost. To build color images, several pushbroom cameras of different modalities are set in parallel onto the satellite’s focal plane. This acquisition process is dependent of the time and assumes that the satellite’s attitude remains constant during the image recording. However, the recent manufacture of smal- ler satellites with higher sampling resolution has weakened this assumption. The satellite may oscillates around its rotations axis, and an angular variation of a few microradians can result in noticeable warps in images. Current solutions use inertial sensors on board the satellite to control the attitude and correct the images, but they are costly and of limited precision. As warped images do contain the information of attitude variations, we suggest to use image registration to es- timate them. We exploit the geometry of the focal plane and the stationary nature of the disturbances to recover undistorted images. To do so, we embed the estimation process in a Bayesian framework where image registration, prior on attitude variations and mea- surements of a star tracker are fused to retrieve the motion of the satellite. We illustrate the performance of our algorithm on four satellite datasets provided by EADS Astrium.
17

Tomographie par rayons X multi-énergétiques pour l’analyse de la structure interne de l'objet appliquée dans l’imagerie médicale / Bayesian Multi-Energy Computed Tomography reconstruction approaches based on decomposition models

Cai, Caifang 23 October 2013 (has links)
La tomographie par rayons X multi-énergétiques (MECT) permet d'obtenir plus d'information concernant la structure interne de l'objet par rapport au scanner CT classique. Un de ses intérêts dans l’imagerie médicale est d'obtenir les images de fractions d’eau et d’os. Dans l'état de l'art, les intérêts de MECT n'est pas encore découvert largement. Les approches de reconstruction existantes sont très limitées dans leurs performances. L'objectif principal de ce travail est de proposer des approches de reconstruction de haute qualité qui pourront être utilisés dans la MECT afin d’améliorer la qualité d’imagerie.Ce travail propose deux approches de reconstruction bayésiennes. La première est adaptée au système avec un détecteur discriminant en énergie. Dans cette approche, nous considérons que les polychromaticités de faisceaux sont négligeables. En utilisant le modèle linéaire de la variance et la méthode d'estimation maximum à postériori (MAP), l'approche que nous avons proposé permets de prendre en compte les différents niveaux de bruit présentés sur les mesures multi-énergétiques. Les résultats des simulations montrent que, dans l'imagerie médicale, les mesures biénergies sont suffisantes pour obtenir les fractions de l'eau et de l'os en utilisant l'approche proposée. Des mesures à la troisième énergie est nécessaire uniquement lorsque l'objet contient des matériaux lourdes. Par exemple, l’acier et l'iode. La deuxième approche est proposée pour les systèmes où les mesures multi-énergétiques sont obtenues avec des faisceaux polychromatiques. C'est effectivement la plupart des cas dans l'état actuel du practice. Cette approche est basée sur un modèle direct non-linéaire et un modèle bruit gaussien où la variance est inconnue. En utilisant l’inférence bayésienne, les fractions de matériaux de base et de la variance d'observation pourraient être estimées à l'aide de l'estimateur conjoint de MAP. Sous réserve à un modèle a priori Dirac attribué à la variance, le problème d'estimation conjointe est transformé en un problème d'optimisation avec une fonction du coût non-quadratique. Pour le résoudre, l'utilisation d'un algorithme de gradient conjugué non-linéaire avec le pas de descente quasi-optimale est proposée.La performance de l'approche proposée est analysée avec des données simulées et expérimentales. Les résultats montrent que l'approche proposée est robuste au bruit et aux matériaux. Par rapport aux approches existantes, l'approche proposée présente des avantages sur la qualité de reconstruction. / Multi-Energy Computed Tomography (MECT) makes it possible to get multiple fractions of basis materials without segmentation. In medical application, one is the soft-tissue equivalent water fraction and the other is the hard-matter equivalent bone fraction. Practical MECT measurements are usually obtained with polychromatic X-ray beams. Existing reconstruction approaches based on linear forward models without counting the beam polychromaticity fail to estimate the correct decomposition fractions and result in Beam-Hardening Artifacts (BHA). The existing BHA correction approaches either need to refer to calibration measurements or suffer from the noise amplification caused by the negative-log pre-processing and the water and bone separation problem. To overcome these problems, statistical DECT reconstruction approaches based on non-linear forward models counting the beam polychromaticity show great potential for giving accurate fraction images.This work proposes a full-spectral Bayesian reconstruction approach which allows the reconstruction of high quality fraction images from ordinary polychromatic measurements. This approach is based on a Gaussian noise model with unknown variance assigned directly to the projections without taking negative-log. Referring to Bayesian inferences, the decomposition fractions and observation variance are estimated by using the joint Maximum A Posteriori (MAP) estimation method. Subject to an adaptive prior model assigned to the variance, the joint estimation problem is then simplified into a single estimation problem. It transforms the joint MAP estimation problem into a minimization problem with a non-quadratic cost function. To solve it, the use of a monotone Conjugate Gradient (CG) algorithm with suboptimal descent steps is proposed.The performances of the proposed approach are analyzed with both simulated and experimental data. The results show that the proposed Bayesian approach is robust to noise and materials. It is also necessary to have the accurate spectrum information about the source-detector system. When dealing with experimental data, the spectrum can be predicted by a Monte Carlo simulator. For a variety of materials, less than 5% estimation errors are observed on their average decomposition fractions.The proposed approach is a statistical reconstruction approach based on a non-linear forward model counting the full beam polychromaticity and applied directly to the projections without taking negative-log. Compared to the approaches based on linear forward models and the BHA correction approaches, it has advantages in noise robustness and reconstruction accuracy.
18

Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne

Nahimana, Donnay Fleury 19 February 2009 (has links) (PDF)
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites
19

Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-Saharienne

Ndour, Cheikh 19 May 2014 (has links) (PDF)
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali.
20

Estimation non-ambigüe de cibles grâce à une représentation parcimonieuse Bayésienne d'un signal radar large bande / Unambiguous target estimation using Bayesian sparse representation of a wideband radar signal

Lasserre, Marie 20 November 2017 (has links)
Les travaux menés lors de cette thèse s’inscrivent dans le cadre général de la détection de cibles en utilisant une forme d’onde non-conventionnelle large bande. L’utilisation d’une forme d’onde large bande à faible PRF a été proposée par le passé une alternative aux traitements multi-PRF qui limitent le temps d’illumination de la scène. En effet, l’augmentation de la bande instantanée permet d’obtenir une meilleure résolution distance ; les cibles rapides sont alors susceptibles de migrer lors du temps de traitement, mais ce phénomène de couplage distance-vitesse peut être mis à profit pour lever les ambiguïtés. L’objectif de la thèse est alors de développer, pour une forme d’onde large bande avec faible PRF, des traitements prenant en compte la migration des cibles et capables de lever les ambiguïtés vitesse dans des scénarios réalistes. Les travaux se basent sur un algorithme de représentation parcimonieuse non-ambigüe de cibles migrantes, dans un cadre algorithmique Bayésien. Cet algorithme est en revanche développé sous certaines hypothèses, et des travaux de robustification sont alors entrepris afin de l’utiliser sur des scénarios plus réalistes. Dans un premier temps, l’algorithme est robustifié au désalignement des cibles par rapport à la grille d’analyse, puis modifié pour prendre également en compte une possible composante diffuse de bruit. Il est également remanié pour estimer correctement une scène comportant une forte diversité de puissance, où des cibles fortes masquent potentiellement des cibles faibles. Les différents algorithmes sont validés à la fois sur des données synthétiques et expérimentales. / The work conducted during this PhD falls within the general context of radar target detection using a non-conventional wideband waveform. More precisely, the use of a low-PRF wideband waveform has been proposed in the past as an alternative to the classical staggered-PRF processing used to mitigate velocity ambiguities that limits dwell time. Increasing the instantaneous bandwidth improves range resolution; fast moving targets are then likely to migrate during the coherent processing interval. This range-velocity coupling can then be used to mitigate velocity ambiguities. This PhD thesis aims at developing an algorithm able to provide unambiguous estimation of migrating targets using a low-PRF wideband waveform. It is based on a sparse representation algorithm able to unambiguously estimate migrating targets, within a Bayesian framework. However, this algorithm is developed under some hypothesis, and then requires robustification to be used on more realistic scenarii. First, the algorithm is robustified to the case of off-grid targets, and then upgraded to take into account a possible diffuse clutter component. On the other hand, the reference algorithm is modified to accurately estimate high dynamic range scenes where weak targets compete with strong targets. All the developed algorithms have been validated on synthetic and experimental data recorded by the PARSAX radar from the Technical University of Delft, The Netherlands.

Page generated in 0.1118 seconds