• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 9
  • 8
  • Tagged with
  • 39
  • 39
  • 21
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Multifractal analysis for multivariate data with application to remote sensing / Analyse multifractale de données multivariées avec application à la télédétection

Combrexelle, Sébastien 12 October 2016 (has links)
La caractérisation de texture est centrale dans de nombreuses applications liées au traitement d’images. L’analyse de textures peut être envisagée dans le cadre mathématique de l’analyse multifractale qui permet d’étudier les fluctuations de la régularité ponctuelle de l’amplitude d’une image et fournit les outils pratiques pour leur évaluation grâce aux coefficients d’ondelettes ou aux coefficients dominants. Bien que mise à profit dans de nombreuses applications, l’analyse multifractale souffre à présent de deux limitations majeures. Premièrement, l’estimation des paramètres multifractaux reste délicate, notamment pour les images de petites tailles. Deuxièmement, l’analyse multifractale a été jusqu’à présent uniquement considérée pour l’analyse univariée d’images, alors que les données à étudier sont de plus en plus multivariées. L’objectif principal de cette thèse est la mise au point de contributions pratiques permettant de pallier ces limitations. La première limitation est abordée en introduisant un modèle statistique générique pour le logarithme des coefficients dominants, paramétrisé par les paramètres multifractaux d’intérêt. Ce modèle statistique permet de contrebalancer la variabilité résultant de l’analyse d’images de petite taille et de formuler l’estimation dans un cadre bayésien. Cette approche aboutit à des procédures d’estimation robustes et efficaces, que ce soit pour des images de petites ou grandes tailles. Ensuite, l’analyse multifractale d’images multivariées est traitée en généralisant ce cadre bayésien à des modèles hiérarchiques capables de prendre en compte l’hypothèse d’une évolution lente des propriétés multifractales d’images multi-temporelles ou multi-bandes. Ceci est réalisé en définissant des lois a priori reliant les propriétés dynamiques des paramètres multifractaux des différents éléments composant le jeu de données. Différents types de lois a priori sont étudiés dans cette thèse au travers de simulations numériques conduites sur des images multifractales multivariées synthétiques. Ce travail est complété par une étude du potentiel apport de l’analyse multifractale et de la méthodologie bayésienne proposée pour la télédétection à travers l’exemple de l’imagerie hyperspectrale. / Texture characterization is a central element in many image processing applications. Texture analysis can be embedded in the mathematical framework of multifractal analysis, enabling the study of the fluctuations in regularity of image intensity and providing practical tools for their assessment, the coefficients or wavelet leaders. Although successfully applied in various contexts, multi fractal analysis suffers at present from two major limitations. First, the accurate estimation of multifractal parameters for image texture remains a challenge, notably for small sample sizes. Second, multifractal analysis has so far been limited to the analysis of a single image, while the data available in applications are increasingly multivariate. The main goal of this thesis is to develop practical contributions to overcome these limitations. The first limitation is tackled by introducing a generic statistical model for the logarithm of wavelet leaders, parametrized by multifractal parameters of interest. This statistical model enables us to counterbalance the variability induced by small sample sizes and to embed the estimation in a Bayesian framework. This yields robust and accurate estimation procedures, effective both for small and large images. The multifractal analysis of multivariate images is then addressed by generalizing this Bayesian framework to hierarchical models able to account for the assumption that multifractal properties evolve smoothly in the dataset. This is achieved via the design of suitable priors relating the dynamical properties of the multifractal parameters of the different components composing the dataset. Different priors are investigated and compared in this thesis by means of numerical simulations conducted on synthetic multivariate multifractal images. This work is further completed by the investigation of the potential benefit of multifractal analysis and the proposed Bayesian methodology for remote sensing via the example of hyperspectral imaging.
22

Involuntary unemployment and financial frictions in estimated DSGE models / Chômage involontaire et frictions financières dans les modèles DSGE estimés

Devulder, Antoine 19 April 2016 (has links)
L’utilisation de modèles DSGE, construits à partir de comportements micro-fondés des agents économiques, s'est progressivement imposée aux institutions pour l'analyse macroéconomique du cycle d'affaires et l'évaluation de politiques, grâce à leur cohérence interne. La crise financière récente et la préoccupation que représente la persistance du chômage à un niveau élevé plaident en faveur de modèles qui tiennent compte des ajustements imparfaits de l'offre et de la demande sur les marchés du crédit et du travail. Pourtant, des modèles relativement rudimentaires dans leur représentation de ces marchés, comme celui de Smets et Wouters (2003-2007), reproduisent aussi bien les données que des modèles économétriques usuels. On peut donc légitimement s'interroger sur l'intérêt de prendre en compte ces frictions dans la spécification des modèles théoriques destinés à l'analyse économique opérationnelle. Dans cette thèse, je réponds à cette question en montrant que l'inclusion de mécanismes microfondés, spécifiques aux marchés du crédit et du travail peut modifier très significativement les conclusions obtenues à partir d'un modèle DSGE estimé, tant d'un point de vue positif que normatif. Pour cela, je construis un modèle à deux pays de la France et du reste de la zone euro, avec un reste du monde exogène, et l'estime avec et sans ces deux frictions, en utilisant une approche hayésienne. Par rapport aux modèles existant dans la littérature, je propose deux améliorations à la spécification du marché du travail. Premièrement, suivant Pissarides (2009), le salaire réel moyen est rendu rigide en supposant que seuls les nouveaux employés renégocient leur rémunération. Deuxièmement, le taux de participation sur le marché du travail est rendu endogène et le chômage involontaire, dans le sens où le bien-être des chômeurs est inférieur à celui des employés. L'inclusion de ce dernier mécanisme dans le modèle estimé fera cependant I'objet de travaux futurs.Afin de mettre en évidence les effets des frictions sur les marches du crédit et du travail, je soumets les quatre versions estimées du modèle à plusieurs exercices: une analyse en contributions des chocs structurels pendant la crise. L'évaluation de différentes règles de politique monétaire, la simulation contrefactuelle de la crise sous l'hypothèse d'un régime de change flexible entre la France et le reste de la zone euro et, enfin. la simulation de variante de TVA sociale. / Thanks to their internal consistency. DSGE models, built on microecoc behavor, have become prevalenl for business cycle and policy analysis in institutions. The recent crisis and governments' concern about persistent unemployment advocate for mechanism, capturing imperfect adjustments in credit and labor markets. However, popular models such as the one of Smets and Wouters (2003-2007), although unsophisticated in their representation of these markets, are able to replicate the data as well as usual econometric tools. It is thus necessary to question the benefits of including these frictions in theoretical models for operational use.ln this thesis, I address this issue and show that microfounded mechanisms specifiç to labor and credit markets can significantly alter the conclusions based on the use of an estimated DSGE model, fom both a positive and a normative perspective.For this purpose, I build a two-country model of France and the rest of the euro area with exogenous rest of the world variables, and estimate it with and without these two frictions using Bayesian techniques. By contrast with existing models, I propose two improvements of the representation of labor markets. First, following Pissarides (2009), only wages in new jobs are negotiated by firms and workers, engendering stickiness in the average real wage. Second, I develop a set of assumptions to make labor market participation endogenous and unemployment involuntary in the sense that the unemployed workers are worse-off that the employed ones. Yet, including this setup in the estimated model is left for future research.Using the four estimated versions of the model, I undertake a number of analyses to highlight the role of financial and labor market frictions : an historical shock decomposition of fluctuations during the crisis, the evaluation of several monetary policy rules, a counterfactual simulation of the crisis under the assumption of a flexible exchange rate regime between France and the rest of the euro area and, lastly, the simulation of social VAT scenarios.
23

Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications. / Correspondence between Gaussian process regression and interpolation splines under linear inequality constraints. Theory and applications

Maatouk, Hassan 01 October 2015 (has links)
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée. / This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities.
24

Correction d'estimateurs de la fonction de Pickands et estimateur bayésien

Chalifoux, Kevin 01 1900 (has links)
Faire l'estimation d'une copule de valeurs extrêmes bivariée revient à estimer A, sa fonction de Pickands qui lui est associée. Cette fonction A:[0,1] \( \rightarrow \) [0,1] doit satisfaire certaines contraintes : $$\max\{1-t, t \} \leq A(t) \leq 1, \hspace{3mm} t\in[0,1]$$ $$\text{A est convexe.}$$ Plusieurs estimateurs ont été proposés pour estimer cette fonction A, mais peu respectent ses contraintes imposées. La contribution principale de ce mémoire est d'introduire une technique simple de correction d'estimateurs de la fonction de Pickands de sorte à ce que les estimateurs corrigés respectent les contraintes exigées. La correction proposée utilise une nouvelle propriété du vecteur aléatoire bivarié à valeurs extrêmes, combinée avec l'enveloppe convexe de l'estimateur obtenu pour garantir le respect des contraintes de la fonction A. La seconde contribution de ce mémoire est de présenter un estimateur bayésien non paramétrique de la fonction de Pickands basé sur la forme introduite par Capéraà et al. (1997). L'estimateur utilise les processus de Dirichlet pour estimer la fonction de répartition d'une transformation du vecteur aléatoire bivarié à valeurs extrêmes. Des analyses par simulations sont produites sur un ensemble d'estimateurs pour mesurer la performance de la correction et de l'estimateur bayésien proposés, sur un ensemble de 18 distributions de valeurs extrêmes bivariées. La correction améliore l'erreur quadratique moyenne sur l'ensemble des niveaux. L'estimateur bayésien proposé obtient l'erreur quadratique moyenne minimale pour les estimateurs considérés. / Estimating a bivariate extreme-value copula is equivalent to estimating A, its associated Pickands function. This function A: [0,1] \( \rightarrow \) [0,1] must satisfy some constraints : $$\max\{1-t, t \} \leq A(t) \leq 1, \hspace{3mm} t\in[0,1]$$ $$\text{A is convex.}$$ Many estimators have been proposed to estimate A, but few satisfy the imposed constraints. The main contribution of this thesis is the introduction of a simple correction technique for Pickands function estimators so that the corrected estimators respect the required constraints. The proposed correction uses a new property of the extreme-value random vector and the convex hull of the obtained estimator to guaranty the respect of the Pickands function constraints. The second contribution of this thesis is to present a nonparametric bayesian estimator of the Pickands function based on the form introduced by Capéraà, Fougères and Genest (1997). The estimator uses Dirichlet processes to estimate the cumulative distribution function of a transformation of the extreme-value bivariate vector. Analysis by simulations and a comparison with popular estimators provide a measure of performance for the proposed correction and bayesian estimator. The analysis is done on 18 bivariate extreme-value distributions. The correction reduces the mean square error on all distributions. The bayesian estimator has the lowest mean square error of all the considered estimators.
25

Identification et caractérisation de sources électromagnétiques - Application à la discrétion des moteurs de propulsion navale

Schmerber, Louis 21 December 2006 (has links) (PDF)
Cette thèse présente une méthode d'identification de sources électromagnétiques dynamiques ainsi qu'une méthode de calcul de dimensionnement de blindage électromagnétique. Elles reposent sur les développements harmoniques solutions des équations de Maxwell. L'identification électromagnétique permet de caractériser une source dynamique dans un milieu conducteur à partir de mesures de champs electromagnétiques proches. Elle permet l'extrapolation des signatures électromagnétiques d'une source et le diagnostic d'installations électriques par mesures de champs proches. Cette identification repose sur l'estimation bayésienne des paramètres du développement harmonique d'une source qui permet l'intervention d'information a priori. Le calcul de blindage repose sur l'écriture harmonique des conditions de passage sur les frontières d'un blindage. Il permet de dimensionner un blindage en distinguant l'effet d'atténuation et l'effet de forme en fonction des matériaux et des couches de ce dernier.
26

Estimation et détection conjointe pour la fusion d'informations

Reboul, Serge 21 May 2014 (has links) (PDF)
La détection des changements ou ruptures dans les paramètres de la distribution statistique d'une série temporelle est un problème de recherche en traitement du signal qui trouve des applications dans de nombreux domaines comme le traitement des signaux GNSS. Le projet scientifique développé dans mon mémoire d'habilitation à diriger des recherches concerne l'étude des méthodes d'estimation et de détection conjointe de ruptures pour la fusion d'informations. Les approches proposées dans ce cadre sont utilisées dans différentes applications comme l'estimation des paramètres du vecteur vent, le traitement des signaux GNSS et le filtrage des mesures fournies par les capteurs inertiels. L'objectif de la fusion est d'utiliser les informations ou mesures fournies par différents capteurs pour avoir une meilleure connaissance du paramètre à estimer. Nous avons donc proposé dans ce travail plusieurs méthodes d'estimation et de détection conjointe de rupture qui fusionnent les informations fournies par des capteurs. Le but étant d'améliorer les performances des opérateurs en termes de détection, de localisation et d'estimation de la dynamique des ruptures. Les approches proposées dans un cadre bayésien s'appuient sur la définition de la distribution a posteriori des paramètres à estimer sachant les mesures multi-capteurs. Un des apports de nos travaux dans ce domaine est de proposer un ensemble de filtres définis dans le domaine circulaire avec la distribution de von Mises. Un autre apport est de proposer une loi a priori qui modélise le comportement mutuel entre plusieurs processus dans le cas de la segmentation multi-ruptures hors ligne de signaux multi-capteurs. Ce travail a principalement été appliqué au géo positionnement et plus particulièrement au traitement de la phase et du code des signaux GNSS multi-porteuses. Nous avons montré par des expérimentations sur signaux réels que les méthodes proposées permettent d'obtenir une localisation centimétrique à la milliseconde d'un récepteur ayant un mouvement de forte dynamique. Aujourd'hui les perspectives de ce travail sont dans le traitement des signaux de réflectométrie GNSS et de géolocalisation sous-marine. En effet pour ces applications les signaux sont fortement atténués et déformés par le milieu de propagation, ce qui constitue un nouvel enjeu pour les méthodes de fusion d'informations en traitement du signal.
27

Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-Saharienne / Statistical modeling of maternal and neonatal mortality for help in planning and management of health services in sub-Saharan Africa

Ndour, Cheikh 19 May 2014 (has links)
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali. / The aim of this thesis is to design a supervised statistical learning methodology that can overcome the weakness of standard methods when the prior distribution of the response variable is unbalanced. The proposed methodology is built using class association rules. Chapter II deals with theorical basis of statistical learning method by relating various classifiers performance metrics with class association rules. Since the classifier corresponding to a class association rules is a weak classifer, we propose to select a small number of such weak classifiers and to combine them in the aim to build an efficient classifier. In Chapter III, we develop the different steps of the statistical learning method when observations are independent and identically distributed. There are three main steps: In the first step, an initial set of patterns correlated with the target class is generated using "apriori" algorithm. In the second step, we propose a hypothesis test to prune redondant patterns. In the third step, an hypothesis test is performed based on the ratio of the positive predictive values of the classifiers when respective generating patterns are nested. This results in a reduced and optimal set of patterns whose combination provides an efficient classifier. In Chapter IV, we extend the classification method that we proposed in Chapter III in order to handle the case where observations are not identically distributed. The aim being here to adapt the procedure for selecting the optimal set of patterns when data are grouped data. In this setting we compute the estimation of the positive predictive values as the mean of the posterior distribution of the target class probability by using empirical Bayes method. Thereafter, using Bayes factor, a hypothesis test based on the ratio of the positive predictive values is carried out when patterns are nested. Chapter V is devoted to the application of the proposed methodology to process a real world dataset. We studied the QUARITE project dataset on maternal mortality in Senegal and Mali in order to provide a decision making tree that health care professionals can refer to when managing patients delivering in their health facilities.
28

Contributions aux pistages mono et multi-cibles fondés sur les ensembles finis aléatoires / Contributions to single and multi-target tracking based on random finite sets

Legrand, Leo 05 July 2019 (has links)
La détection et le pistage de cibles de surface, maritimes ou terrestres, constituent l’un des champs d’application de la surveillance par radar aéroporté. Dans ce contexte spécifique, il s’agit d’estimer les trajectoires d’un ou de plusieurs objets mobiles au cours du temps à partir de mesures radar bruitées. Cependant, plusieurs contraintes s’additionnent au problème d’estimation des trajectoires :1. le nombre d’objets présents dans la région d’intérêt est inconnu et peut évoluer au cours du temps,2. les mesures fournies par le radar ne correspondent pas toutes à des objets mobiles car certaines sont dues à l’environnement ; il s’agit de fausses alarmes,3. une mesure n’est pas toujours disponible pour chaque objet à chaque instant ; il s’agit de non-détections,4. les cibles de surface peuvent être très diverses en termes de capacité de manoeuvre.Pour tenir compte des trois premières exigences, les modèles d’ensembles finis aléatoires peuvent être envisagés pour procéder aux estimations simultanées du nombre d’objets et de leur trajectoire dans un formalisme bayésien. Pour répondre à la quatrième contrainte, une classification des objets à pister peut s’avérer utile. Aussi, dans le cadre de cette thèse, nous nous intéressons à deux traitements adaptatifs qui intègrent ces deux principes.Tout d’abord, nous proposons une approche conjointe de pistage et de classification dédiée au cas d’un objet évoluant en présence de fausses alarmes. Notre contribution réside dans le développement d’un algorithme incorporant un filtre fondé sur un ensemble fini aléatoire de Bernoulli. L’algorithme résultant combine robustesse aux fausses alarmes et capacité à classer l’objet. Cette classification peut être renforcée grâce à l’estimation d’un paramètre discriminant comme la longueur, qui est déduite d’une mesure d’étalement distance.Le second traitement adaptatif présenté dans cette thèse est une technique de pistage de groupes de cibles dont les mouvements sont coordonnés. Chaque groupe est caractérisé par un paramètre commun définissant la coordination des mouvements de ses cibles. Cependant, ces dernières conservent une capacité de manoeuvre propre par rapport à la dynamique de groupe. S’appuyant sur le formalisme des ensembles finis aléatoires, la solution proposée modélise hiérarchiquement la configuration multi-groupes multi-cibles. Au niveau supérieur, la situation globale est représentée par un ensemble fini aléatoire dont les éléments correspondent aux groupes de cibles. Ils sont constitués du paramètredu groupe et d’un ensemble fini aléatoire multi-cibles. Ce dernier contient les vecteurs d’état des cibles du groupe dont le nombre peut évoluer au cours du temps. L’algorithme d’estimation développé est lui-aussi organisé de manière hiérarchique. Un filtre multi-Bernoulli labélisé (LMB) permet d’estimer le nombre de groupes, puis pour chacun d’entre eux, leur probabilité d’existence ainsi que leur paramètre commun. Pour ce faire, le filtre LMB interagit avec un banc de filtres multi-cibles qui opèrent conditionnellement à une hypothèse de groupe. Chaque filtre multi-cibles estime le nombre et les vecteurs d’état des objets du groupe. Cette approche permet de fournir à l’opérationnel des informations sur la situation tactique. / Detecting and tracking maritime or ground targets is one of the application fields for surveillance by airborne radar systems. In this specific context, the goal is to estimate the trajectories of one or more moving objects over time by using noisy radar measurements. However, several constraints have to be considered in addition to the problem of estimating trajectories:1. the number of objects inside the region of interest is unknown and may change over time,2. the measurements provided by the radar can arise from the environment and do not necessarily correspond to a mobile object; the phenomenon is called false detection,3. a measurement is not always available for each object; the phenomenon is called non-detection,4. the maneuverability depends on the surface targets.Concerning the three first points, random finite set models can be considered to simultaneously estimate the number of objects and their trajectories in a Bayesian formalism. To deal with the fourth constraint, a classification of the objects to be tracked can be useful. During this PhD thesis, we developped two adaptive approaches that take into account both principles.First of all, we propose a joint target tracking and classification method dedicated to an object with the presence of false detections. Our contribution is to incorporate a filter based on a Bernoulli random finite set. The resulting algorithm combines robustness to the false detections and the ability to classify the object. This classification can exploit the estimation of a discriminating parameter such as the target length that can be deduced from a target length extent measurement.The second adaptive approach presented in this PhD dissertation aims at tracking target groups whose movements are coordinated. Each group is characterized by a common parameter defining the coordination of the movements of its targets. However, the targets keep their own capabilities of maneuvering relatively to the group dynamics. Based on the random finite sets formalism, the proposed solution represents the multi-target multi-group configuration hierarchically. At the top level, the overall situation is modeled by a random finite set whose elements correspond to the target groups. They consist of the common parameter of the group and a multi-target random finite set. The latter contains the state vectors of the targets of the group whose number may change over time. The estimation algorithm developed is also organized hierarchically. A labeled multi-Bernoulli filter (LMB) makes it possible to estimate the number of groups, and for each of them, to obtain their probability of existence as well as their common parameter. For this purpose, the LMB filter interacts with a bank of multi-target filters working conditionally to a group hypothesis. Each multi-target filter estimates the number and state vectors of the objects in the group. This approach provides operational information on the tactical situation.
29

Estimation de mouvement et segmentation<br />Partie I : Estimation de mouvement par ondelettes spatio-temporelles adaptées au mouvement.<br />Partie II : Segmentation et estimation de mouvement par modèles de Markov cachés et approche bayésienne dans les domaines direct et ondelette.

Brault, Patrice 29 November 2005 (has links) (PDF)
La première partie de ce mémoire présente une nouvelle vision de l'estimation de mouvement, et donc de la compression, dans les séquences<br />vidéo. D'une part, nous avons choisi d'aborder l'estimation de mouvement à partir de familles d'ondelettes redondantes adaptées à différentes<br />transformations, dont, plus particulièrement, la vitesse. Ces familles, très peu connues, ont déjà été étudiées dans le cadre de la poursuite de<br />cibles. D'autre part, les standards de compression actuels comme MPEG4 prennent en compte une compression objet mais ne calculent toujours que de<br />simples vecteurs de mouvements de ``blocs''. Il nous a paru intéressant de chercher à mettre en oeuvre ces familles d'ondelettes car 1)<br />elle sont construites pour le calcul de paramètres sur plusieurs types de mouvement (rotation, vitesse, accélération) et 2) nous<br />pensons qu'une approche de l'estimation basée sur l'identification de trajectoires d'objets dans une scène est une solution intéressante pour les<br />méthodes futures de compression. En effet nous pensons que l'analyse et la compréhension des mouvements dans une scène est une voie pour des méthodes<br />de compression ``contextuelles'' performantes.<br /><br /><br /><br />La seconde partie présente deux développements concernant la segmentation non-supervisée dans une approche bayésienne. Le premier, destiné à réduire<br />les temps de calcul dans la segmentation de séquences vidéo, est basé sur une mise en oeuvre itérative, simple, de la segmentation. Il nous a aussi<br />permis de mettre une estimation de mouvement basée sur une segmentation ``région'' (voire objet). Le second est destiné à diminuer les temps de<br />segmentation d'images fixes en réalisant la segmentation dans le domaine des ondelettes. Ces deux développements sont basés sur une approche par<br />estimation bayésienne utilisant un modèle de champ aléatoire de Potts-Markov (PMRF) pour les étiquettes des pixels, dans le domaine direct, et pour<br />les coefficients d'ondelettes. Il utilise aussi un algorithme itératif de type MCMC (Markov Chain Monte Carlo) avec échantillonneur de Gibbs.<br />L'approche initiale, directe, utilise un modèle de Potts avec voisinage d'ordre un. Nous avons développé le modèle de Potts pour l'adapter à des<br />voisinages convenant aux orientations privilégiées des sous-bandes d'ondelettes. Ces réalisations apportent, à notre connaissance, des approches<br />nouvelles dans les méthodes de segmentation<br />non-supervisées.
30

Chaînes de Markov cachées et séparation non supervisée de sources

RAFI, Selwa 11 June 2012 (has links) (PDF)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle

Page generated in 0.5214 seconds