• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 45
  • 14
  • Tagged with
  • 191
  • 60
  • 55
  • 47
  • 34
  • 32
  • 27
  • 26
  • 24
  • 24
  • 22
  • 22
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Diffusion directions imaging : reconstruction haute résolution des faisceaux de matière blanche par IRM de diffusion basse résolution angulaire / Diffusion directions imaging : high resolution reconstruction of white matter fascicles from low angular resolution diffusion MRI

Stamm, Aymeric 29 November 2013 (has links)
L'objectif de cette thèse est de fournir une chaine de traitement complète pour la reconstruction des faisceaux de la matière blanche à partir d'images pondérées en diffusion caractérisées par une faible résolution angulaire. Cela implique (i) d'inférer en chaque voxel un modèle de diffusion à partir des images de diffusion et (ii) d'accomplir une ''tractographie", i.e., la reconstruction des faisceaux à partir de ces modèles locaux. Notre contribution en modélisation de la diffusion est une nouvelle distribution statistique dont les propriétés sont étudiées en détail. Nous modélisons le phénomène de diffusion par un mélange de telles distributions incluant un outil de sélection de modèle destiné à estimer le nombre de composantes du mélange. Nous montrons que le modèle peut être correctement estimé à partir d'images de diffusion ''single-shell" à faible résolution angulaire et qu'il fournit des biomarqueurs spécifiques pour l'étude des tumeurs. Notre contribution en tractographie est un algorithme qui approxime la distribution des faisceaux émanant d'un voxel donné. Pour cela, nous élaborons un filtre particulaire mieux adapté aux distributions multi-modales que les filtres traditionnels. Pour démontrer l'applicabilité de nos outils en usage clinique, nous avons participé aux trois éditions du MICCAI DTI Tractography challenge visant à reconstruire le faisceau cortico-spinal à partir d'images de diffusion ''single-shell" à faibles résolutions angulaire et spatiale. Les résultats montrent que nos outils permettent de reconstruire toute l'étendue de ce faisceau. / The objective of this thesis is to provide a complete pipeline that achieves an accurate reconstruction of the white matter fascicles using clinical diffusion images characterized by a low angular resolution. This involves (i) a diffusion model inferred in each voxel from the diffusion images and (ii) a tractography algorithm fed with these local models to perform the actual reconstruction of fascicles. Our contribution in diffusion modeling is a new statistical distribution, the properties of which are extensively studied. We model the diffusion as a mixture of such distributions, for which we design a model selection tool that estimates the number of mixture components. We show that the model can be accurately estimated from single shell low angular resolution diffusion images and that it provides specific biomarkers for studying tumors. Our contribution in tractography is an algorithm that approximates the distribution of fascicles emanating from a seed voxel. We achieve that by means of a particle filter better adapted to multi-modal distributions than the traditional filters. To demonstrate the clinical applicability of our tools, we participated to all three editions of the MICCAI DTI Tractography challenge aiming at reconstructing the cortico-spinal tract from single-shell low angular and low spatial resolution diffusion images. Results show that our pipeline provides a reconstruction of the full extent of the CST.
142

Optimisation of the weapon target assignment problem foir naval and ground command and control systems / Optimisation du problème d'allocation d'armes à des cibles pour les systèmes de commandes et contrôles terrestres et navals

Leboucher, Cédric 21 October 2014 (has links)
Ces travaux de recherche abordent un problème de défense anti-aérien, usuellement appelé problème d'allocation d'armes à des cibles dans la littérature. L'allocation d'armes à des cibles est un problème bien connu de la recherche opérationnelle militaire qui a rencontré un franc succès parmi la communauté des chercheurs, et qui aujourd'hui encore suscite un large engouement puisque sa propriété démontrée NP-difficile en fait un problème qui reste irrésolu. Que ce soit par des méthodes analytiques ou meta-heuristiques, le problème d'allocation d'armes à des cibles a fait l'objet de nombreuses propositions de résolution. Cependant, il est assez surprenant de voir que la modélisation proposée pour ce problème n'a guère évolué depuis qu'il est apparu pour la première fois dans la littérature en 1950. Cette modélisation peut être considérée comme obsolète aujourd'hui et ne répond plus aux exigences qui accompagnent les technologies modernes. En effet, en 60 ans le champ de bataille a complètement changé, et dans la littérature seulement un nombre limité d'études proposent de prendre en compte ces évolutions. L'étude menée dans cette thèse propose de s'intéresser aux systèmes de Commandes et Contrôles (C2) pour des applications anti-aériennes. Habituellement un système C2 est composé de senseurs, d'un centre d'opérations tactiques et d'un ou plusieurs lanceurs. Les senseurs alimentent le centre d'opérations tactiques à partir des informations qu'ils recueillent, puis, une fois ces informations reçues, le centre d'opérations tactiques va interpréter ces données afin de calculer l'atteignabilité des menaces. Enfin, un plan d'engagement qui comprend l'allocation des munitions disponibles aux cibles et une date de tir sont proposés à un opérateur humain qui aura pour mission de valider cette proposition en totalité ou partiellement, puis va procéder à l'engagement des menaces. Pour remplir cet objectif, une approche innovante et faisant l'objet d'un dépôt de brevet a été développée afin de répondre aux difficultés relatives aux problèmes d'optimisation multi-objectifs. Ensuite, un algorithme d'optimisation continue basé sur la combinaison de l'optimisation par essaim particulaires avec la théorie des jeux évolutionnaires est proposé pour optimiser les dates de tirs. L'allocation optimale, elle, est obtenue en adaptant cette méthode continue au cas discret. La preuve que l'algorithme développé est localement convergent est donnée dans cette thèse. D'autre part, l'aspect temps-réel a également fait l'objet d'une recherche attentive et l'algorithme précédemment cité a été hybridé avec les réseaux de neurones afin d'accélérer le temps de calcul des composants identifiés comme "lourds" en termes de charge de calcul. Enfin, cette étude ne se limite pas à une application de recherche opérationnelle militaire, mais inclut quelques concepts élémentaires de guidage et de navigation pour le calcul d'atteignabilité des menaces. Finalement, cette thèse permet d'identifier que les points suivants doivent faire l'objet d'une attention très particulière afin de développer un outil d'aide à la décision efficace. D'abord, la métrique d'évaluation d'un bon plan d'engagement doit être clairement analysée. Ensuite, le plan d'engagement proposé doit être stable et ne pas proposer de changements soudains qui pourraient perturber l'opérateur. Le troisième point concerne la robustesse de la solution proposée et sa capacité à faire face aux situations les plus compliquées. Quatrièmement, le temps et la charge de calcul sont des contraintes techniques qui ne peuvent pas être outrepassées. Finalement, les exigences posées lors de la préparation de mission et qui dépendent du contexte doivent faire l'objet d'une attention particulière. C'est pourquoi, l'outil d'aide à la décision proposé doit permettre un allègement significatif de la charge de travail de l'opérateur ainsi que la réduction considérable du stress lié à ce contexte / This research investigates a practical air defence problem, usually named Weapon Target Assignment (WTA) in the literature. The WTA problem is a well-known problem of military operation research that encountered a wide success in the research community, but still nowadays since it remains an unsolved problem because of its NP-hardness property. From analytical to heuristic methods, the WTA was deeply investigated and many attempts to solve this problem have been proposed. However, the proposed modelling of this problem is consistent with the 1950's technologies. Thus, the proposed modelling found in the literature can be considered as obsolete and cannot fit the requirement of the current technology advances. Indeed, the battle field dramatically changes over 60 years, and the recent literature proposes only few studies taking into account these amendments. The herein study proposes to investigate a Command & Control system (C2) in air defence applications. Usually a C2 system includes sensors, a Tactical Operation Centre (TOC) and one or more launchers. The sensors provide information about aerial tactical situation to the TOC. This TOC is in charge of evaluating the received information in order to compute the attainability of the targets, then an engagement plan that includes the assignment of the available weapons to the incoming targets and a date to fire for each assignment. This engagement plan is then proposed to one human operator in charge of accepting whole or part of this engagement plan and engage the targets following the received instructions. To achieve this goal, an innovative and patented approach to mitigate the issues related to multi-objective optimisation is proposed. Then, a continuous optimisation algorithm based on the combination of the Particle Swarm Optimisation and the Evolutionary Game Theory was proposed to determine the best dates to fire. The optimal assignment was obtained by adapting the aforementioned algorithm to the discrete case. This thesis also gives the proof that the designed algorithms are locally convergent and intensive benchmarking confirms the developed theory. In order to respect the real-time requirement, it was also devised to use the Neural Networks to lighten the identified burdensome parts of the algorithm and decrease computational time. Not limited to the military operation research field, the herein study reuse some basic concepts of missile guidance and navigation to compute the attainability of the targets. From this thesis, it can be identified that following aspects need to be carefully considered to provide an efficient decision making support to a human operator: First, clearly define what a good engagement plan is. Second, the engagement plan must be steady to avoid high rate changing in the assignments that could significantly disturb the operator. Third, the proposed engagement also must be reliable and robust to face any possible situations. Fourth, the computation time and computation load are technical constraints that cannot be overstepped. Finally, the operational constraints related to the mission context defined during a pre-mission stage must also be taken into account. Therefore, the proposed decision making support must help and significantly reduce the operator's work load in this situation of high stress and sensitive context
143

Perfectionnement d'un algorithme adaptatif d'optimisation par essaim particulaire : application en génie médical et en électronique / Improvement of an adaptive algorithm of Optimization by Swarm Particulaire : application in medical engineering and in electronics

Cooren, Yann 27 November 2008 (has links)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque probléme posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boite noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critàre d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques / Metaheuristics are a new family of stochastic algorithms which aim at solving difficult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally efficient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird flocks or fish schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their e ciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box , for which the user has only the problem and the stopping criterion to de ne. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is defined in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The di culty of such an operation is that, in most cases, the objectives are con icting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components
144

Pic-Vert : une implémentation de la méthode particulaire pour architectures multi-coeurs / Pic-Vert : a particle-in-cell implementation for multi-core architectures

Barsamian, Yann 31 October 2018 (has links)
Cette thèse a pour contexte la résolution numérique du système de Vlasov–Poisson (modèle utilisé en physique des plasmas, par exemple dans le cadre du projet ITER) par les méthodes classiques particulaires (PIC pour "Particle-in-Cell") et semi-Lagrangiennes. La contribution principale de notre thèse est une implémentation efficace de la méthode PIC pour architectures multi-coeurs, écrite dans le langage C, dont le nom est Pic-Vert. Notre implémentation (a) atteint un nombre quasi-minimal de transferts mémoires avec la mémoire principale, (b) exploite les instructions vectorielles (SIMD) pour les calculs numériques, et (c) expose une quantité suffisante de parallélisme, en mémoire partagée. Pour mettre notre travail en perspective avec l'état de l'art, nous proposons une métrique permettant de comparer différentes implémentations sur différentes architectures. Notre implémentation est 3 fois plus rapide que d'autres implémentations récentes sur la même architecture (Intel Haswell). / In this thesis, we are interested in solving the Vlasov–Poisson system of equations (useful in the domain of plasma physics, for example within the ITER project), thanks to classical Particle-in-Cell (PIC) and semi-Lagrangian methods. The main contribution of our thesis is an efficient implementation of the PIC method on multi-core architectures, written in C, called Pic-Vert. Our implementation (a) achieves close-to-minimal number of memory transfers with the main memory, (b) exploits SIMD instructions for numerical computations, and (c) exhibits a high degree of shared memory parallelism. To put our work in perspective with respect to the state-of-the-art, we propose a metric to compare the efficiency of different PIC implementations when using different multi-core architectures. Our implementation is 3 times faster than other recent implementations on the same architecture (Intel Haswell).
145

Méthodes particulaires et vraisemblances pour l'inférence de modèles d'évolution avec dépendance au contexte / Sequential Monte Carlo methods and likelihoods for inference of context-dependent evolutionary models

Huet, Alexis 27 June 2014 (has links)
Cette thèse est consacrée à l'inférence de modèles stochastiques d'évolution de l'ADN avec dépendance au contexte, l'étude portant spécifiquement sur la classe de modèles stochastiques RN95+YpR. Cette classe de modèles repose sur un renforcement des taux d'occurrence de certaines substitutions en fonction du contexte local, ce qui introduit des phénomènes de dépendance dans l'évolution des différents sites de la séquence d'ADN. Du fait de cette dépendance, le calcul direct de la vraisemblance des séquences observées met en jeu des matrices de dimensions importantes, et est en général impraticable. Au moyen d'encodages spécifiques à la classe RN95+YpR, nous mettons en évidence de nouvelles structures de dépendance spatiales pour ces modèles, qui sont associées à l'évolution des séquences d'ADN sur toute leur histoire évolutive. Ceci rend notamment possible l'utilisation de méthodes numériques particulaires, développées dans le cadre des modèles de Markov cachés, afin d'obtenir des approximations consistantes de la vraisemblance recherchée. Un autre type d'approximation de la vraisemblance, basé sur des vraisemblances composites, est également introduit. Ces méthodes d'approximation de la vraisemblance sont implémentées au moyen d'un code en C++. Elles sont mises en œuvre sur des données simulées afin d'étudier empiriquement certaines de leurs propriétés, et sur des données génomiques, notamment à des fins de comparaison de modèles d'évolution / This thesis is devoted to the inference of context-dependent evolutionary models of DNA sequences, and is specifically focused on the RN95+YPR class of stochastic models. This class of models is based on the reinforcement of some substitution rates depending on the local context, which introduces dependence phenomena between sites in the evolution of the DNA sequence. Because of these dependencies, the direct computation of the likelihood of the observed sequences involves high-dimensional matrices, and is usually infeasible. Through encodings specific to the RN95+YpR class, we highlight new spatial dependence structures for these models, which are related to the evolution of DNA sequences throughout their evolutionary history. This enables the use of particle filter algorithms, developed in the context of hidden Markov models, in order to obtain consistent approximations of the likelihood. Another type of approximation of the likelihood, based on composite likelihoods, is also introduced. These approximation methods for the likelihood are implemented in a C++ program. They are applied on simulated data to empirically investigate some of their properties, and on genomic data, especially for comparison of evolutionary models
146

Architectures pour des systèmes de localisation et de cartographie simultanées / Architectures for simultaneous localization and mapping systems

Vincke, Bastien 03 December 2012 (has links)
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l’embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L’implantation optimisée d’un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d’adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d’un système à base d’une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l’approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d’une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie. / Mobile robotics is a growing field. One important research area is Simultaneous Localization And Mapping (SLAM). Algorithms commonly used in SLAM are generally expensive in terms of computing power. The current trend towards miniaturization imposes to restrict the embedded processing units. All these observations lead us to integrate SLAM algorithms on dedicated architectures suitable for embedded systems.The first work was to define an architecture for a mobile robot to localize itself. This architecture must satisfy some constraints, including the real-time, small dimensions and low power consumption. The optimized implementation of a SLAM algorithm, using the best architectural characteristics of the system (capacity of processors, multi-core implementation, SIMD instructions or parallelization on heterogeneous architecture), has demonstrated the ability to design embedded systems for SLAM applications in the context of Hardware-Software codesign.A second approach has been explored with the aim of designing a system based on a reconfigurable architecture (FPGA-based) for a highly parallel architecture dedicated to SLAM. The defined architecture was evaluated using a HIL (Hardware in the Loop) methodology.The main SLAM algorithms use the probabilistic theories, they do not guarantee their localization results. A SLAM algorithm based on interval analysis is defined to guarantee the overall results. Several algorithmic improvements are then proposed. A comparison with probabilistic algorithms highlighted the robustness of the approach.This thesis put forward two main contributions. The first is to affirm the importance of the hardware software codesign to solve the problem of SLAM with real-time constraint. The second is the definition of a new algorithm to ensure the results of localization and mapping.
147

Contributions aux pistages mono et multi-cibles fondés sur les ensembles finis aléatoires / Contributions to single and multi-target tracking based on random finite sets

Legrand, Leo 05 July 2019 (has links)
La détection et le pistage de cibles de surface, maritimes ou terrestres, constituent l’un des champs d’application de la surveillance par radar aéroporté. Dans ce contexte spécifique, il s’agit d’estimer les trajectoires d’un ou de plusieurs objets mobiles au cours du temps à partir de mesures radar bruitées. Cependant, plusieurs contraintes s’additionnent au problème d’estimation des trajectoires :1. le nombre d’objets présents dans la région d’intérêt est inconnu et peut évoluer au cours du temps,2. les mesures fournies par le radar ne correspondent pas toutes à des objets mobiles car certaines sont dues à l’environnement ; il s’agit de fausses alarmes,3. une mesure n’est pas toujours disponible pour chaque objet à chaque instant ; il s’agit de non-détections,4. les cibles de surface peuvent être très diverses en termes de capacité de manoeuvre.Pour tenir compte des trois premières exigences, les modèles d’ensembles finis aléatoires peuvent être envisagés pour procéder aux estimations simultanées du nombre d’objets et de leur trajectoire dans un formalisme bayésien. Pour répondre à la quatrième contrainte, une classification des objets à pister peut s’avérer utile. Aussi, dans le cadre de cette thèse, nous nous intéressons à deux traitements adaptatifs qui intègrent ces deux principes.Tout d’abord, nous proposons une approche conjointe de pistage et de classification dédiée au cas d’un objet évoluant en présence de fausses alarmes. Notre contribution réside dans le développement d’un algorithme incorporant un filtre fondé sur un ensemble fini aléatoire de Bernoulli. L’algorithme résultant combine robustesse aux fausses alarmes et capacité à classer l’objet. Cette classification peut être renforcée grâce à l’estimation d’un paramètre discriminant comme la longueur, qui est déduite d’une mesure d’étalement distance.Le second traitement adaptatif présenté dans cette thèse est une technique de pistage de groupes de cibles dont les mouvements sont coordonnés. Chaque groupe est caractérisé par un paramètre commun définissant la coordination des mouvements de ses cibles. Cependant, ces dernières conservent une capacité de manoeuvre propre par rapport à la dynamique de groupe. S’appuyant sur le formalisme des ensembles finis aléatoires, la solution proposée modélise hiérarchiquement la configuration multi-groupes multi-cibles. Au niveau supérieur, la situation globale est représentée par un ensemble fini aléatoire dont les éléments correspondent aux groupes de cibles. Ils sont constitués du paramètredu groupe et d’un ensemble fini aléatoire multi-cibles. Ce dernier contient les vecteurs d’état des cibles du groupe dont le nombre peut évoluer au cours du temps. L’algorithme d’estimation développé est lui-aussi organisé de manière hiérarchique. Un filtre multi-Bernoulli labélisé (LMB) permet d’estimer le nombre de groupes, puis pour chacun d’entre eux, leur probabilité d’existence ainsi que leur paramètre commun. Pour ce faire, le filtre LMB interagit avec un banc de filtres multi-cibles qui opèrent conditionnellement à une hypothèse de groupe. Chaque filtre multi-cibles estime le nombre et les vecteurs d’état des objets du groupe. Cette approche permet de fournir à l’opérationnel des informations sur la situation tactique. / Detecting and tracking maritime or ground targets is one of the application fields for surveillance by airborne radar systems. In this specific context, the goal is to estimate the trajectories of one or more moving objects over time by using noisy radar measurements. However, several constraints have to be considered in addition to the problem of estimating trajectories:1. the number of objects inside the region of interest is unknown and may change over time,2. the measurements provided by the radar can arise from the environment and do not necessarily correspond to a mobile object; the phenomenon is called false detection,3. a measurement is not always available for each object; the phenomenon is called non-detection,4. the maneuverability depends on the surface targets.Concerning the three first points, random finite set models can be considered to simultaneously estimate the number of objects and their trajectories in a Bayesian formalism. To deal with the fourth constraint, a classification of the objects to be tracked can be useful. During this PhD thesis, we developped two adaptive approaches that take into account both principles.First of all, we propose a joint target tracking and classification method dedicated to an object with the presence of false detections. Our contribution is to incorporate a filter based on a Bernoulli random finite set. The resulting algorithm combines robustness to the false detections and the ability to classify the object. This classification can exploit the estimation of a discriminating parameter such as the target length that can be deduced from a target length extent measurement.The second adaptive approach presented in this PhD dissertation aims at tracking target groups whose movements are coordinated. Each group is characterized by a common parameter defining the coordination of the movements of its targets. However, the targets keep their own capabilities of maneuvering relatively to the group dynamics. Based on the random finite sets formalism, the proposed solution represents the multi-target multi-group configuration hierarchically. At the top level, the overall situation is modeled by a random finite set whose elements correspond to the target groups. They consist of the common parameter of the group and a multi-target random finite set. The latter contains the state vectors of the targets of the group whose number may change over time. The estimation algorithm developed is also organized hierarchically. A labeled multi-Bernoulli filter (LMB) makes it possible to estimate the number of groups, and for each of them, to obtain their probability of existence as well as their common parameter. For this purpose, the LMB filter interacts with a bank of multi-target filters working conditionally to a group hypothesis. Each multi-target filter estimates the number and state vectors of the objects in the group. This approach provides operational information on the tactical situation.
148

Contribution à l'estimation paramétrique de signaux à variation sinusoïdale de la fréquence instantanée et à amplitude variable : application à l'anémométrie laser à effet Doppler pour l'acoustique

LE DUFF, Alain 16 July 2003 (has links) (PDF)
L'anémométrie laser à effet Doppler (ALD), dont l'utilisation est très répandue en mécanique des fluides, peut aussi être utilisée pour la mesure de vitesse particulaire acoustique. La nature vectorielle de cette grandeur permet de caractériser les champs à structure complexe ce qui autorise, par exemple, l'étude de phénomènes acoustiques au voisinage de parois vibrantes ou de discontinuités géométriques. L'ALD offre, pour ce type de problème, le double avantage de présenter une bonne résolution spatiale de la mesure et de ne perturber que faiblement le champ à explorer.<br />Le Laboratoire d'Acoustique de l'Université du Maine est équipé d'un banc de mesure conçu pour la mesure de vitesse acoustique. Depuis près de huit ans, les recherches se sont orientées vers la validation expérimentale de cette technique ainsi que vers l'élaboration de méthodes de traitement des signaux propres à extraire la vitesse particulaire dans un contexte de traitement différé et avec l'hypothèse d'un signal Doppler d'amplitude constante. Cependant, pour que l'ALD soit exploitable efficacement il est indispensable de concevoir un système de mesure, simple d'utilisation, permettant d'accéder rapidement à la vitesse acoustique et prenant en compte la nature variable de l'amplitude du signal Doppler.<br />L'objectif de cette étude est donc de proposer des méthodes de traitement du signal adaptées à l'estimation de la vitesse particulaire acoustique, dans le cas d'une excitation sinusoïdale, et de définir une architecture matérielle et logicielle indispensable à cette mesure. Celle-ci s'opère à partir des composantes en phase et en quadrature du signal Doppler ramenées en bande de base à l'aide d'un dispositif de démodulation analogique spécialement développé pour cette application. Trois estimateurs sont alors proposés : le premier est basé sur le calcul de la dérivée de la phase du signal Doppler. Sa principale vocation consiste à initialiser une deuxième méthode d'estimation basée sur la recherche du maximum de vraisemblance. Le filtrage de Kalman étendu constitue la troisième méthode explorée. Enfin, les formes analytiques, approchées mais précises, des bornes de Cramer-Rao montrent l'influence des paramètres du problème sur la qualité des estimations. Par la suite, des simulations statistiques de Monte-Carlo permettent d'évaluer la qualité des trois méthodes. Une estimation sommaire des complexités algorithmiques des estimateurs complète également cette phase d'évaluation.<br />Enfin, la validation expérimentale des techniques d'estimation s'articule autour de deux expériences. Dans un premier temps, la mesure de la vitesse de déplacement sinusoïdale d'une pointe d'aiguille montée dans un pot vibrant permet de confronter les résultats obtenus par ALD à ceux que donne un vibromètre laser. Dans un second temps, la mesure de vitesses particulaires acoustiques rayonnées par un haut-parleur électrodynamique, est proposée. Les valeurs issues de la mesure en champ libre par ALD sont alors comparées à celles des vitesses de référence obtenues à l'aide de la méthode du doublet microphonique.
149

Étude mathématique et numérique du transport d'aérosols dans le poumon humain.

Moussa, Ayman 02 December 2009 (has links) (PDF)
Dans ce travail, nous nous intéressons au transport des aérosols dans les voies aériennes supérieures du poumon humain. Ce phénomène est modélisé dans notre étude par un couplage d'équations aux dérivées partielles issues de la mécanique des fluides et de la théorie cinétique. Ainsi, le fluide est décrit par des fonctions macroscopiques (vitesse, pression), par l'intermédiaire des équations de Navier-Stokes incompressibles tandis que la phase dispersée est décrite par sa densité dans l'espace des phases, grâce à une équation de transport (Vlasov ou Vlasov-Fokker-Planck). Le couplage effectué est fort, en ce sens qu'il associe à l'aérosol une force de rétroaction correspondant au retour de l'accélération de traînée fournie par le fluide: l'interaction fluide/spray se fait dans les deux sens. Enfin, les équations sont en toute généralité considérées en domaine spatial mobile, ceci afin de tenir compte de l'éventuel mouvement des bronches. Dans un premier chapitre, après quelques rappels concernant l'arbre pulmonaire et les aérosols, nous décrivons le système d'équations de Vlasov/Navier-Stokes pour lequel nous avons développé un schéma d'approximation numérique. Ce dernier aspect est abordé dans le deuxième chapitre. La méthode utilisée consiste en un couplage explicite d'une méthode ALE/éléments finis pour le fluide et d'une méthode particulaire pour la phase dispersée. L'algorithme développé nécessitant une procédure de localisation des particules dans le maillage, celle-ci a également été mise en place. Différentes exploitations du code ont ensuite été réalisées. Une première série de simulations numériques a été effectuée afin d'évaluer l'influence de la rétroaction du spray sur le fluide. On prouve ainsi que, pour des données en cohérence avec les nébuliseurs commerciaux, l'aérosol peut accélérer un fluide au repos et de ce fait influencer son propre mouvement. Une autre exploitation du code a été effectuée en collaboration avec une équipe de l'INSERM, à Tours, à l'aide de données expérimentales in vitro. Enfin, une dernière étude a été réalisée sur un conduit cylindrique présentant une constriction en son centre. Nous avons évalué l'influence du mouvement de sa paroi sur la capture de particules sur cette géométrie. Les deux derniers chapitres de cette thèse traitent de l'analyse mathématique de deux couplages fluides/cinétiques. Le premier de ces couplages est celui de Vlasov/Navier-Stokes, précédemment introduit. On prouve l'existence de solutions faibles globales périodiques du système par une méthode basée sur un schéma d'approximation voisin de celui utilisé lors de l'implémentation numérique. Le deuxième couplage est celui de Vlasov-Fokker-Planck/Navier-Stokes pour lequel nous avons obtenu l'existence de solutions fortes pour des données initiales régulières et proches d'un point d'équilibre. Nous avons ensuite étudié le comportement en temps long de solutions du système et précisé la régularité que celui-ci leur impose.
150

Some Signal Processing Techniques for Wireless Cooperative Localization and Tracking

NOUREDDINE AL MOUSSAWI, Hadi 16 November 2012 (has links) (PDF)
Les avancements des technologies de l'information et des systèmes de communication ont permis le développement d'une grande variété d'applications et de services de géolocalisation. Les systèmes de positionnement par satellites figurent parmi les solutions principales de localisation. Dans des environnements difficiles (par exemples, les canyons urbains ou à l'intérieur des bâtiments), ces solutions ne fournissent pas une bonne précision, ou même deviennent indisponibles. Afin d'offrir des solutions de localisation précises et disponibles quelque soit l'environnement, les systèmes de communication sans fil ont été utilisés, où plusieurs paramètres topo-dépendants des signaux transmis peuvent être mesurés et exploités (par exemple, le temps d'arrivée (ToA), la puissance du signal reçu (RSS)). Dans ce travail, la localisation dans les systèmes sans fil est étudié d¿un point de vue traitement statistique du signal, et en explorant deux axes. Le premier axe concerne la localisation coopérative appliquée aux réseaux ad-hoc, où les différents n¿uds effectuent des mesures de distance par paire (c.à.d. ToA ou RSS) afin d'estimer simultanément leurs positions. Les conditions de solvabilité unique sont étudiées en s'appuyant sur les deux approches de la rigidité graphique et la programmation semi-définie, et ainsi les conditions d'identifiabilité sont déduites. Les solutions d'estimation de la position sont considérées en se concentrant sur l'estimation probabiliste et son application dans des champs aléatoires de Markov et ce en utilisant l¿algorithme de propagation de croyance non-paramétrique (NBP). Le deuxième axe concerne la poursuite des terminaux mobiles en se basant sur des mesures RSS. Ces mesures sont affectées par un phénomène de masquage (shadowing). L'amélioration apportée à la précision de positionnement par la connaissance des cartes de shadowing est étudiée. La solution classique pour l'obtention de ces cartes est le fingerprinting, qui peut être coûteux en temps de collecte de mesures. Des solutions sont développées afin de surmonter ces difficultés. Plusieurs solutions sont proposées et étudiées par des simulations de Monte Carlo pour différents scénarios d'application et de déploiement, et plusieurs résultats théoriques et pratiques sont obtenus.

Page generated in 0.0172 seconds