• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 114
  • 37
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 489
  • 215
  • 173
  • 132
  • 102
  • 49
  • 48
  • 43
  • 39
  • 38
  • 36
  • 34
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Méthodes séquentielles de Monte Carlo pour le suivi d'objets multiples hétérogènes en données brutes de télémétrie laser

Vanpoperinghe, Élodie 27 January 2014 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la résolution de problèmes de détection et de suivi d'objets mobiles multiples sur route, à partir de données télémétrique de type lidar à balayage. Les travaux dans le domaine de la détection et de suivi d'obstacles à partir de données lidar mettent généralement en oeure trois principales étapes : la détection, l'association de mesures et le filtrage. Cependant, il est connu que cette chaîne de traitement peut engendrer des pertes d'informations pouvant être à l'origine de cas de non détection ou de fausse alarme. Par ailleurs, les non-linéarités liées à la transformation polaire-cartésien des mesures lidar au cours de l'étape de détection ne permettent plus de préserver la statistique des bruits de mesure après traitement. Une autre difficulté, compte tenu de la nature spatialement distribuée des mesures lidar liées à un objet, est de pouvoir associer chaque impact à un unique véhicule tout en prenant en compte la variabilité temporelle du nombre d'impacts à lui associer. Seule une approche exploitant les données brutes permet de garantir l'optimalité de la chaîne de traitement. Cette thèse explore une nouvelle approche conjointe de détection et de suivi exploitant les données brutes du lidar, éliminant toute étape de pré-détection. L'approche proposé repose, d'une part, sur l'usage des méthodes de Monte Carlo séquentielles en raison de leur aptitude à traiter des modèles fortement non linéaire, , et, d'autre part, sur une modélisation des ojets compatible avec la perception lidar. La méthode est validée avec des données du simulateur SIVIC dans différentes situations expérimentales pour la détection et le suivi d'objets hétérogènes dans un cas lidar monoplan puis multiplan.
92

Observation de procédés basée sur des sous-modèles : applications au traitement et au transport de la matière /

Lachance, Luc, January 2007 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2007. / Bibliogr.: f. [183]-186. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
93

Croissance de TiO₂ en surface de fibres de cellulose pour l'élaboration de filtres photocatalytiques / TiO₂ growth on the surface of cellulose fibers for the development of photocatalytic filters

Plumejeau, Sandrine 14 December 2016 (has links)
La dépollution est aujourd’hui un enjeu majeur pour la protection de l’environnement et un développement durable. Les technologies membranaires et les procédés d’oxydation avancée jouent un rôle de plus en plus important dans le traitement de l'eau que ce soit pour la production d’eau potable que pour le traitement des eaux usées urbaines ou industrielles. La photocatalyse hétérogène est un procédé d’oxydation avancée permettant la génération des espèces très oxydantes comme les radicaux OH•, en présence d’eau et de dioxygène, lors de l’irradiation de certains solides semi-conducteurs au premier rang desquels on retrouve le dioxyde de titane. L’objectif final visé dans cette thèse est le développement de filtres photocatalytiques performants mis en œuvre dans des procédés hybrides couplant séparation et photodégradation. Le mode d’élaboration envisagé pour ces filtres photocatalytiques est basé sur une voie de synthèse en rupture utilisant un polymère biosourcé, la cellulose, à la fois comme réactif (source d’oxygène) et support mécanique pour la croissance de nanoparticules de TiO2 à partir de tétrachlorure de titane. La première partie de la thèse est dédiée à une revue bibliographique qui porte principalement sur les procédés membranaires et hybrides, le dioxyde de titane et ses propriétés photocatalytiques et sur les propriétés chimiques, structurales et microstructurales et l’évolution thermique de la cellulose. Après un descriptif des matériels et méthodes mis en œuvre dans l’étude expérimentale sont d’abord présentés et discutés les résultats obtenus sur la préparation et la caractérisation de poudres purement minérales, à base de TiO2, et de poudres composites TiO2-carbone. L’effet du dopage du TiO2 par différents métaux de transition afin d’améliorer ses propriétés fonctionnelles est ensuite examiné. Une simplification du procédé de synthèse consistant à éliminer tout usage de solvant est exposée dans le chapitre suivant. S’appuyant sur le savoir-faire précédemment acquis en matière de synthèse et sur les performances photocatalytiques préalablement mesurées, le dernier chapitre est consacré aux travaux préliminaires menés sur la préparation de filtres photocatalytiques et sur l’évaluation leurs performances fonctionnelles. / The pollution is definitely a major issue for environmental protection and sustainable development. Membrane technologies and advanced oxidation processes play more and more a key-role in the treatment of water both for the production of drinking water and for the treatment of municipal and industrial wastewaters. Heterogeneous photocatalysis is an advanced oxidation process for generating highly oxidizing species such as OH• in the presence of water and dioxygen, under irradiation of some semiconducting solids like titania (TiO2). The targeted objective for this PhD work is the development of efficient photocatalytic filters to be implemented in hybrid processes coupling separation and photodegradation. The innovative route investigated for preparing such photocatalytic filters is based on the use of a bio-based polymer, i.e. the cellulose, both as reactant (oxygen source) and mechanical support for the growth of titania nanoparticles from titanium tetrachloride. The first part of the thesis is dedicated to a literature review mainly focused on membrane and hybrid processes, on titanium dioxide and its photocatalytic properties and on the chemical, structural, microstructural and thermal behaviour of cellulose. After a description of the experimental procedures, the second part of this manuscript is first dedicated to the presentation and the discussion of the experimental results on the preparation and characterization of pure titania powders and of TiO2-carbon composite powders. The effect of titania doping by different transition metals in order to improve its functional properties is then examined. Simplification of the synthesis process by removing any is described in the next chapter. From the previously developed know-how on synthesis and photocatalytic performance, the last chapter is devoted to preliminary work on the preparation of photocatalytic filters and on the assessment of their functional properties.
94

Low-cost GPS/GLONASS Precise Positioning algorithm in Constrained Environment / Algorithme de positionnement précis en environnement contraint basé sur un récepteur bas-coût GPS/GLONASS

Carcanague, Sébastien 26 February 2013 (has links)
Le GNSS (Global Navigation Satellite System), et en particulier sa composante actuelle le système américain GPS et le système russe GLONASS, sont aujourd'hui utilisés pour des applications géodésiques afin d'obtenir un positionnement précis, de l'ordre du centimètre. Cela nécessite un certain nombre de traitements complexes, des équipements coûteux et éventuellement des compléments au sol des systèmes GPS et GLONASS. Ces applications sont aujourd'hui principalement réalisées en environnement « ouvert » et ne peuvent fonctionner en environnement plus contraint. L'augmentation croissante de l'utilisation du GNSS dans des domaines variés va voir émerger de nombreuses applications où le positionnement précis sera requis (par exemple des applications de transport/guidage automatique ou d'aide à la conduite nécessitant des performances importantes en terme de précision mais aussi en terme de confiance dans la position –l'intégrité- et de robustesse et disponibilité). D'autre part, l'arrivée sur le marché de récepteurs bas-coûts (inférieur à 100 euros) capables de poursuivre les signaux provenant de plusieurs constellations et d'en délivrer les mesures brutes laisse entrevoir des avancées importantes en termes de performance et de démocratisation de ces techniques de positionnement précis. Dans le cadre d'un utilisateur routier, l'un des enjeux du positionnement précis pour les années à venir est ainsi d'assurer sa disponibilité en tout terrain, c'est-à-dire dans le plus grand nombre d'environnements possibles, dont les environnements dégradés (végétation dense, environnement urbain, etc.) Dans ce contexte, l'objectif de la thèse a été d'élaborer et d'optimiser des algorithmes de positionnement précis (typiquement basés sur la poursuite de la phase de porteuse des signaux GNSS) afin de prendre en compte les contraintes liées à l'utilisation d'un récepteur bas coût et à l'environnement. En particulier, un logiciel de positionnement précis (RTK) capable de résoudre les ambiguïtés des mesures de phase GPS et GLONASS a été développé. La structure particulière des signaux GLONASS (FDMA) requiert notamment un traitement spécifiques des mesures de phase décrit dans la thèse afin de pouvoir isoler les ambiguïtés de phase en tant qu'entiers. Ce traitement est compliqué par l'utilisation de mesures provenant d'un récepteur bas coût dont les canaux GLONASS ne sont pas calibrés. L'utilisation d'une méthode de calibration des mesures de code et de phase décrite dans la thèse permet de réduire les biais affectant les différentes mesures GLONASS. Il est ainsi démontré que la résolution entière des ambiguïtés de phase GLONASS est possible avec un récepteur bas coût après calibration de celui-ci. La faible qualité des mesures, du fait de l'utilisation d'un récepteur bas coût en milieu dégradé est prise en compte dans le logiciel de positionnement précis en adoptant une pondération des mesures spécifique et des paramètres de validation de l'ambiguïté dépendant de l'environnement. Enfin, une méthode de résolution des sauts de cycle innovante est présentée dans la thèse, afin d'améliorer la continuité de l'estimation des ambiguïtés de phase. Les résultats de 2 campagnes de mesures effectuées sur le périphérique Toulousain et dans le centre-ville de Toulouse ont montré une précision de 1.5m 68% du temps et de 3.5m 95% du temps dans un environnement de type urbain. En milieu semi-urbain type périphérique, cette précision atteint 10cm 68% du temps et 75cm 95% du temps. Finalement, cette thèse démontre la faisabilité d'un système de positionnement précis bas-coût pour un utilisateur routier. / GNSS and particularly GPS and GLONASS systems are currently used in some geodetic applications to obtain a centimeter-level precise position. Such a level of accuracy is obtained by performing complex processing on expensive high-end receivers and antennas, and by using precise corrections. Moreover, these applications are typically performed in clear-sky environments and cannot be applied in constrained environments. The constant improvement in GNSS availability and accuracy should allow the development of various applications in which precise positioning is required, such as automatic people transportation or advanced driver assistance systems. Moreover, the recent release on the market of low-cost receivers capable of delivering raw data from multiple constellations gives a glimpse of the potential improvement and the collapse in prices of precise positioning techniques. However, one of the challenge of road user precise positioning techniques is their availability in all types of environments potentially encountered, notably constrained environments (dense tree canopy, urban environments…). This difficulty is amplified by the use of low-cost receivers and antennas, which potentially deliver lower quality measurements. In this context the goal of this PhD study was to develop a precise positioning algorithm based on code, Doppler and carrier phase measurements from a low-cost receiver, potentially in a constrained environment. In particular, a precise positioning software based on RTK algorithm is described in this PhD study. It is demonstrated that GPS and GLONASS measurements from a low-cost receivers can be used to estimate carrier phase ambiguities as integers. The lower quality of measurements is handled by appropriately weighting and masking measurements, as well as performing an efficient outlier exclusion technique. Finally, an innovative cycle slip resolution technique is proposed. Two measurements campaigns were performed to assess the performance of the proposed algorithm. A horizontal position error 95th percentile of less than 70 centimeters is reached in a beltway environment in both campaigns, whereas a 95th percentile of less than 3.5 meters is reached in urban environment. Therefore, this study demonstrates the possibility of precisely estimating the position of a road user using low-cost hardware.
95

Etude de dispositifs hyperfréquences passifs accordables en technologie MEMS RF et SOI / Study of tunable microwave passive devices using RF MEMS and SOI technology

Chaabane, Ghassen 19 January 2016 (has links)
L'importante évolution des standards de communications sans fil impose aux systèmes de télécommunication une évolution rapide de leurs architectures. Cette évolution est imposée par de nouvelles normes dont certaines sont basées sur les concepts de transmission multi-porteuses et multi-modes avec une priorité à la compacité, l'intégration, la performance et la baisse de coût. Plusieurs solutions techniques sont envisagées pour s'adapter à cette évolution, et de nouvelles architectures de têtes d’émission-réception sont envisagées en faisant appel à des composants électroniques reconfigurables. Ces dispositifs reconfigurables seront répartis sur toute la chaine d’émission-réception, et peuvent prendre différentes formes tels que des filtres accordables en fréquences, des antennes accordables, adaptateurs d'impédance ou des déphaseurs. Les composants passifs accordables présentent un réel intérêt car ils permettent de fonctionner à plusieurs bandes de fréquences pour des applications ou des standards de communication différents tout en réduisant le coût, l'encombrement et la consommation d’énergie. Deux composants passifs d’une chaine de transmission, les filtres et des antennes reconfigurables font l’objet des travaux de recherche menés dans le cadre de cette thèse. Les performances des circuits et des dispositifs hyperfréquences reconfigurables sont directement liées aux propriétés des éléments d'accord utilisés pour assurer cette fonctionnalité. Dans ce but, différents éléments tels que les composants à base de semi conducteurs (varactor, diode PIN, transistor), de matériaux agiles (ferroélectriques, ferromagnétiques) sont utilisables. Le choix de ce dispositif d'accord dépend des performances et du type d’application envisagée, et les pertes, la linéarité, la vitesse de commutation, la tenue en puissance, la consommation, le coût, sont les principaux critères qui guident le choix. Au début des années 2000, d’autres solutions ont vu le jour avec le développement de la technologie RF-MEMS (Micro Electro-Mechanical System). Ceci a incité les concepteurs de circuits RF à étudier la possibilité d’exploiter les propriétés de cette technologie. Le développement de la technologie RF MEMS peut permettre de franchir un verrou technologique et d’atteindre de bonnes performances en termes de fréquence de coupure, de facteur de qualité, perte et de linéarité. Cette nouvelle technologie à contribué au développement de nouveaux circuits accordables adaptés aux besoins actuels. Développée depuis de nombreuses années au laboratoire XLIM, la technologie RF MEMS est utilisée par les travaux de cette thèse. / The rapid growth of the telecommunications industry has led to a significant increase in the number of allocated frequency bands and a growing need for terminals providing access to an increasing number of standards while offering maximum services. The miniaturization of these devices combined with the implementation of additional functions has become a real challenge for the industry. The use of tunable microwave functions (filters, antennas, amplifiers ...) appears as a solution to this issue. In this way, three main technologies are mainly used: variable capacitors, tunable materials and RF MEMS. Within the scope of this thesis work, our investigations focused on tunable microwave devices like filter and antenna. The first part of our study focused on the realization of tunable planar filters in MEMS RF and SOI Technology. We made two tunable bandpass filters. The first one is a center frequency tunable bandpass two using RF MEMS switchers and the second one using tunable capacitor in SOI technology. In a second part, we focused on the realization of tunable Planar Inverted F Antenna PIFA in MEMS RF.  Finally, we discussed follow-up to give to this work and outlooks.
96

Comparaison de novo de données de séquençage issues de très grands échantillons métagénomiques : application sur le projet Tara Oceans / De novo comparision of huge metagenomic experiments coming from NGS technologies : application on Tara Oceans project

Maillet, Nicolas 19 December 2013 (has links)
La métagénomique vise à étudier le contenu génétique et génomique d'un échantillon provenant d'un environnement naturel. Cette discipline récente s'attache à étudier les génomes de différents organismes provenant d'un même milieu. La métagénomique pose de nouvelles questions, tant d'un point de vue biologique qu'informatique. Les masses de données générées par les études métagénomiques et la complexité des milieux étudiés, nécessitent de développer de nouvelles structures de données et de nouveaux algorithmes dédiés. Parmi les différentes approches existantes en métagénomique, la métagénomique comparative consiste à comparer plusieurs métagénomes afin d'en connaître les divers degrés de similarité. Lorsque cette comparaison se base uniquement sur le contenu brut des échantillons, sans faire appel à des connaissances externes, on parle de métagénomique comparative de novo. L'objectif des travaux que nous proposons est de développer une méthode permettant d'extraire les séquences similaires de deux jeux de données métagénomiques, où chaque jeu peut être composé de centaines de millions de courtes séquences. La comparaison proposée consiste à identifier les séquences d'un premier jeu similaires à au moins une séquence d'un second jeu. Afin d'être rapide et économe en mémoire, l'implémentation de notre méthode a nécessité la conception d'une nouvelle structure d'indexation, basée sur le filtre de bloom. Le logiciel final, nommé Compareads, a une consommation mémoire faible (de l'ordre de quelques go) et peut calculer l'intersection de deux échantillons de 100 millions de séquences chacun en une dizaine d'heures. Notre méthode est une heuristique qui génère un faible taux de faux positifs. Le logiciel Compareads est dédié à l'analyse de grands jeux de données métagénomiques. À l'heure actuelle, il est le seul outil capable de comparer de tels jeux. Compareads a été appliqué sur plusieurs projets métagénomiques. Notre outil produit des résultats robustes, biologiquement exploitables et en accord avec diverses méthodes fondamentalement différentes. Il est actuellement utilisé de manière intensive sur les échantillons provenant de l'expédition tara oceans. Sur ce projet, notre méthode à permis de mettre en évidence que les grands systèmes océaniques influent sur la répartition globale des micro-organismes marins. / Metagenomics studies overall genomic information of multiple organisms coming from the same biotope. The information is generally provided by next generation sequencing technologies (NGS). Typical data are samples of short reads (i.e. reads of few hundred base pairs). To study such metagenomics information, we developed an original method for extracting similarities between two samples of reads. More precisely, this approach locates the set of common reads present in two samples. In order to fit with current memory capacities and to be time efficient, we used a modified Bloom filter data structure. Finding the common reads between multiple samples and crossing this information with the location of samples leads to visualize some biological processes like ubiquitous species or effect of water stream caring some species. Finally, the tool can also be used as a filter on metagenomics datas to remove for example only one specie. Our software, Compareads, is actually used on the Tara Oceans project where it shows that global dynamic of oceans seems to play a part on the dispersion of marine microorganisms.
97

Modélisation Espace d'Etats de la Value-at-Risk : La SVaR / State Space modeling of Value-at-Risk : The SVaR

Faye, Diogoye 28 March 2014 (has links)
Le modèle RiskMetrics développé par la Banque JP Morgan suite à l'amendement des accords de Bâle de 1988 a été érigé comme mesure de risque financier pour faire face aux importantes perturbations ayant affecté les marchés bancaires internationaux. Communément appelé Value at Risk, il a été admis par l'ensemble des organes et institutions financiers comme une mesure de risque cohérente. Malgré sa popularité, elle est le sujet de beaucoup de controverses. En effet, les paramètres d'estimation du système RiskMetrics sont supposés fixes au cours du temps ce qui est contraire aux caractéristiques des marchés financiers. Deux raisons valables permettent de justifier cette instabilité temporelle : * la présence d'agents hétérogènes fait qu'on n'analyse plus la VaR en se focalisant sur une seule dimension temporelle mais plutôt sur des fréquences de trading (nous recourons pour cela à la méthode Wavelet). * la structure des séries financières qui d'habitude est affectée par les phénomènes de crash, bulle etc. Ceux-ci peuvent être considérés comme des variables cachées qu'on doit prendre en compte dans l'évaluation du risque. Pour cela, nous recourons à la modélisation espace d'états et au filtre de Kalman. Nous savons d'emblée que les performances de la VaR s'évaluent en recourant au test de backtesting. Celui-ci repose sur la technique de régression roulante qui montre une faille évidente : Nous ne pouvons pas connaitre le processus gouvernant la variation des paramètres, il n'y a pas endogénéisation de la dynamique de ceux-ci. Pour apporter une solution à ce problème, nous proposons une application du filtre de Kalman sur les modèles VaR et WVaR. Ce filtre, par ses fonctions corrige de manière récursive les paramètres dans le temps. En ces termes nous définissons une mesure de risque dit SVaR qui en réalité est la VaR obtenue par une actualisation des paramètres d'estimation. Elle permet une estimation précise de la volatilité qui règne sur le marché financier. Elle donne ainsi la voie à toute institution financière de disposer de suffisamment de fonds propres pour affronter le risque de marché. / The RiskMetrics model developed by the bank JP Morgan following the amendment of Basel accords 1988 was erected as a measure of financial risk to deal with important disturbances affecting international banking markets. Commonly known as Value at Risk, it was accepted by all bodies and financial institutions to be a coherent risk measure. Despite its popularity, it is the subject of many controversies. Indeed, the estimation parameters of RiskMetrics are assumed to be fixed over time, which is contrary to the characteristics of financial markets. Two valid reasons are used to justify temporal instability : *Due to the presence of heterogenous agents the VaR is not analysed by focusing on a single temporal dimension but rather on trading frequencies (we use Wavelet method for it). *The structure of financial time series wich is usually affected by the crash bubble phenomenons and so on. These can be considered as hidden variables that we must take into account in the risk assessment. For this, we use state space modeling and kalman filter. We immediately know that performances of the VaR are evaluated using backtesting test. This is based on the technique of rolling regression wich shows an obvious break : We can not know the processes governing the variation of parameters; there is no endogeneisation dynamics thereof. To provide a solution to this problem, we propose an application of the kalman filter on VaR and WVaR models. This filter recursively corrects by its functions the parameters of time. In these terms we define a risk measure called SVaR wich in realitity is the VaR obtained by updating estimation parameters. It provides an accurate estimate of the volatility existing in the financial market. It thus gives way to any financial institution to have enough capital to face market risk.
98

Safe navigation for vehicles / Navigation sûre pour les véhicules

Spangenberg, Mariana 16 June 2009 (has links)
La navigation par satellite prend un virage très important ces dernières années, d'une part par l'arrivée imminente du système Européen GALILEO qui viendra compléter le GPS Américain, mais aussi et surtout par le succès grand public qu'il connaît aujourd'hui. Ce succès est dû en partie aux avancées technologiques au niveau récepteur, qui, tout en autorisant une miniaturisation de plus en plus avancée, en permettent une utilisation dans des environnements de plus en plus difficiles. L'objectif aujourd'hui est de préparer l'utilisation de ce genre de signal dans une optique bas coût dans un milieu urbain automobile pour des applications critiques d'un point de vue sécurité (ce que ne permet pas les techniques d'hybridation classiques). L'amélioration des technologies (réduction de taille des capteurs type MEMS ou Gyroscope) ne peut, à elle seule, atteindre l'objectif d'obtenir une position dont nous pouvons être sûrs si nous utilisons les algorithmes classiques de localisation et d'hybridation. En effet ces techniques permettent d'avoir une position sans cependant permettre d'en quantifier le niveau de confiance. La faisabilité de ces applications repose d'une part sur une recherche approfondie d'axes d'amélioration des algorithmes de localisation, mais aussi et conjointement, sur la possibilité, via les capteurs externes de maintenir un niveau de confiance élevé et quantifié dans la position même en absence de signal satellitaire. / Satellite navigation has acquired an increased importance during these last years, on the one hand due to the imminent appearance of the European GALILEO system that will complement the American GPS, and on the other hand due to the great success it has encountered in the commercial civil market. An important part of this success is based on the technological development at the receiver level that has rendered satellite navigation possible even in difficult environments. Today's objective is to prepare the utilisation of this kind of signals for land vehicle applications demanding high precision positioning. One of the main challenges within this research domain, which cannot be addressed by classical coupling techniques, is related to the system capability to provide reliable position estimations. The enhancement in dead-reckoning technologies (i.e. size reduction of MEMS-based sensors or gyroscopes) cannot all by itself reach the necessary confidence levels if exploited with classical localization and integration algorithms. Indeed, these techniques provide a position estimation whose reliability or confidence level it is very difficult to quantify. The feasibility of these applications relies not only on an extensive research to enhance the navigation algorithm performances in harsh scenarios, but also and in parallel, on the possibility to maintain, thanks to the presence of additional sensors, a high confidence level on the position estimation even in the absence of satellite navigation signals.
99

Élaboration d’une grille de filtration pour hotte de cuisine inspirée des méta-matériaux ayant un maximum d’isolation acoustique

Bouché, Patrick January 2017 (has links)
Le bruit est une source importante de problème et de désagrément au sein des habitations. Pouvant provenir de nombreux systèmes au sein d’un même habitat, les hottes de cuisine en sont un bon exemple. Les utilisateurs n’hésitant plus maintenant à ne plus s’en servir à leur détriment, le code du bâtiment exige des systèmes de plus en plus silencieux pour contrer cet effet. Né d’un partenariat entre la société VENMAR Ventilation Inc et le Groupe d’Acoustique de l’Université de Sherbrooke, le but de ce projet est de réduire au maximum le transmis hors de la hotte en se focalisant sur la grille de filtration. L’isolation acoustique sera réalisée via l’utilisation des méta-matériaux pour leurs propriétés hors du commun. Pour obtenir un prototype fonctionnel, optimisable et adaptable, des modélisations numériques et analytiques validées par l’expérience ont été mises au point afin de mieux comprendre les mécanismes régissant ce type de matériaux.
100

Détection et poursuite en contexte Track-Before-Detect par filtrage particulaire / Detection and tracking in Track-Before-Detect context with particle filter

Lepoutre, Alexandre 05 October 2016 (has links)
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements. / This thesis deals with the study and the development of mono and multitarget tracking methods in a Track-Before-Detect (TBD) context with particle filters. Contrary to the classic approach that performs before the tracking stage a pre-detection and extraction step, the TBD approach directly works on raw data in order to jointly perform detection and tracking. Several solutions to this problem exist, however this thesis is restricted to the particular Hidden Markov Models considered in the Bayesian framework for which the TBD problem can be solved using particle filter approximations.Initially, we consider existing monotarget particle solutions and we propose several instrumental densities that allow to improve the performance both in detection and in estimation. Then, we propose an alternative approach of the monotarget TBD problem based on the target appearance and disappearance times. This new approach, in particular, allows to gain in terms of computational resources. Secondly, we investigate the calculation of the measurement likelihood in a TBD context -- necessary for the derivation of the particle filters -- that is difficult due to the presence of the target amplitude parameters that are unknown and fluctuate over time. In particular, we extend the work of Rutten et al. for the likelihood calculation to several Swerling models and to the multitarget case. Lastly, we consider the multitarget TBD problem. By taking advantage of the specific structure of the likelihood when targets are far apart from each other, we show that it is possible to develop a particle solution that considers only a particle filter per target. Moreover, we develop a whole multitarget TBD solution able to manage the target appearances and disappearances and also the crossing between targets.

Page generated in 0.0362 seconds