• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 39
  • 13
  • 2
  • Tagged with
  • 157
  • 55
  • 37
  • 24
  • 24
  • 18
  • 17
  • 16
  • 16
  • 15
  • 15
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Object representation in local feature spaces : application to real-time tracking and detection / Représentation d'objets dans des espaces de caractéristiques locales : application à la poursuite de cibles temps-réel et à la détection

Tran, Antoine 25 October 2017 (has links)
La représentation visuelle est un problème fondamental en vision par ordinateur. Le but est de réduire l'information au strict nécessaire pour une tâche désirée. Plusieurs types de représentation existent, comme les caractéristiques de couleur (histogrammes, attributs de couleurs...), de forme (dérivées, points d'intérêt...) ou d'autres, comme les bancs de filtres.Les caractéristiques bas-niveau (locales) sont rapides à calculer. Elles ont un pouvoir de représentation limité, mais leur généricité présente un intérêt pour des systèmes autonomes et multi-tâches, puisque les caractéristiques haut-niveau découlent d'elles.Le but de cette thèse est de construire puis d'étudier l'impact de représentations fondées seulement sur des caractéristiques locales de bas-niveau (couleurs, dérivées spatiales) pour deux tâches : la poursuite d'objets génériques, nécessitant des caractéristiques robustes aux variations d'aspect de l'objet et du contexte au cours du temps; la détection d'objets, où la représentation doit décrire une classe d'objets en tenant compte des variations intra-classe. Plutôt que de construire des descripteurs d'objets globaux dédiés, nous nous appuyons entièrement sur les caractéristiques locales et sur des mécanismes statistiques flexibles visant à estimer leur distribution (histogrammes) et leurs co-occurrences (Transformée de Hough Généralisée). La Transformée de Hough Généralisée (THG), créée pour la détection de formes quelconques, consiste à créer une structure de données représentant un objet, une classe... Cette structure, d'abord indexée par l'orientation du gradient, a été étendue à d'autres caractéristiques. Travaillant sur des caractéristiques locales, nous voulons rester proche de la THG originale.En poursuite d'objets, après avoir présenté nos premiers travaux, combinant la THG avec un filtre particulaire (utilisant un histogramme de couleurs), nous présentons un algorithme plus léger et rapide (100fps), plus précis et robuste. Nous présentons une évaluation qualitative et étudierons l'impact des caractéristiques utilisées (espace de couleur, formulation des dérivées partielles...). En détection, nous avons utilisé l'algorithme de Gall appelé forêts de Hough. Notre but est de réduire l'espace de caractéristiques utilisé par Gall, en supprimant celles de type HOG, pour ne garder que les dérivées partielles et les caractéristiques de couleur. Pour compenser cette réduction, nous avons amélioré deux étapes de l'entraînement : le support des descripteurs locaux (patchs) est partiellement produit selon une mesure géométrique, et l'entraînement des nœuds se fait en générant une carte de probabilité spécifique prenant en compte les patchs utilisés pour cette étape. Avec l'espace de caractéristiques réduit, le détecteur n'est pas plus précis. Avec les mêmes caractéristiques que Gall, sur une même durée d'entraînement, nos travaux ont permis d'avoir des résultats identiques, mais avec une variance plus faible et donc une meilleure répétabilité. / Visual representation is a fundamental problem in computer vision. The aim is to reduce the information to the strict necessary for a query task. Many types of representation exist, like color features (histograms, color attributes...), shape ones (derivatives, keypoints...) or filterbanks.Low-level (and local) features are fast to compute. Their power of representation are limited, but their genericity have an interest for autonomous or multi-task systems, as higher level ones derivate from them. We aim to build, then study impact of low-level and local feature spaces (color and derivatives only) for two tasks: generic object tracking, requiring features robust to object and environment's aspect changes over the time; object detection, for which the representation should describe object class and cope with intra-class variations.Then, rather than using global object descriptors, we use entirely local features and statisticals mecanisms to estimate their distribution (histograms) and their co-occurrences (Generalized Hough Transform).The Generalized Hough Transform (GHT), created for detection of any shape, consists in building a codebook, originally indexed by gradient orientation, then to diverse features, modeling an object, a class. As we work on local features, we aim to remain close to the original GHT.In tracking, after presenting preliminary works combining the GHT with a particle filter (using color histograms), we present a lighter and fast (100 fps) tracker, more accurate and robust.We present a qualitative evaluation and study the impact of used features (color space, spatial derivative formulation).In detection, we used Gall's Hough Forest. We aim to reduce Gall's feature space and discard HOG features, to keep only derivatives and color ones.To compensate the reduction, we enhanced two steps: the support of local descriptors (patches) are partially chosen using a geometrical measure, and node training is done by using a specific probability map based on patches used at this step.With reduced feature space, the detector is less accurate than with Gall's feature space, but for the same training time, our works lead to identical results, but with higher stability and then better repeatability.
112

Traitements SAR multivoies pour la détection de cibles mobiles / Multi-channel SAR processing for moving target indication

Taylor, Abigael 02 December 2016 (has links)
Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP). Le Synthetic Aperture Radar (SAR) aéroporté permet d’obtenir des images hautes résolutions, en compensant un déphasage lié au déplacement de l’avion. Il n’est cependant pas adapté à l’imagerie des cibles mobiles, celles-ci introduisant un déphasage supplémentaire, dépendant de leur vitesse et de leur accélération. En utilisant un système SAR multivoies, il est cependant possible de réaliser des traitements adaptés aux cibles mobiles, dont les principes sont proches du Space-Time Adaptive Processing (STAP). / Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles. Airborne Synthetic Aperture Radar (SAR) provides high-resolution images, by compensating a phase shift linked to the platform movement. However, this processing is not suited for imaging moving target, for they introduce an additional phase shift, depending on their velocity and acceleration. By using a multichannel SAR system, it is possible to correctly process moving targets. Such a processing is closely related to Space-Time Adaptive Processing (STAP) principles.
113

Automatic target recognition using passive bistatic radar signals. / Reconnaissance automatique de cibles par utilisation de signaux de radars passifs bistatiques

Pisane, Jonathan 04 April 2013 (has links)
Dans cette thèse, nous présentons la conception, le développement et le test de trois systèmes de reconnaissance automatique de cibles (ATR) visant à reconnaître des avions non-coopératifs, c’est-à-dire des avions ne fournissant par leur identité, en utilisant des signaux de radars passifs bistatiques. Les radars passifs bistatiques utilisent un ou plusieurs émetteurs d’opportunité (déjà présents sur le terrain), avec des fréquences allant jusqu’à 1 GHz pour les émetteurs considérés ici, et un ou plusieurs récepteurs déployés par le gestionnaire du système et non-colocalisés avec les émetteurs. Les seules informations utilisées sont les signaux réfléchis sur les avions et les signaux directement reçus qui sont tous les deux collectés par le récepteur, quelques informations concernant l’émetteur, et la configuration géométrique du radar bistatique.Les trois systèmes ATR que nous avons construits utilisent respectivement les images radar, les surfaces équivalentes radar (SER) complexes bistatiques et les SER réelles bistatiques. Nous utilisons des données acquises soit sur des modèles d’avions placés en chambre anéchoique à l’ONERA, soit sur des avions réels en utilisant un banc d’essai bistatique consistant en un émetteur VOR et un récepteur basé sur la radio-logicielle (SDR), et que nous avons déployé aux alentours de l’aéroport d’Orly. Nous décrivons d’abord la phénoménologie radar pertinente pour notre problème ainsi que les fondements mathématiques pour la dérivation de la SER bistatique d’un objet, et pour la construction d’images radar d’un objet.Nous utilisons deux méthodes pour la classification de cibles en classes prédéfinies : les arbres extrêmement aléatoires (extra-trees) et les méthodes de sous-espaces. Une caractéristique-clé de notre approche est que nous divisons le problème de reconnaissance global en un ensemble de sous-problèmes par décomposition de l’espace des paramètres (fréquence, polarisation, angle d’aspect et angle bistatique) en régions. Nous construisons un classificateur par région.Nous validons en premier lieu la méthode des extra-trees sur la base de données MSTAR, composée d’images radar de véhicules terrestres. Ensuite, nous testons cette méthode sur des images radar d’avions que nous avons construites à partir des données acquises en chambre anéchoique. Nous obtenons un pourcentage de classification allant jusqu’à 99%. Nous testons ensuite la méthode de sous-espaces sur les SER bistatiques (complexes et réelles) des avions que nous avons extraits des données de chambre anéchoique. Nous obtenons un pourcentage de classification allant jusqu’à 98%, avec des variations suivant la fréquence, la polarisation, l’angle d’aspect, l’angle bistatique et le nombre de paires émetteur-récepteur utilisées. Nous testons enfin la méthode de sous-espaces sur les SER bistatiques (réelles) extraites des signaux acquis par le banc d’essai déployé à Orly. Nous obtenons une probabilité de classification de 82%, avec des variations suivant l’angle d’aspect et l’angle bistatique. On a donc démontré dans cette thèse que l’on peut reconnaitre des cibles aériennes à partir de leur SER acquise en utilisant des signaux de radars passifs bistatiques. / We present the design, development, and test of three novel, distinct automatic target recognition (ATR) systems for the recognition of airplanes and, more specifically, non-cooperative airplanes, i.e. airplanes that do not provide information when interrogated, in the framework of passive bistatic radar systems. Passive bistatic radar systems use one or more illuminators of opportunity (already present in the field), with frequencies up to 1 GHz for the transmitter part of the systems considered here, and one or more receivers, deployed by the persons managing the system, and not co-located with the transmitters. The sole source of information are the signal scattered on the airplane and the direct-path signal that are collected by the receiver, some basic knowledge about the transmitter, and the geometrical bistatic radar configuration. The three distinct ATR systems that we built respectively use the radar images, the bistatic complex radar cross-section (BS-RCS), and the bistatic radar cross-section (BS-RCS) of the targets. We use data acquired either on scale models of airplanes placed in an anechoic, electromagnetic chamber or on real-size airplanes using a bistatic testbed consisting of a VOR transmitter and a software-defined radio (SDR) receiver, located near Orly airport, France. We describe the radar phenomenology pertinent for the problem at hand, as well as the mathematical underpinnings of the derivation of the bistatic RCS values and of the construction of the radar images.For the classification of the observed targets into pre-defined classes, we use either extremely randomized trees or subspace methods. A key feature of our approach is that we break the recognition problem into a set of sub-problems by decomposing the parameter space, which consists of the frequency, the polarization, the aspect angle, and the bistatic angle, into regions. We build one recognizer for each region. We first validate the extra-trees method on the radar images of the MSTAR dataset, featuring ground vehicles. We then test the method on the images of the airplanes constructed from data acquired in the anechoic chamber, achieving a probability of correct recognition up to 0.99.We test the subspace methods on the BS-CRCS and on the BS-RCS of the airplanes extracted from the data acquired in the anechoic chamber, achieving a probability of correct recognition up to 0.98, with variations according to the frequency band, the polarization, the sector of aspect angle, the sector of bistatic angle, and the number of (Tx,Rx) pairs used. The ATR system deployed in the field gives a probability of correct recognition of $0.82$, with variations according to the sector of aspect angle and the sector of bistatic angle.
114

Méthodes conjointes de détection et suivi basé-modèle de cibles distribuées par filtrage non-linéaire dans les données lidar à balayage

Fortin, Benoît 22 November 2013 (has links) (PDF)
Dans les systèmes de perception multicapteurs, un point central concerne le suivi d'objets multiples. Dans mes travaux de thèse, le capteur principal est un télémètre laser à balayage qui perçoit des cibles étendues. Le problème desuivi multi-objets se décompose généralement en plusieurs étapes (détection, association et suivi) réalisées de manière séquentielle ou conjointe. Mes travaux ont permis de proposer des alternatives à ces méthodes en adoptant une approche "track-before-detect" sur cibles distribuées qui permet d'éviter la succession des traitements en proposant un cadre global de résolution de ce problème d'estimation. Dans une première partie, nous proposons une méthode de détection travaillant directement en coordonnées naturelles (polaires) qui exploite les propriétés d'invariance géométrique des objets suivis. Cette solution est ensuite intégrée dans le cadre des approches JPDA et PHD de suivi multicibles résolues grâce aux méthodes de Monte-Carlo séquentielles. La seconde partie du manuscrit vise à s'affranchir du détecteur pour proposer une méthode dans laquelle le modèle d'objet est directement intégré au processus de suivi. C'est sur ce point clé que les avancées ont été les plus significatives permettant d'aboutir à une méthode conjointe de détection et de suivi. Un processus d'agrégation a été développé afin de permettre une formalisation des données qui évite tout prétraitement sous-optimal. Nous avons finalement proposé un formalisme général pour les systèmes multicapteurs (multilidar, centrale inertielle, GPS). D'un point de vue applicatif, ces travaux ont été validés dans le domaine du suivi de véhicules pour les systèmes d'aide à la conduite.
115

REFLECT : logiciel de restitution des réflectances au sol pour l’amélioration de la qualité de l'information extraite des images satellitales à haute résolution spatiale

Bouroubi, Yacine M. 10 1900 (has links)
Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques. / Multi-spectral satellite imagery, especially at high spatial resolution (finer than 30 m on the ground), represents an invaluable source of information for decision making in various domains in connection with natural resources management, environment preservation or urban planning and management. The mapping scales may range from local (finer resolution than 5 m) to regional (resolution coarser than 5m). The images are characterized by objects reflectance in the electromagnetic spectrum witch represents the key information in many applications. However, satellite sensor measurements are also affected by parasite input due to illumination and observation conditions, to the atmosphere, to topography and to sensor properties. Two questions have oriented this research. What is the best approach to retrieve surface reflectance with the measured values while taking into account these parasite factors? Is this retrieval a sine qua non condition for reliable image information extraction for the diverse domains of application for the images (mapping, environmental monitoring, landscape change detection, resources inventory, etc.)? Researches performed in the past 30 years have yielded a series of techniques to correct the parasite factors among which some allow to retrieve ground reflectance. Some questions are still unanswered and others require still more scrutiny to increase precision and to make these methods more versatile by adapting them to larger variety of data acquisition conditions. A few examples may be mentioned: - How to take into account atmospheric characteristics (particularly of aerosols) adapted to local and regional conditions instead of relying on default models indicating long term spatial-temporal trends that are hard to adjust to spatially restricted instantaneous observations; - How to remove noise introduced by surrounding objects. This adjacency effect phenomenon is particularly important for image resolutions smaller than 5m; - What is the effect of the viewing angle of the sensors that are increasingly aiming off-nadir, a choice imposed by the imperatives of a better temporal resolution or the acquisition of stereo pairs? - How to increase the performances of automatic multi-spectral image processing and analysis techniques in mountainous high relief area by taking into account the multiple effects of topography on the remotely sensed signal? Despite many demonstrations by researchers that information extracted from remote sensing may be altered due to the parasite factors, we are forced to note that nowadays radiometric corrections are still seldom applied, unlike geometric corrections for which commercial software possess powerful and versatile user-friendly algorithms. Radiometric correction algorithms, when available, are hard to adapt black boxes and mostly require experts to operate them. The goals we have delineated for this research are as follow: 1) Develop software to retrieve ground reflectance while taking into account the aspects mentioned earlier. This software had to be modular enough to allow improvement and adaptation to diverse remote sensing application problems; and 2) Apply this software in various context (urban, agricultural, forest) and analyse results to evaluate the accuracy gain of extracted information from remote sensing imagery transformed in ground reflectance images to demonstrate the necessity of operating in this way, whatever the type of application. During this research, we have developed a tool to retrieve ground reflectance (the new version of the REFLECT software). This software is based on the formulas (and routines) of the 6S code (Second Simulation of Satellite Signal in the Solar Spectrum) and on the dark targets method to estimated the aerosol optical thickness, representing the most difficult factor to correct. Substantial improvements have been made to the existing models. These improvements essentially concern the aerosols properties (integration of a more recent model, improvement of the dark targets selection to estimate the AOD), the adjacency effect, the adaptation to most used high resolution (Landsat TM and ETM+, all HR SPOT 1 to 5, EO-1 ALI and ASTER) and very high resolution (QuickBird et Ikonos) sensors and the correction of topographic effects with a model that separate direct and diffuse solar radiation components and the adaptation of this model to forest canopy. Validation has shown that ground reflectance estimation with REFLECT is performed with an accuracy of approximately ±0.01 in reflectance units (for in the visible, near-infrared and middle-infrared spectral bands) even for a surface with varying topography. This software has allowed demonstrating, through apparent reflectance simulations, how much parasite factors influencing numerical values of the images may alter the ground reflectance (errors ranging from 10 to 50%). REFLECT has also been used to examine the usefulness of ground reflectance instead of raw data for various common remote sensing applications in domains such as classification, change detection, agriculture and forestry. In most applications (multi-temporal change monitoring, use of vegetation indices, biophysical parameters estimation, etc.) image correction is a crucial step to obtain reliable results. From the computer environment standpoint, REFLECT is organized as a series of menus, corresponding to different steps of: input parameters introducing, gas transmittances calculation, AOD estimation, and finally image correction application, with the possibility of using the fast option witch process an image of 5000 by 5000 pixels in approximately 15 minutes. This research opens many possible pathways for improving methods and models in the realm of radiometric corrections of remotely sensed images. In particular, these include BRDF integration in the formulation, cirrus clouds correction using non selective scattering modelling and improving of the equivalent slopes topographic correction method.
116

Les radios communautaires au Cameroun / Community radios in Cameroon

Nono Njepang, Luidor 17 October 2012 (has links)
L’ouverture du secteur audiovisuel camerounais a consacré l’avancée du processus d’acquisition et de l’octroi des libertés individuelles commencé autour des années 1990. Le décret d’application d’avril 2003 a entériné une dizaine d’années plus tard, le dispositif enclenché par la loi n°90-052 du 19 décembre 1990 relative à la liberté de communication sociale. Depuis lors, organes de presse et audiovisuels se côtoient et se heurtent à des pesanteurs susceptibles de limiter leur efficacité, en tant qu’outils et moyens de communication de proximité. Leur jeunesse, les problèmes endogènes et exogènes au paysage médiatique camerounais justifierait une étude sur l’existence et la manière dont les organes de communication sociale produisent et diffusent informations et nouvelles en direction des populations ciblées. A ce sujet, la radio communautaire, tout en cherchant à les impliquer et à les faire participer à cet objectif de communication sociale, promeut par ses programmes, la propre image des populations à laquelle elle est destinée. Il ne reste qu’à garantir les modalités pratiques, les conditions nécessaires pour une participation transparente des différents acteurs à la gestion et au fonctionnement de la radio. Pour une grande part, les populations sont prêtes à soutenir les projets de radios communautaires qui s’installent dans les localités. Les différentes techniques d’appropriation et d’usage des médias permettent d’appréhender de l’extérieur les différents enjeux qui se tissent. Elles permettent d’observer les pratiques mises en place et les conditions d’engagement des acteurs sociaux pour garantir, une longue vie à la radio. / The opening of the Cameroonian audiovisual sector dedicated the overhang of the process of acquisition and the granting of the personal freedoms begun around 1990s. The application decree of April, 2003 confirmed a decade later, the plan engaged by the law 90/052 of December 19th, 1990 relative to the freedom of social communication. Since then, newspapers and broadcasting mix and come up against gravities susceptible to limit their efficiency, as tools and means of communication of nearness. Their youth, the endogenous and exogenous problems in the Cameroonian media landscape justify a study on the existence and the way the organs of social communication produce and broadcast information and news in the direction of the targeted populations. For this subject, the community radio, while trying to imply them and to make them participate in this objective of social communication, promotes by its programs, the own image of the populations for which is intended. It remains only to guarantee the practical methods, the necessary conditions for a transparent participation of the various actors in the management and in the functioning of the radio. Mostly, the populations are ready of supporting the projects of community radios which settle down in villages. The various techniques of appropriation and uses of the media allow dreading from the outside the various stakes which weave. They allow observing the organized practices and the conditions of commitment of the civil society to guarantee, a long life on the radio.
117

Conservation des habitats marins soumis à des usages multiples : méthodes, objectifs et contraintes pour l'optimisation d'un réseau d'Aires Marines Protégées en Manche Orientale / Conservation of marine habitats under multiple human uses : Methods, objectives and constraints to optimize a Marine Protected Areas network in the Eastern English Channel

Delavenne, Juliette 30 November 2012 (has links)
La Manche orientale représente une zone économique importante qui supporte diverses activités anthropiques comme le tourisme, le transport maritime et l’exploitation de ressources vivantes ou minérales. De plus, cette région possède un riche patrimoine biologique illustré par sa grande diversité d’habitats. Les Aires Marines Protégées (AMP) sont souvent évoquées comme un instrument de gestion permettant d’aménager l’exploitation durable de ces ressources marines, dans le cadre d’une gestion écosystémique intégrée et responsable. Si les Etats ont pour obligation de créer des réseaux d’AMPs dans leurs eaux nationales, chacune d’elles est souvent localisée au cas par cas. Afin de coordonner la mise en place des différents réseaux d’AMPs, une démarche de planification spatiale systématique de la conservation est de plus en plus encouragée. Cette démarche a pour but de proposer un réseau d’AMP qui soit cohérent, même dans un contexte transfrontalier, comme c’est le cas en Manche orientale. Les travaux de recherche menés lors de cette thèse apportent ainsi une contribution scientifique à la mise en cohérence de l’aménagement des activités anthropiques avec les objectifs de conservation de l’écosystème marin de Manche orientale. Dans le cadre d’une approche de conservation intégrée, toute la biodiversité de la Manche orientale doit être représentée. Pour cela, en complément des typologies benthiques existantes dans la zone, une typologie des masses d’eau a été proposée et validée avec différents jeux de données d’espèces pélagiques. Marxan et Zonation, deux logiciels largement répandus en planification de la conservation ont été comparés dans le processus de conception du réseau d’AMP en Manche orientale. La conclusion a été que Marxan serait le logiciel utilisé pour la suite des analyses. En effet, ce logiciel est conçu pour atteindre clairement les cibles de conservation, ce qui facilite l’interprétation des résultats.Puis une étape essentielle de planification de la conservation a été réalisée à travers une analyse des lacunes (gap analysis) à l’échelle de la Manche orientale. Elle a permis de montrer que le réseau d’AMP existant atteint les cibles de conservation calculées dans cette thèse et qu’il couvre 33% de la Manche orientale. Il faut toutefois noter que l’étude des possibles lacunes au niveau de la gestion des AMPs n’a pu être réalisée de façon approfondie car la majorité de ces AMPS ne possèdent pas encore de plan de gestion défini.Finalement, l’influence de l’intégration des activités humaines dans le processus de conception du réseau d’AMP a été explorée grâce à l’utilisation de données d’effort de pêche et de données de débarquements. De plus, d’autres informations sur le trafic maritime, les extractions de granulats marins et les potentielles zones d’éoliennes en mer ont été ajoutées pour prendre en compte la totalité des usages et réglementation qui génèrent des contraintes spatiales en Manche orientale. / The eastern English Channel is a significant economic area that supports a number of human-based activities, such as tourism and recreational activities, international ports and shipping, and the extraction of both living and mineral resources. In addition, the region supports a number of important marine biological features and large habitat diversity. Marine Protected Areas (MPAs) are increasingly used as a management tool to foster a sustainable exploitation of marine resources in an ecosystem based management framework. All European countries have a legal obligation to develop MPA networks in their national waters. However, there has to date been only limited attempts to coordinate the design and positioning of such networks at an international level and the use of a systematic conservation planning approach is now recommended. This process aims to propose a coherent MPA network, even in a trans-boundary context as in the eastern English Channel (EEC). The studies conducted in this thesis contribute to the scientific knowledge needed to support both anthropogenic activities and conservation objectives in the eastern English Channel.The representation of the whole biodiversity of the eastern English Channel is important in a context of an integrated conservation approach. With this objective, to complete the existing benthic typologies, a pelagic typology was produced and validated with various pelagic species distribution data to ensure that the total biodiversity of the eastern English Channel would be considered.Marxan and Zonation, two widely used conservation planning software packages that provide decision support for the design of reserve systems were compared in the MPA network design process in the EEC. It was found that Marxan was most suitable for subsequent analyses in this thesis because it found reasonably efficient and clear solutions to the problem of selecting a system of spatially cohesive sites that met a suite of biodiversity targets, and the results were easily interpretable.Then, as it is an essential step in a conservation planning approach, a gap analysis was realized at the scale of the EEC. The currently proposed network met conservation targets proposed in this thesis and was found to cover 33% of the EEC. However, a correct assessment of management gaps was not possible as a major part of these MPA do not have management rules yet.Finally, the influence of the human activity data on the MPA design process was studied using landings and fishing effort data. Other information on maritime traffic, aggregate extraction or offshore windmills zones, and on-going MPA projects were also added to consider the whole set of uses and regulations that generate spatial constraints in the eastern English Channel.
118

Optimisation of the weapon target assignment problem foir naval and ground command and control systems / Optimisation du problème d'allocation d'armes à des cibles pour les systèmes de commandes et contrôles terrestres et navals

Leboucher, Cédric 21 October 2014 (has links)
Ces travaux de recherche abordent un problème de défense anti-aérien, usuellement appelé problème d'allocation d'armes à des cibles dans la littérature. L'allocation d'armes à des cibles est un problème bien connu de la recherche opérationnelle militaire qui a rencontré un franc succès parmi la communauté des chercheurs, et qui aujourd'hui encore suscite un large engouement puisque sa propriété démontrée NP-difficile en fait un problème qui reste irrésolu. Que ce soit par des méthodes analytiques ou meta-heuristiques, le problème d'allocation d'armes à des cibles a fait l'objet de nombreuses propositions de résolution. Cependant, il est assez surprenant de voir que la modélisation proposée pour ce problème n'a guère évolué depuis qu'il est apparu pour la première fois dans la littérature en 1950. Cette modélisation peut être considérée comme obsolète aujourd'hui et ne répond plus aux exigences qui accompagnent les technologies modernes. En effet, en 60 ans le champ de bataille a complètement changé, et dans la littérature seulement un nombre limité d'études proposent de prendre en compte ces évolutions. L'étude menée dans cette thèse propose de s'intéresser aux systèmes de Commandes et Contrôles (C2) pour des applications anti-aériennes. Habituellement un système C2 est composé de senseurs, d'un centre d'opérations tactiques et d'un ou plusieurs lanceurs. Les senseurs alimentent le centre d'opérations tactiques à partir des informations qu'ils recueillent, puis, une fois ces informations reçues, le centre d'opérations tactiques va interpréter ces données afin de calculer l'atteignabilité des menaces. Enfin, un plan d'engagement qui comprend l'allocation des munitions disponibles aux cibles et une date de tir sont proposés à un opérateur humain qui aura pour mission de valider cette proposition en totalité ou partiellement, puis va procéder à l'engagement des menaces. Pour remplir cet objectif, une approche innovante et faisant l'objet d'un dépôt de brevet a été développée afin de répondre aux difficultés relatives aux problèmes d'optimisation multi-objectifs. Ensuite, un algorithme d'optimisation continue basé sur la combinaison de l'optimisation par essaim particulaires avec la théorie des jeux évolutionnaires est proposé pour optimiser les dates de tirs. L'allocation optimale, elle, est obtenue en adaptant cette méthode continue au cas discret. La preuve que l'algorithme développé est localement convergent est donnée dans cette thèse. D'autre part, l'aspect temps-réel a également fait l'objet d'une recherche attentive et l'algorithme précédemment cité a été hybridé avec les réseaux de neurones afin d'accélérer le temps de calcul des composants identifiés comme "lourds" en termes de charge de calcul. Enfin, cette étude ne se limite pas à une application de recherche opérationnelle militaire, mais inclut quelques concepts élémentaires de guidage et de navigation pour le calcul d'atteignabilité des menaces. Finalement, cette thèse permet d'identifier que les points suivants doivent faire l'objet d'une attention très particulière afin de développer un outil d'aide à la décision efficace. D'abord, la métrique d'évaluation d'un bon plan d'engagement doit être clairement analysée. Ensuite, le plan d'engagement proposé doit être stable et ne pas proposer de changements soudains qui pourraient perturber l'opérateur. Le troisième point concerne la robustesse de la solution proposée et sa capacité à faire face aux situations les plus compliquées. Quatrièmement, le temps et la charge de calcul sont des contraintes techniques qui ne peuvent pas être outrepassées. Finalement, les exigences posées lors de la préparation de mission et qui dépendent du contexte doivent faire l'objet d'une attention particulière. C'est pourquoi, l'outil d'aide à la décision proposé doit permettre un allègement significatif de la charge de travail de l'opérateur ainsi que la réduction considérable du stress lié à ce contexte / This research investigates a practical air defence problem, usually named Weapon Target Assignment (WTA) in the literature. The WTA problem is a well-known problem of military operation research that encountered a wide success in the research community, but still nowadays since it remains an unsolved problem because of its NP-hardness property. From analytical to heuristic methods, the WTA was deeply investigated and many attempts to solve this problem have been proposed. However, the proposed modelling of this problem is consistent with the 1950's technologies. Thus, the proposed modelling found in the literature can be considered as obsolete and cannot fit the requirement of the current technology advances. Indeed, the battle field dramatically changes over 60 years, and the recent literature proposes only few studies taking into account these amendments. The herein study proposes to investigate a Command & Control system (C2) in air defence applications. Usually a C2 system includes sensors, a Tactical Operation Centre (TOC) and one or more launchers. The sensors provide information about aerial tactical situation to the TOC. This TOC is in charge of evaluating the received information in order to compute the attainability of the targets, then an engagement plan that includes the assignment of the available weapons to the incoming targets and a date to fire for each assignment. This engagement plan is then proposed to one human operator in charge of accepting whole or part of this engagement plan and engage the targets following the received instructions. To achieve this goal, an innovative and patented approach to mitigate the issues related to multi-objective optimisation is proposed. Then, a continuous optimisation algorithm based on the combination of the Particle Swarm Optimisation and the Evolutionary Game Theory was proposed to determine the best dates to fire. The optimal assignment was obtained by adapting the aforementioned algorithm to the discrete case. This thesis also gives the proof that the designed algorithms are locally convergent and intensive benchmarking confirms the developed theory. In order to respect the real-time requirement, it was also devised to use the Neural Networks to lighten the identified burdensome parts of the algorithm and decrease computational time. Not limited to the military operation research field, the herein study reuse some basic concepts of missile guidance and navigation to compute the attainability of the targets. From this thesis, it can be identified that following aspects need to be carefully considered to provide an efficient decision making support to a human operator: First, clearly define what a good engagement plan is. Second, the engagement plan must be steady to avoid high rate changing in the assignments that could significantly disturb the operator. Third, the proposed engagement also must be reliable and robust to face any possible situations. Fourth, the computation time and computation load are technical constraints that cannot be overstepped. Finally, the operational constraints related to the mission context defined during a pre-mission stage must also be taken into account. Therefore, the proposed decision making support must help and significantly reduce the operator's work load in this situation of high stress and sensitive context
119

Imagerie multispectrale, vers une conception adaptée à la détection de cibles / Multispectral imaging, a target detection oriented design

Minet, Jean 01 December 2011 (has links)
L’imagerie hyperspectrale, qui consiste à acquérir l'image d'une scène dans un grand nombre de bandes spectrales, permet de détecter des cibles là où l'imagerie couleur classique ne permettrait pas de conclure. Les imageurs hyperspectraux à acquisition séquentielle sont inadaptés aux applications de détection en temps réel. Dans cette thèse, nous proposons d’utiliser un imageur multispectral snapshot, capable d’acquérir simultanément un nombre réduit de bandes spectrales sur un unique détecteur matriciel. Le capteur offrant un nombre de pixels limité, il est nécessaire de réaliser un compromis en choisissant soigneusement le nombre et les profils spectraux des filtres de l'imageur afin d’optimiser la performance de détection. Dans cet objectif, nous avons développé une méthode de sélection de bandes qui peut être utilisée dans la conception d’imageurs multispectraux basés sur une matrice de filtres fixes ou accordables. Nous montrons, à partir d'images hyperspectrales issues de différentes campagnes de mesure, que la sélection des bandes spectrales à acquérir peut conduire à des imageurs multispectraux capables de détecter des cibles ou des anomalies avec une efficacité de détection proche de celle obtenue avec une résolution hyperspectrale. Nous développons conjointement un démonstrateur constitué d'une matrice de 4 filtres de Fabry-Perot accordables électroniquement en vue de son implantation sur un imageur multispectral snapshot agile. Ces filtres sont développés en technologie MOEMS (microsystèmes opto-électro-mécaniques) en partenariat avec l'Institut d'Electronique Fondamentale. Nous présentons le dimensionnement optique du dispositif ainsi qu'une étude de tolérancement qui a permis de valider sa faisabilité. / Hyperspectral imaging, which consists in acquiring the image of a scene in a large number of spectral bands, can be used to detect targets that are not visible using conventional color imaging. Hyperspectral imagers based on sequential acquisition are unsuitable for real-time detection applications. In this thesis, we propose to use a snapshot multispectral imager able to acquire simultaneously a small number of spectral bands on a single image sensor. As the sensor offers a limited number of pixels, it is necessary to achieve a trade-off by carefully choosing the number and the spectral profiles of the imager’s filters in order to optimize the detection performance. For this purpose, we developed a band selection method that can be used to design multispectral imagers based on arrays of fixed or tunable filters. We use real hyperspectral images to show that the selection of spectral bands can lead to multispectral imagers able to compete against hyperspectral imagers for target detection and anomaly detection applications while allowing snapshot acquisition and real-time detection. We jointly develop an adaptive snapshot multispectral imager based on an array of 4 electronically tunable Fabry-Perot filters. The filters are developed in MOEMS technology (Micro-Opto-Electro-Mechanical Systems) in partnership with the Institut d'Electronique Fondamentale. We present the optical design of the device and a study of tolerancing which has validated its feasibility.
120

Paramètres minéralogiques et microtexturaux utilisables dans les études de traçabilité des minerais métalliques / Mineralogical and microtextural parameters used in metal ores traceability studies

Machault, Julie 07 November 2012 (has links)
Que ce soit à des fins spéculatives ou pour financer des conflits armés, une grande opacité entoure les filières des concentrés de matières premières minérales dont la demande ne cesse d'augmenter. Compte-tenu de l'éloignement entre les sites primaires d'extraction et les sites de production de produits finis, il est difficile d'identifier l'origine de ces produits. Dans un souci de traçabilité des concentrés, l'établissement d'une carte d'identité du minerai permettrait le contrôle des échanges dans l'industrie minérale. Le problème peut être posé en termes d'inversion: remonter au minerai d'origine en étudiant le produit vendu. Deux stades doivent être distingués: 1) la caractérisation du minerai brut et 2) la « perte de mémoire » des caractéristiques du tout-venant au cours du traitement minéralurgique. Les paramètres retenus sont la composition minéralogique, l'identification de microfaciès caractéristiques des minéraux cibles, la pseudo-succession paragénétique, le contenu et la distribution en éléments mineurs de minéraux cibles. Les minéraux cibles retenus sont la pyrite pour son ubiquité, la sphalérite car elle est susceptible d'incorporer une grande variété d'éléments mineurs, éventuellement valorisants ainsi que la chalcopyrite car elle est souvent liée aux deux autres minéraux. La comparaison de la composition chimique des phases minérales est effectuée en calculant la distance de Kolmogorov-Smirnov et de Colin-White. Des tests ont été réalisés sur les gîtes de type amas sulfuré volcanogène. Ils ont montré que les caractéristiques retenues permettaient de distinguer les pyrites, les sphalérites et les chalcopyrites de deux gisements de la province Sud-Ibérique (IPB), de sept gisements de la province d’Oural et du fumeur noir actuel de Rainbow. Les cartes d’identité obtenues permettent de discriminer les différents sites (IPB, Oural et Rainbow) et les gisements d’une même province. Les paramètres minéralogiques et microtexturaux ont également été suivis au cours du traitement minéralurgique de la mine de Neves Corvo. Pour une chaîne de traitement donnée, le paramètre « perte de mémoire » est une estimation de l'erreur commise lors de l'inversion, mais aussi une façon de caractériser une succession d'opérations minéralurgiques. / The demand in mineral resources is increasing rapidly, but there is a lack of transparency in the trade of concentrated raw mineral materials because of speculation and involvement in the financing of armed conflicts. Because of the distance between the primary extraction and the final production sites it is difficult to check the origin of such products. An identity card is required for minerals which would permit trading in the mineral industry to be verified and ensure traceability of concentrates. This problem may be considered as an inversion process: studying the products sold to identify the original ore. Two steps may be distinguished: 1) the characterization of the raw ore and 2) the “memory loss” of the crude ore characteristics during its mineral processing. The discriminant parameters are mineralogical composition, identification of textural microfacies of the target minerals, pseudo-paragenetic sequence, and the contents and distribution of minor elements of target minerals. The selected target minerals are pyrite, for its ubiquity, sphalerite for its ability to host numerous discriminant and potentially valuable minor elements in its lattice and chalcopyrite for its proximity with the two others minerals. The Kolmogorov-Smirnov distance and the Colin-White test are used to compare the chemical composition of the three target minerals. The application to Volcanic Massive Sulfide ore deposit showed that the selected characteristics permit to distinguish pyrite, sphalerite and chalcopyrite between two ore deposits in the Iberian Pyrite Belt province, seven ore deposits from the Urals province and a currently active Rainbow blacksmoker. From the established identity cards ore deposits from different provinces may be discriminated. Identity cards can also distinguish different deposits in the same province. Evolution of mineralogical and microtextural parameters was studied during the mineral processing of the Neves Corvo mine. For a given processing chain, the “memory loss” parameter is an estimate of the errors introduced in the inversion from concentrate to the original ore and can be used to characterize a given processing flow.

Page generated in 0.0303 seconds