• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Multi-Object modelling of the face / Modélisation Multi-Objet du visage

Salam, Hanan 20 December 2013 (has links)
Cette thèse traite la problématique liée à la modélisation du visage dans le but de l’analyse faciale.Dans la première partie de cette thèse, nous avons proposé le Modèle Actif d’Apparence Multi-Objet. La spécificité du modèle proposé est que les différentes parties du visage sont traités comme des objets distincts et les mouvements oculaires (du regard et clignotement) sont extrinsèquement paramétrées.La deuxième partie de la thèse porte sur l'utilisation de la modélisation de visage dans le contexte de la reconnaissance des émotions.Premièrement, nous avons proposé un système de reconnaissance des expressions faciales sous la forme d’Action Units. Notre contribution porte principalement sur l'extraction des descripteurs de visage. Pour cela nous avons utilisé les modèles AAM locaux.Le second système concerne la reconnaissance multimodale des quatre dimensions affectives :. Nous avons proposé un système qui fusionne des caractéristiques audio, contextuelles et visuelles pour donner en sortie les quatre dimensions émotionnelles. Nous contribuons à ce système en trouvant une localisation précise des traits du visage. En conséquence, nous proposons l’AAM Multi-Modèle. Ce modèle combine un modèle global extrinsèque du visage et un modèle local de la bouche. / The work in this thesis deals with the problematic of face modeling for the purpose of facial analysis.In the first part of this thesis, we proposed the Multi-Object Facial Actions Active Appearance Model (AAM). The specificity of the proposed model is that different parts of the face are treated as separate objects and eye movements (gaze and blink) are extrinsically parameterized. This increases the generalization capabilities of classical AAM.The second part of the thesis concerns the use of face modeling in the context of expression and emotion recognition. First we have proposed a system for the recognition of facial expressions in the form of Action Units (AU). Our contribution concerned mainly the extraction of AAM features of which we have opted for the use of local models.The second system concerns multi-modal recognition of four continuously valued affective dimensions. We have proposed a system that fuses audio, context and visual features and gives as output the four emotional dimensions. We contribute to the system by finding the precise localization of the facial features. Accordingly, we propose the Multi-Local AAM. This model combines extrinsically a global model of the face and a local one of the mouth through the computation of projection errors on the same global AAM.
132

Détection de points d'intérêts dans une image multi ou hyperspectral par acquisition compressée / Feature detection in a multispectral image by compressed sensing

Rousseau, Sylvain 02 July 2013 (has links)
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyende contourner cette difficulté est de pratiquer une acquisition compressée de l'objet multi- ethyper-spectral. Les données sont alors directement compressées et l'objet est reconstruitlorsqu'on en a besoin. L'étape suivante consiste à éviter cette reconstruction et à travaillerdirectement avec les données compressées pour réaliser un traitement classique sur un objetde cette nature. Après avoir introduit une première approche qui utilise des outils riemannienspour effectuer une détection de contours dans une image multispectrale, nous présentonsles principes de l'acquisition compressée et différents algorithmes utilisés pour résoudre lesproblèmes qu'elle pose. Ensuite, nous consacrons un chapitre entier à l'étude détaillée de l'und'entre eux, les algorithmes de type Bregman qui, par leur flexibilité et leur efficacité vontnous permettre de résoudre les minimisations rencontrées plus tard. On s'intéresse ensuiteà la détection de signatures dans une image multispectrale et plus particulièrement à unalgorithme original du Guo et Osher reposant sur une minimisation L1. Cet algorithme estgénéralisé dans le cadre de l'acquisition compressée. Une seconde généralisation va permettrede réaliser de la détection de motifs dans une image multispectrale. Et enfin, nous introduironsde nouvelles matrices de mesures qui simplifie énormément les calculs tout en gardant debonnes qualités de mesures. / Multi- and hyper-spectral sensors generate a huge stream of data. A way around thisproblem is to use a compressive acquisition of the multi- and hyper-spectral object. Theobject is then reconstructed when needed. The next step is to avoid this reconstruction and towork directly with compressed data to achieve a conventional treatment on an object of thisnature. After introducing a first approach using Riemannian tools to perform edge detectionin multispectral image, we present the principles of the compressive sensing and algorithmsused to solve its problems. Then we devote an entire chapter to the detailed study of one ofthem, Bregman type algorithms which by their flexibility and efficiency will allow us to solvethe minimization encountered later. We then focuses on the detection of signatures in amultispectral image relying on an original algorithm of Guo and Osher based on minimizingL1. This algorithm is generalized in connection with the acquisition compressed. A secondgeneralization will help us to achieve the pattern detection in a multispectral image. Andfinally, we introduce new matrices of measures that greatly simplifies calculations whilemaintaining a good quality of measurements.
133

Analyse automatique de la circulation automobile par vidéosurveillance routière / Automatic traffic analysis in video sequences

Intawong, Kannikar 27 September 2017 (has links)
Cette thèse s’inscrit dans le contexte de l’analyse vidéo du trafic routier. Dans certaines grandes villes, des centaines de caméras produisent de très grandes quantités de données, impossible à manipuler sans traitement automatique. Notre principal objectif est d'aider les opérateurs humains en analysant automatiquement les données vidéo. Pour aider les contrôleurs de la circulation à prendre leurs décisions, il est important de connaître en temps réel, l'état du trafic (nombre de véhicules et vitesse des véhicules sur chaque segment de voie), mais aussi de disposer de statistiques temporelles tout au long de la journée, de la semaine, de la saison ou de l'année. Les caméras ont été déployées depuis longtemps pour le trafic et pour d'autres fins de surveillance, car elles fournissent une source d'information riche pour la compréhension humaine. L'analyse vidéo peut désormais apporter une valeur ajoutée aux caméras en extrayant automatiquement des informations pertinentes. De cette façon, la vision par ordinateur et l'analyse vidéo deviennent de plus en plus importantes pour les systèmes de transport intelligents (intelligent transport systems : ITSs). L’une des problématiques abordées dans cette thèse est liée au comptage automatique de véhicules. Pour être utile, un système de surveillance vidéo doit être entièrement automatique et capable de fournir, en temps réel, l'information qui concerne le comportement de l'objet dans la scène. Nous pouvons obtenir ces renseignements sur la détection et le suivi des objets en mouvement dans les vidéos, ce qui a été un domaine largement étudié. Néanmoins, la plupart des systèmes d'analyse automatique par vidéo ont des difficultés à gérer les situations particulières. Aujourd'hui, il existe de nombreux défis à résoudre tels que les occultations entre les différents objets, les arrêts longs, les changements de luminosité, etc… qui conduisent à des trajectoires incomplètes. Dans la chaîne de traitements que nous proposons, nous nous sommes concentrés sur l'extraction automatique de statistiques globales dans les scènes de vidéosurveillance routière. Notre chaîne de traitements est constituée par les étapes suivantes : premièrement, nous avons évalué différentes techniques de segmentation de vidéos et de détection d'objets en mouvement. Nous avons choisi une méthode de segmentation basée sur une version paramétrique du mélange de gaussiennes appliquée sur une hiérarchie de blocs, méthode qui est considérée actuellement comme l'un des meilleurs procédés pour la détection d'objets en mouvement. Nous avons proposé une nouvelle méthodologie pour choisir les valeurs optimales des paramètres d’un algorithme permettant d’améliorer la segmentation d’objets en utilisant des opérations morphologiques. Nous nous sommes intéressés aux différents critères permettant d’évaluer la qualité d’une segmentation, résultant d’un compromis entre une bonne détection des objets en mouvement, et un faible nombre de fausses détections, par exemple causées par des changements d’illumination, des reflets ou des bruits d’acquisition. Deuxièmement, nous effectuons une classification des objets, basée sur les descripteurs de Fourier, et nous utilisons ces descripteurs pour éliminer les objets de type piétons ou autres et ne conserver que les véhicules. Troisièmement, nous utilisons un modèle de mouvement et un descripteur basé sur les couleurs dominantes pour effectuer le suivi des objets extraits. En raison des difficultés mentionnées ci-dessus, nous obtenons des trajectoires incomplètes, qui donneraient une information de comptage erronée si elles étaient exploitées directement. Nous proposons donc d’agréger les données partielles des trajectoires incomplètes et de construire une information globale sur la circulation des véhicules dans la scène. Notre approche permet la détection des points d’entrée et de sortie dans les séquences d’images. Nous avons testé nos algorithmes sur des données privées provenant... / This thesis is written in the context of video traffic analysis. In several big cities, hundreds of cameras produce very large amounts of data, impossible to handle without automatic processing. Our main goal is to help human operators by automatically analyzing video data. To help traffic controllers make decisions, it is important to know the traffic status in real time (number of vehicles and vehicle speed on each path), but also to dispose of traffic statistics along the day, week, season or year. The cameras have been deployed for a long time for traffic and other monitoring purposes, because they provide a rich source of information for human comprehension. Video analysis can automatically extract relevant information. Computer vision and video analysis are becoming more and more important for Intelligent Transport Systems (ITSs). One of the issues addressed in this thesis is related to automatic vehicle counting. In order to be useful, a video surveillance system must be fully automatic and capable of providing, in real time, information concerning the behavior of the objects in the scene. We can get this information by detection and tracking of moving objects in videos, a widely studied field. However, most automated video analysis systems do not easily manage particular situations.Today, there are many challenges to be solved, such as occlusions between different objects, long stops of an object in the scene, luminosity changes, etc., leading to incomplete trajectories of moving objects detected in the scene. We have concentrated our work on the automatic extraction of global statistics in the scenes. Our workflow consists of the following steps: first, we evaluated different methods of video segmentation and detection of moving objects. We have chosen a segmentation method based on a parametric version of the Mixture of Gaussians, applied to a hierarchy of blocks, which is currently considered one of the best methods for the detection of moving objects. We proposed a new methodology to choose the optimal parameter values of an algorithm to improve object segmentation by using morphological operations. We were interested in the different criteria for evaluating the segmentation quality, resulting from a compromise between a good detection of moving objects, and a low number of false detections, for example caused by illumination changes, reflections or acquisition noises. Secondly, we performed an objects classification, based on Fourier descriptors, and we use these descriptors to eliminate pedestrian or other objects and retain only vehicles. Third, we use a motion model and a descriptor based on the dominant colors to track the extracted objects. Because of the difficulties mentioned above, we obtain incomplete trajectories, which, exploited as they are, give incorrect counting information. We therefore proposed to aggregate the partial data of the incomplete trajectories and to construct a global information on the vehicles circulation in the scene. Our approach allows to detect input and output points in image sequences. We tested our algorithms on private data from the traffic control center in Chiang Mai City, Thailand, as well as on MIT public video data. On this last dataset, we compared the performance of our algorithms with previously published articles using the same data. In several situations, we illustrate the improvements made by our method in terms of location of input / output zones, and in terms of vehicle counting.
134

Étude et réalisation d’un lidar Raman pour la détection d’hydrogène et de vapeur d’eau dans une alvéole de stockage de colis radioactifs / Study and realization of a Raman Lidar for hydrogen gas and water vapor detection in a storage cell of radioactive packages

Limery, Anasthase 27 March 2018 (has links)
Le projet Cigéo, mené par l’ANDRA, vise à permettre à l’horizon 2030 le stockage géologique des déchets les plus radioactifs du parc nucléaire français. Ces déchets, qui seraient placés dans des alvéoles souterraines de plusieurs centaines de mètres, sont susceptibles de relâcher de l’hydrogène gazeux (H2), un gaz inflammable dans l’air lorsque sa concentration dépasse 4%. Pour la sécurité des installations, il est indispensable de s’assurer que la concentration de H2 dans les alvéoles de stockage reste inférieure à sa limite de dangerosité. L’objectif de cette thèse, menée à l’ONERA, est de concevoir et réaliser un Lidar permettant de profiler à distance la concentration de H2 (0-4%), sur plusieurs centaines de mètres, avec une forte résolution spatiale (< 3 m), et de proposer ainsi un moyen non intrusif de détection et de prévention du risque lié à l’hydrogène. Le principe retenu est celui d’un Lidar Raman vibrationnel dans le domaine ultra-violet (355 – 420 nm). Pour sa conception, nous avons pris en compte les conditions particulières prévues dans les alvéoles de stockage. Une chaine de détection très sensible à comptage de photons a été choisie et mise en oeuvre, basée sur des détecteurs SiPM (Silicium Photomultiplier). La nécessité d’employer une voie de mesure de la vapeur d’eau, simultanément à l’hydrogène, a été mise en évidence et est liée au recouvrement partiel des spectres de diffusion Raman de H2 et H2O. Un analyseur spectral à trois voies de mesure (H2, H2O, et N2 utilisé comme référence) a été conçu et mis en place. Une méthode de traitement de signal en temps réel a enfin été réalisée pour visualiser les profils de concentrations de H2 et H2O. L’ensemble du système lidar a pu être testé dans une scène de portée réduite (100 m) permettant des relâchements d’hydrogène. Des mesures simultanées de profils de vapeur d’eau naturelle et de dihydrogène (0-2%) ont pu être démontrées avec succès à 85 m, avec une résolution spatiale et temporelle de 1 mètre et 1 minute respectivement, pour une détectivité de 600 ppm. / The CIGEO project, led by the ANDRA agency, aims at enabling future deep geological disposal of french nuclear waste packages. Those packages could be stored in hundred-meters long underground galleries, and may release hydrogen gas (H2), which is explosive at concentrations above 4% in the air. For safety concerns, it is important to ensure that H2 concentration remains well below the lower explosive limit. The objective of this thesis work, conducted at the ONERA agency, is to design and build a lidar which enable high-resolution (3 m) remote profiling of H2 concentration (0-4%) over hundreds of meters. Such a lidar could perform nonintrusive H2 detection and then prevent H2-related explosion risks. This lidar measures vibrational Raman scattering in the UV domain (355 – 420 nm). Its design takes into account the specific conditions expected in storage galleries. A highspeed and sensitive detection stage has been chosen, based on SiPM (Silicium Photomultiplier) technology in photon counting mode. Due to a spectral overlap between molecular hydrogen and water vapor Raman spectra, the need of a H2O measurement channel has been demonstrated. A three-channel spectral analyzer (H2, H2O and N2 used as reference) has been designed and implemented. Signal processing in real time has been developed to display H2 and H2O concentration profiles. This lidar has been tested in a reduced range scene (100 m) enabling hydrogen gas releases. Simultaneous measurements of concentration profiles of natural water vapor and hydrogen gas (0-2%) have been performed at 85 m with 1-meter and 1-minute resolution and a 600 ppm detectivity.
135

Analyse du bruit lors de la génération de somme de fréquences dans les cristaux de niobate de lithium périodiquement polarisés (PPLN) et applications en régime de comptage de photons / Noise analysis in the sum frequency generation process in lithium niobate crystals periodically polarized (PPLN) and applications in regime of counting of photons

Baudoin, Romain 27 November 2014 (has links)
Le processus de somme de fréquences optiques est utilisé dans certaines applications pour convertir des signaux de longueurs d’onde infrarouges vers le domaine de longueurs d’onde visibles. Cela permet de bénéficier de technologies plus performantes notamment en terme de détection et de propagation. Les travaux menés dans cette thèse s’intéressent à l’étude de phénomènes optiques parasites générés par ce processus non linéaire dans des cristaux de niobate de lithium périodiquement polarisés (PPLN) pour des applications de conversion de fréquences en régime de comptage de photons. La première partie de ce manuscrit montre l’intérêt du processus de somme de fréquences optiques dans le contexte technologique de la détection infrarouge en régime de comptage de photons, via le concept de détection hybride. Les éléments théoriques et l’état de l’art associés à la détection hybride seront également présentés dans cette première partie. La deuxième partie traite d’une étude comparative entre différents cristaux de PPLN pour la détection hybride à 1550 nm. Pour cela, une analyse expérimentale détaillée des processus parasites est effectuée. Les résultats de cette étude sont utilisés pour des applications en astronomie et en microscopie. Enfin, la troisième partie traite d’une application de la somme de fréquences en interférométrie stellaire. Les résultats de caractérisation des cristaux de PPLN sont mis à contribution dans l’optimisation d’un instrument pour l’astronomie appelé interféromètre à somme de fréquences. Les résultats d’observation sur le site astronomique du Mont Wilson ainsi que les perspectives de cette instrument y sont présentés. / The sum frequency generation process is used in differents applications to convert signals from infrared wavelengths to the field of visible wavelength. This allows to benefit of more efficient technologies in terms of detection and propagation. This thesis describes the study of noise phenomena generated by this process in crystals of periodically poled lithium niobate (PPLN) for frequency up-conversion applications in photon counting regime. The first part of the manuscript shows the advantage of sum frequency generation process in the technological environment of the infrared detection on single photon counting regime, using the concept of hybrid detection. The theoretical elements and the state of the art associated with hybrid detection will also be presented in this first part. The second part deals with a comparative study between different PPLN for hybrid detection at 1550 nm. A detailed experimental analysis of the noise process is performed. The results of this study are used for applications in astronomy and microscopy. The third part deals with an application of the sum frequency in stellar interferometry. The results of PPLN’s characterization are involved in optimizing an instrument for astronomy called sum frequency interferometer. The results of observation on the astronomical site of Mount Wilson and the prospects of this instrument are presented.
136

Développement et caractérisation d’une cible active scintillante pour l’étude de la fission et étude des possibilités de calorimétrie de la fission avec le détecteur CARMEN / Development and characterization of an active scintillating target for fission study, and fission calorimetry study possibilities avec the CARMEN detector

Vayre, Sylvain 27 March 2015 (has links)
La désexcitation des fragments de fission reste mal comprise et les modèles théoriques ne permettent pas de prédire et d’expliquer toutes les corrélations observées dans le processus de fission. Il y a un besoin important de données simultanées sur les émissions de neutrons et de rayonnements gamma et sur l’énergie cinétique des fragments de fission. Dans ce contexte, l’utilisation d’un détecteur de fragments de fission avec le détecteur CARMEN permettrait de fournir des données contraignantes pour les modèles grâce à la mesure simultanée de la multiplicité neutronique, de l’énergie totale gamma rayonnée, de l’énergie cinétique totale des fragments et potentiellement de l’énergie totale neutron. L’objectif de ce travail de thèse a consisté à développer un détecteur de fragments de fission et à l’utiliser en association avec CARMEN pour réaliser des mesures calorimétriques de la fission. Dans un premier temps, nous avons développé un nouveau détecteur pour l’étude de la fission dont le principe est de mettre un actinide en solution dans un scintillateur organique. Des simulations Monte Carlo et différentes expériences sous faisceau de neutrons ont permis de caractériser et d’optimiser les performances de ce détecteur qui peut être utilisé comme trigger fission pour différentes mesures de sections efficaces de fission, de taux de fission spontanée ou encore comme veto fission. Dans un second temps, nous avons étudié les possibilités de mesure de l’énergie totale gamma et neutron rayonnée dans la fission avec CARMEN grâce à la caractérisation expérimentale de ses performances et à la simulation Monte Carlo et l’analyse de sa réponse « prompte » aux neutrons et aux rayonnements gamma / Still, the nuclear fission process and the de-excitation of the fission fragments is not fully understood. Current theoretical models can not predict and explain correctly every experimentally observed correlations, and new correlated data upon neutron emission, gamma-ray emission and kinetic energy of the fission fragments are needed. In this context, coincident use of a fission fragment detector and the CARMEN detector would provide compelling data for these models by measuring both neutron multiplicity, total gamma-ray energy, total kinetic energy and possibly total neutron energy. The work presented here consists in developing a fission fragment detector and using it together with CARMEN in order to perform fission calorimetry measurements. Initially, we developed a new detector for fission studies whose principle is dissolving the actinide of choice into an organic liquid scintillator. Monte Carlo simulations and neutron induced experiments were used to fully characterize its performances and shown it can be used as a fission trigger for various measurements, such as fission cross section or spontaneous fission rate measurements, and used as a fission veto. The second part of this work was dedicated to the study of CARMEN’s ability to measure the total gamma-ray energy and total neutron energy released in fission. For this purpose, lab characterization of the detector’s performances and Monte Carlo simulation and analysis of its “prompt” response to neutrons and gamma-rays were performed
137

Electromagnetic microsystem for the detection of magnetic nanoparticles in a microfluidic structure for immunoassays / Système électromagnétique de détection de nanoparticules magnétiques dans une structure microfluidique pour l'immunodétection

Rabehi, Amine 30 January 2018 (has links)
La détection et quantification d’agent biologique occupe une place prépondérante dans la prévention et la détection des dangers possibles pour la santé publique (épidémie ou pandémie), l’environnement ainsi que d’autres risques contextuelles (bioterrorisme, armes biologique ou chimiques…etc.). Par conséquent, le développement d’un système portable et à moindre coût permettant de détecter ces dangers constitue l’axe de recherche pluridisciplinaire de la collaboration entre différents laboratoires de l’UPMC (Paris 6) et « RWTH university » à Aachen en Allemagne. Dans ce projet, nous avons étudié les aspects pluridisciplinaires d’un microsystème (LoC) électromagnétique de détection immunologique basé sur l’utilisation de nanoparticules magnétiques (MNP). En raison de leur extractabilité et de leur triabilité, les MNP sont adaptées à l'examen d'échantillons biologiques, servant de marqueurs pour des réactions biochimiques. La plupart des techniques classiques de détection existantes sont basées sur des méthodes colorimétrique, fluorescence ou électrochimique qui souffrent en majorité de problème de temps d’analyse et de sensibilité. A cet égard, Les méthodes d’immuno-détection magnétiques constituent une alternative prometteuse. Cette détection est effectuée à l’aide des MNP qui sont spécifiquement bio-fonctionnalisés en surface afin d’être liée à la cible (virus, anticorps…etc). La nouvelle méthode magnétique de mélange de fréquence permet la détection et la quantification de ces MNP avec une grande dynamique. Dans cette thèse, l’effort est dirigé vers la miniaturisation de ce système. Pour ce faire, nous avons développé un ensemble d’outils analytiques et de simulations multiphysiques afin d’optimiser les dimensions des parties électromagnétique (bobines planaires) et microfluidiques. Par la suite, des prototypes de cette structure de détection à partir de bobines en circuits imprimés et de réservoirs microfluidiques en PDMS sont dimensionnés et réalisés. Les performances de ces prototypes ont été évaluées en termes de limite de détection de MNP, linéarité et plage dynamique. En outre, ces prototypes ont permis de valider les outils de dimensionnement réalisés. Une limite de détection de nanoparticules magnétiques de 15ng/mL a été mesurée avec un volume d'échantillon de 14 μL correspondant à une goutte de sang. Finalement, la validation du système quant à l’immuno-détection est abordée avec un état de l’art et le développement d’une procédure de fonctionnalisation biochimique de surface ainsi que des premiers tests pour sa validation. / The detection and quantification of a biological agent or entity has become paramount to anticipate a possible health threat (epidemic or pandemic), environmental threat or to combat other contextual threats (bioterrorism, chemical and biological weapons, drugs). Consequently, developing a portable cost effective device that could detect and quantify such threats is the research focus of the joint multidisciplinary project between UPMC (Paris 6) laboratories and RWTH university in Aachen, Germany. In the framework of this project, we have studied the multidisciplinary aspects of an electromagnetic microsystem for immunologic detection based on magnetic nanoparticles (MNP) in a microfluidic lab-on-chip (LoC). Because of their extractability and sortability, magnetic nanoparticles are adapted for examination of biological samples, serving as markers for biochemical reactions. So far, the final detection step is mostly achieved by well-known immunochemical or fluorescence-based techniques which are time consuming and have limited sensitivity. Therefore, magnetic immunoassays detecting the analyte by means of magnetic markers constitute a promising alternative. MNP covered with biocompatible surface coating can be specifically bound to analytes, cells, viruses or bacteria. They can also be used for separation and concentration enhancement. The novel frequency mixing magnetic detection method allows quantifying magnetic nanoparticles with a very large dynamic measurement range. In this thesis, emphasis is put on the miniaturized implementation of this detection scheme. Following the development of analytical and multiphysics simulations tools for optimization of both excitation frequencies and detection planar coils, first multilayered printed circuit board prototypes integrating all three different coils along with an adapted microfluidic chip has been designed and realized. These prototypes have been tested and characterized with respect to their performance for limit of detection (LOD) of MNP, linear response and validation of theoretical concepts. Using the frequency mixing magnetic detection technique, a LOD of 15ng/mL for 20 nm core sized MNP has been achieved with a sample volume of 14 μL corresponding to a drop of blood. Preliminary works for biosensing have also been achieved with a state of the art of surface functionalization and a developed proposed biochemical immobilization procedure and preliminary tests of its validation.
138

Two complementary approaches to detecting vulnerabilities in C programs / Deux approches complémentaires pour la détection de vulnérabilités dans les programmes C

Jimenez, Willy 04 October 2013 (has links)
De manière générale, en informatique, les vulnérabilités logicielles sont définies comme des cas particuliers de fonctionnements non attendus du système menant à la dégradation des propriétés de sécurité ou à la violation de la politique de sécurité. Ces vulnérabilités peuvent être exploitées par des utilisateurs malveillants comme brèches de sécurité. Comme la documentation sur les vulnérabilités n'est pas toujours disponible pour les développeurs et que les outils qu'ils utilisent ne leur permettent pas de les détecter et les éviter, l'industrie du logiciel continue à être paralysée par des failles de sécurité. Nos travaux de recherche s'inscrivent dans le cadre du projet Européen SHIELDS et portent sur les techniques de modélisation et de détection formelles de vulnérabilités. Dans ce domaine, les approches existantes sont peu nombreuses et ne se basent pas toujours sur une modélisation formelle précise des vulnérabilités qu'elles traitent. De plus, les outils de détection sous-jacents produisent un nombre conséquent de faux positifs/négatifs. Notons également qu'il est assez difficile pour un développeur de savoir quelles vulnérabilités sont détectées par chaque outil vu que ces derniers sont très peu documentés. En résumé, les contributions réalisées dans le cadre de cette thèse sont les suivantes: Définition d'un formalisme tabulaire de description de vulnérabilités appelé template. Définition d'un langage formel, appelé Condition de Détection de Vulnérabilité (VDC). Une approche de génération de VDCs à partir des templates. Définition d'une approche de détection de vulnérabilités combinant le model checking et l'injection de fautes. Évaluation des deux approches / In general, computer software vulnerabilities are defined as special cases where an unexpected behavior of the system leads to the degradation of security properties or the violation of security policies. These vulnerabilities can be exploited by malicious users or systems impacting the security and/or operation of the attacked system. Since the literature on vulnerabilities is not always available to developers and the used tools do not allow detecting and avoiding them; the software industry continues to be affected by security breaches. Therefore, the detection of vulnerabilities in software has become a major concern and research area. Our research was done under the scope of the SHIELDS European project and focuses specifically on modeling techniques and formal detection of vulnerabilities. In this area, existing approaches are limited and do not always rely on a precise formal modeling of the vulnerabilities they target. Additionally detection tools produce a significant number of false positives/negatives. Note also that it is quite difficult for a developer to know what vulnerabilities are detected by each tool because they are not well documented. Under this context the contributions made in this thesis are: Definition of a formalism called template. Definition of a formal language, called Vulnerability Detection Condition (VDC), which can accurately model the occurrence of a vulnerability. Also a method to generate VDCs from templates has been defined. Defining a second approach for detecting vulnerabilities which combines model checking and fault injection techniques. Experiments on both approaches
139

Reconnaissance robuste d'activités humaines par vision / Robust vision based activity detection and recognition

Vaquette, Geoffrey 14 February 2018 (has links)
Cette thèse porte sur la segmentation supervisée d'un flux vidéo en fragments correspondant à des activités de la vie quotidienne. En différenciant geste, action et activité, cette thèse s'intéresse aux activités à haut niveau sémantique telles que "Cuisiner" ou "Prendre son repas" par opposition à des actions comme "Découper un aliment". Pour cela, elle s'appuie sur l'algorithme DOHT (Deeply Optimized Hough Transform), une méthode de l'état de l'art utilisant un paradigme de vote (par transformée de Hough). Dans un premier temps, nous adaptons l'algorithme DOHT pour fusionner les informations en provenance de différents capteurs à trois niveaux différents de l'algorithme. Nous analysons l'effet de ces trois niveaux de fusion et montrons son efficacité par une évaluation sur une base de données composée d'actions de la vie quotidienne. Ensuite, une étude des jeux de données existant est menée. Constatant le manque de vidéos adaptées à la segmentation et classification (détection) d'activités à haut niveau sémantique, une nouvelle base de données est proposée. Enregistrée dans un environnement réaliste et dans des conditions au plus proche de l'application finale, elle contient des vidéos longues et non découpées adaptées à un contexte de détection. Dans un dernier temps, nous proposons une approche hiérarchique à partir d'algorithmes DOHT pour reconnaître les activités à haut niveau sémantique. Cette approche à deux niveaux décompose le problème en une détection non-supervisée d'actions pour ensuite détecter les activités désirées. / This thesis focuses on supervised activity segmentation from video streams within application context of smart homes. Three semantic levels are defined, namely gesture, action and activity, this thesis focuses mainly on the latter. Based on the Deeply Optimized Hough Transform paridigm, three fusion levels are introduced in order to benefit from various modalities. A review of existing action based datasets is presented and the lack of activity detection oriented database is noticed. Then, a new dataset is introduced. It is composed of unsegmented long time range daily activities and has been recorded in a realistic environment. Finaly, a hierarchical activity detection method is proposed aiming to detect high level activities from unsupervised action detection.
140

Road scene perception based on fisheye camera, LIDAR and GPS data combination / Perception de la route par combinaison des données caméra fisheye, Lidar et GPS

Fang, Yong 24 September 2015 (has links)
La perception de scènes routières est un domaine de recherche très actif. Cette thèse se focalise sur la détection et le suivi d’objets par fusion de données d’un système multi-capteurs composé d’un télémètre laser, une caméra fisheye et un système de positionnement global (GPS). Plusieurs étapes de la chaîne de perception sont ´ étudiées : le calibrage extrinsèque du couple caméra fisheye / télémètre laser, la détection de la route et enfin la détection et le suivi d’obstacles sur la route.Afin de traiter les informations géométriques du télémètre laser et de la caméra fisheye dans un repère commun, une nouvelle approche de calibrage extrinsèque entre les deux capteurs est proposée. La caméra fisheye est d’abord calibrée intrinsèquement. Pour cela, trois modèles de la littérature sont étudiés et comparés. Ensuite, pour le calibrage extrinsèque entre les capteurs,la normale au plan du télémètre laser est estimée par une approche de RANSAC couplée `a une régression linéaire `a partir de points connus dans le repère des deux capteurs. Enfin une méthode des moindres carres basée sur des contraintes géométriques entre les points connus, la normale au plan et les données du télémètre laser permet de calculer les paramètres extrinsèques. La méthode proposée est testée et évaluée en simulation et sur des données réelles.On s’intéresse ensuite `a la détection de la route à partir des données issues de la caméra fisheye et du télémètre laser. La détection de la route est initialisée `a partir du calcul de l’image invariante aux conditions d’illumination basée sur l’espace log-chromatique. Un seuillage sur l’histogramme normalisé est appliqué pour classifier les pixels de la route. Ensuite, la cohérence de la détection de la route est vérifiée en utilisant les mesures du télémètre laser. La segmentation de la route est enfin affinée en exploitant deux détections de la route successives. Pour cela, une carte de distance est calculée dans l’espace couleur HSI (Hue,Saturation, Intensity). La méthode est expérimentée sur des données réelles. Une méthode de détection d’obstacles basée sur les données de la caméra fisheye, du télémètre laser, d’un GPS et d’une cartographie routière est ensuite proposée. On s’intéresse notamment aux objets mobiles apparaissant flous dans l’image fisheye. Les régions d’intérêts de l’image sont extraites `a partir de la méthode de détection de la route proposée précédemment. Puis, la détection dans l’image du marquage de la ligne centrale de la route est mise en correspondance avec un modelé de route reconstruit `a partir des données GPS et cartographiques. Pour cela, la transformation IPM (Inverse Perspective Mapping) est appliquée à l’image. Les régions contenant potentiellement des obstacles sont alors extraites puis confirmées à l’aide du télémètre laser.L’approche est testée sur des données réelles et comparée `a deux méthodes de la littérature. Enfin, la dernière problématique étudiée est le suivi temporel des obstacles détectés `a l’aide de l’utilisation conjointe des données de la caméra fisheye et du télémètre laser. Pour cela, les resultats de détection d’obstacles précédemment obtenus sont exploit ´es ainsi qu’une approche de croissance de région. La méthode proposée est également testée sur des données réelles. / Road scene understanding is one of key research topics of intelligent vehicles. This thesis focuses on detection and tracking of obstacles by multisensors data fusion and analysis. The considered system is composed of a lidar, a fisheye camera and aglobal positioning system (GPS). Several steps of the perception scheme are studied: extrinsic calibration between fisheye camera and lidar, road detection and obstacles detection and tracking. Firstly, a new method for extinsic calibration between fisheye camera and lidar is proposed. For intrinsic modeling of the fisheye camera, three models of the literatureare studied and compared. For extrinsic calibration between the two sensors, the normal to the lidar plane is firstly estimated based on the determination of ń known ż points. The extrinsic parameters are then computed using a least square approachbased on geometrical constraints, the lidar plane normal and the lidar measurements. The second part of this thesis is dedicated to road detection exploiting both fisheye camera and lidar data. The road is firstly coarse detected considering the illumination invariant image. Then the normalised histogram based classification is validated using the lidar data. The road segmentation is finally refined exploiting two successive roaddetection results and distance map computed in HSI color space. The third step focuses on obstacles detection, especially in case of motion blur. The proposed method combines previously detected road, map, GPS and lidar information.Regions of interest are extracted from previously road detection. Then road central lines are extracted from the image and matched with road shape model extracted from 2DŋSIG map. Lidar measurements are used to validated the results.The final step is object tracking still using fisheye camera and lidar. The proposed method is based on previously detected obstacles and a region growth approach. All the methods proposed in this thesis are tested, evaluated and compared to stateŋofŋtheŋart approaches using real data acquired with the IRTESŋSET laboratory experimental platform.

Page generated in 0.0764 seconds