271 |
Appariement Robuste de Formes Visuelles Complexes, Application à la Détection d'ObjetsOnis, Sébastien 15 October 2009 (has links) (PDF)
L'augmentation des moyens informatiques associée à l'avènement de méthodes de classification performantes tels que l'AdaBoost ou les réseaux de neurones ont permis d'obtenir des systèmes de détection d'objets efficaces, mais nécessitant l'annotation manuelle de plusieurs milliers d'images exemples. Ce document présente une méthode permettant d'obtenir un système de détection d'objets capable de fonctionner avec une base d'images exemples de dimension réduite, tout en obtenant les taux de détection de l'état de l'art en détection de visages. Nous commençons par présenter les diverses méthodes utilisées en détection d'objets, et en particulier, les méthodes d'apprentissages associées. Puis, nous expliquons un système de détection basé sur la corrélation et fonctionnant avec une base d'exemples de moins d'une centaine d'images. Ce système nous a permis de mettre au point une méthode d'association de mesures de similarité utilisant des filtres de contours orientés orthogonaux. Les filtres sont obtenus par une méthode dérivée de la PCA qui permet de calculer des filtres orthogonaux adaptés à la classe d'objets à détecter. Nous montrons alors qu'il est possible de mettre au point un système de détection de visages fonctionnel avec très peu d'exemples. La corrélation s'avérant le facteur limitant le plus les résultats, nous avons ensuite remplacé cette dernière par un Perceptron Multicouche. Nous avons appliqué les méthodes d'associations d'images de contours orientés et montré une nette amélioration des taux de détection en utilisant des bases d'apprentissages de dimension réduite. Finalement, nous mettons en évidence les perspectives et solutions possibles qui nous permettraient de minimiser encore le nombre d'exemples d'apprentissage.
|
272 |
Analyse sémantique des réseaux sociauxEreteo, Guillaume 11 April 2011 (has links) (PDF)
L'explosion des fonctionnalités sociales au sein des applications du Web a favorisé le déploiement d'un panorama de médias sociaux permettant aux utilisateurs de librement contribuer, de se regrouper et d'interagir entre eux. La combinaison de divers moyens de publication et de socialisation permet de rapidement partager, recommander et propager l'information dans son réseau social, ainsi que de solliciter des réactions et de nouvelles contributions. Ces espaces partagés ont favorisé la création et le développement de communautés d'intérêts qui publient, filtrent et organisent de vastes répertoires de références dans leurs domaines, avec une impressionnante réactivité aux changements. Afin de reproduire les succès du Web dans la gestion d'information, de plus en plus de plates-formes sociales sont déployées dans des intranets d'entreprise. Cependant, l'avantage de ces plates-formes est fortement atténué lorsque le réseau social devient si grand que les informations pertinentes sont noyées dans des flux continus de notifications. Organiser cette énorme quantité d'informations est l'un des défis majeurs du Web 2.0 afin de tirer pleinement partie des bénéfices de l'Entreprise 2.0, à savoir, l'utilisation des technologies du Web 2.0, tel que les blogs et les wikis, dans un intranet. Cette thèse propose d'améliorer l'analyse des réseaux sociaux multiples et variés émergeant des usages sociaux du Web, au travers d'une contribution originale qui enrichit l'analyse des réseaux sociaux avec les technologies du Web Sémantique. L'analyse des réseaux sociaux propose des algorithmes de graphes pour caractériser la structure d'un réseau social et ses positions stratégiques. Les technologies du Web Sémantique permettent de représenter et d'échanger les connaissances entre des applications distribuées sur le Web avec un modèle de graphes richement typés (RDF), un langage de requête (SPARQL) et des langages de description de modèles (RDFS et OWL). Dans cette thèse, nous fusionnons ces deux modèles afin d'aller au-delà de l'analyse structurelle des graphes sociaux en intégrant un traitement sémantique de leur typage et des connaissances qu'ils contiennent. En particulier nous examinons comment (1) modéliser des données sociales en ligne à base d'ontologies, (2) réaliser une analyse du réseau social qui tire partie de la sémantique de ces représentations, et (3) détecter et étiqueter explicitement des communautés à partir de réseaux sociaux et de folksonomies.
|
273 |
Détection de Classes d'Objets et Estimation de leurs Poses à partir de Modèles 3D SynthétiquesLiebelt, Joerg 18 October 2010 (has links) (PDF)
Cette thèse porte sur la détection de classes d'objets et l'estimation de leur poses à partir d'une seule image en utilisant des étapes d'apprentissage, de détection et d'estimation adaptées aux données synthétiques. Nous proposons de créer des représentations en 3D de classes d'objets permettant de gérer simultanément des points de vue différents et la variabilité intra-classe. Deux méthodes différentes sont proposées : La première utilise des données d'entraînement purement synthétiques alors que la seconde approche est basée sur un modèle de parties combinant des images d'entraînement réelles avec des données géométriques synthétiques. Pour l'entraînement de la méthode purement synthétique, nous proposons une procédure non-supervisée de filtrage de descripteurs locaux afin de rendre les descripteurs discriminatifs pour leur pose et leur classe d'objet. Dans le cadre du modèle de parties, l'apparence d'une classe d'objets est apprise de manière discriminative à partir d'une base de données annotée et la géométrie en 3D est apprise de manière générative à partir d'une base de modèles CAO. Pendant la détection, nous introduisons d'abord une méthode de vote en 3D qui renforce la cohérence géométrique en se servant d'une estimation robuste de la pose. Ensuite, nous décrivons une deuxième méthode d'estimation de pose qui permet d'évaluer la probabilité de constellations de parties détectées en 2D en utilisant une géométrie 3D entière. Les estimations approximatives sont ensuite améliorées en se servant d'un alignement de modèles 3D CAO avec des images en 2D ce qui permet de résoudre des ambiguïtés et de gérer des occultations.
|
274 |
Palpation par force de radiation ultrasonore et échographie ultrarapide : Applications à la caractérisation tissulaire in vivo.Deffieux, Thomas 09 December 2008 (has links) (PDF)
L'échographie constitue aujourd'hui un des piliers de l'imagerie médicale. Appliquée en clinique depuis plus de quarante ans, elle repose sur les ultrasons, ondes mécaniques de compression à hautes fréquences, pour réaliser des images principalement morphologiques des organes. Développée plus récemment, l'élastographie permet de sonder directement les propriétés viscoélastiques des tissus et pourrait ainsi renseigner sur l'état pathologique des tissus comme le fait la palpation du médecin. L'élastographie transitoire, basée sur l'étude de la propagation des ondes de cisaillement naturelles ou artifi- cielles, permet une mesure quantitative de ces propriétés viscoélastiques. Combinant la pression de radiation ultrasonore, véritable palpation à distance, et l'échographie ultrarapide, le Supersonic Shear Imaging peut gé- nérer et suivre des ondes de cisaillement in vivo en quelques millisecondes. On peut alors, par inversion de l'équation d'onde, former des cartes d'élasticité du milieu. Nous proposons ici une nouvelle méthode de reconstruction des cartes d'élasticité, plus robuste, qui est ensuite appliquée, in vivo et en clinique, à l'imagerie des lésions du sein, à l'étude de la fibrose du foie ainsi qu'à celle des maladies neuromusculaires. Une méthode de mesure de la dispersion de l'onde de cisaillement générée est aussi proposée et testée in vivo. Elle permet de retrouver, en une seule acquisition, les propriétés viscoélastiques complètes des tissus et a été appliquée au foie et au muscle de plusieurs volontaires sains. Finalement, nous nous intéressons à l'échographie ultrarapide de la contraction du muscle, déclenchée par électrostimulation. Cette méthode, locale et transitoire, permet de retrouver les paramètres clés de la réponse musculaire et offre ainsi, couplée avec l'électromyographie, des perspectives cliniques très intéressantes pour l'étude de la physiologie du muscle ou les maladies neuromusculaires.
|
275 |
Caractérisation et détection de cibles en guide d'ondes non stationnaire par Décomposition de l'Opérateur de Retournement TemporelPhilippe, Franck-David 01 December 2008 (has links) (PDF)
Le Retournement Temporel est une technique multi-éléments permettant de focaliser une onde dans un milieu inconnu hétérogène en utilisant la propriété d'invariance par retournement temporel de l'équation des ondes. La formulation matricielle du Retournement Temporel a donné lieu à une technique de détection multi-cibles, la méthode DORT (pour Décomposition de l'Opérateur de Retournement Temporel). Cette thèse traite de l'application de la méthode DORT en acoustique sous-marine. Afin d'émettre les vecteurs propres issus de la méthode DORT, nous proposons une nouvelle méthode de reconstruction des vecteurs propres temporels baptisée SVP pour Synchronisation des Vecteurs Propres. Cette méthode est basée sur une repropagation numérique en espace libre des vecteurs propres monochromatiques nécessitant peu d'information sur le milieu. L'acquisition instantanée de la matrice de transfert K à l'aide de codes orthogonaux est aussi étudiée. Nous montrons que la méthode DORT permet d'extraire sans aucune connaissance préalable la signature fréquentielle d'une cible placée dans un guide d'onde et ce malgré les chemins multiples brouillant celle-ci. En effet, la première valeur singulière de la matrice K est proportionnelle à la réponse fréquentielle monostatique de la cible. De plus, nous montrons que les autres valeurs singulières donnent accès à des informations supplémentaires sur le diagramme de rayonnement. Par la suite, nous considérons un problème spécifique aux acquisitions DORT en mer. En effet, le milieu marin étant en constante fluctuation, le principe fondateur des méthodes de Retournement Temporel qui est la stationnarité est souvent mis en défaut. Nous montrons ainsi que la méthode DORT est utilisable en milieu non stationnaire, dans le cas où la cible est animée d'un mouvement vertical parallèle au réseau ou d'un guide d'onde présentant des vagues à sa surface. L'étude des vecteurs propres permet alors de remonter au déplacement de cette cible ou à l'état de surface au niveau de la cible et du réseau.
|
276 |
Détection directionnelle de matière sombre galactiqueMayet, F. 15 July 2010 (has links) (PDF)
La détection directionnelle constitue une variante de la détection directe, en proposant de reconstruire la cinématique de l'interaction WIMP-noyau, c'est-à-dire en ajoutant l'information sur la trace du recul à celle sur l'énergie déposée. L'idée est de profiter du mouvement du système solaire autour du centre galactique et à travers le halo de matière sombre. On observe ainsi un vent relatif de WIMP en provenance de la direction vers laquelle se dirige le système solaire. Par conséquent, une expérience sensible à la direction d'interaction devrait observer un excès d'événements dans cette direction, clairement discriminable du bruit de fond, isotrope dans le référentiel galactique. Une nouvelle méthode d'analyse statistique est présentée. Elle permet d'extraire des données des futurs détecteurs directionnels, la direction principale du signal ainsi que le nombre de WIMPs contenus dans la carte. L'origine galactique du signal peut ainsi être mise en évidence en montrant que la direction correspond à celle du vecteur vitesse du Soleil. Il s'agit d'un changement de perspective vis-à-vis de la détection directe de matière sombre non-baryonique. Profitant des avancées en technique de détection, on passe d'une stratégie de rejet du bruit de fond à une stratégie d'identification du signal WIMP. Finalement, le Chapitre 3 décrit les travaux préparatoires à un grand détecteur directionnel pour la recherche de matière sombre galactique. La stratégie directionnelle requiert une mesure précise à la fois de l'énergie déposée et de la trace en trois dimensions. L'obtention de ces informations structure le cahier des charges du projet de détecteur MIMAC dont l'élément de base est une TPC fonctionnant à basse pression. Les mesures de très basses énergies (inférieures au keV) seront présentées ainsi que les premiers résultats concernant la reconstruction en trois dimensions de reculs nucléaires.
|
277 |
Etude expérimentale et théorique de la réponse angulaire et de la réponse spectrale hors bande de détecteurs infrarouges hautes performances.Le Rouzo, Judikaël 29 November 2007 (has links) (PDF)
Les domaines d'application de la détection infrarouge sont tellement nombreux (militaire, médical, astronomie, environnement) et spécifiques qu'un seul type de détecteur infrarouge ne peut pas répondre à l'ensemble des besoins. De nombreuses filières coexistent à ce jour. Or, les fonctions de mérite classiques ne sont pas suffisantes pour comparer les performances de détecteurs de filières différentes pour une application spécifique. Dans le cadre de cette étude, réalisée sur des détecteurs quantiques infrarouges de hautes performances tels que les détecteurs à multipuits quantiques (MPQ) et les détecteurs quantiques HgCdTe, nous nous sommes intéressés à deux nouvelles fonctions de mérite : la réponse spectrale dite « hors bande » et la réponse angulaire. La premièr! e consiste à étudier la réponse spectrale d'un détecteur loin de la gamme de longueur d'onde pour laquelle il a été optimisé, grâce à une très grande dynamique de mesure. La deuxième fonction de mérite traduit la variation de la réponse du détecteur en fonction de l'angle d'incidence du flux lumineux. La mise en place de ces caractérisations électro-optiques a nécessité le développement de bancs de test innovants. Parmi les résultats obtenus lors du travail sur la réponse angulaire, citons le fait que la forme de la réponse angulaire est indépendante de la profondeur de gravure du réseau d'un détecteur MPQ ou encore que la réponse d'un détecteur HgCdTe est quasi-plate sur une large plage angulaire. L'étude de la réponse spectrale a, quant à elle, permis de mettre en évidence des phénomènes physiques jamais observés jusque là sur un spectre de photocourant d'un détecteur MPQ. Ce travail montre l'importance de la compréhension des phénomènes physiques au sein des pixels. Les mesures associées à une modélisation fine des phénomènes physiques aboutissent ainsi à une étude complète des performances ultimes des détecteurs quantiques infrarouges.
|
278 |
Etude de faisabilité d'un lidar Rayleigh-Mie pour la mesure à courte distance de la vitesse de l'air de sa température et de sa densité.Cezard, Nicolas 16 May 2008 (has links) (PDF)
Le lidar (acronyme de Light Detection and Ranging) est un instrument couramment utilisé de nos jours pour la caractérisation des propriétés physico-chimiques de l'atmosphère. Dans le domaine de l'aéronautique, on pourrait l'employer pour caractériser l'atmosphère amont d'un aéronef porteur. Parmi les applications courte-portée, citons l'optimisation du vol ou la détection de turbulence. Le principe du lidar consiste à émettre un faisceau laser dans l'atmosphère pour analyser le signal rétrodiffusé. En général, deux types de signaux coexistent, aux propriétés spectrales très différentes : le signal Rayleigh, diffusé par les molécules de l'air, et le signal Mie, diffusé par les particules plus massives (poussières, aérosols...). Ce travail de thèse évalue la faisabilité d'un lidar mixte Rayleigh-Mie, capable d'exploiter simultanément les deux types de signaux. L'objectif est la mesure à courte portée (20-50 m) des paramètres de vitesse, température et densité de l'air. Le point d'étude essentiel concerne la méthode d'analyse spectrale du signal : un système utilisant deux interféromètres de Michelson à imagerie de franges est notamment proposé, et ses performances comparées avec celle de l'interféromètre de Fabry-Perot, plus classique. La faisabilité de la mesure de vitesse par interféromètre de Michelson à imagerie de franges est expérimentalement démontrée. Pour cela, un système lidar à 355 nm a été développé, et une méthode de traitement de signal spécifiquement conçue pour l'analyse des franges. On montre que des mesures robustes peuvent être réalisées en plein jour, insensibles aux dérives de fréquence du laser et aux perturbations thermo-mécaniques de l'interféromètre.
|
279 |
Recherche directe de la matière noire : analyse et interprétation de premières données de l'expérience EDELWEISS-IIScorza, Siliva 06 November 2009 (has links) (PDF)
La présence de grandes quantités de matière noire invisible, c'est-à-dire non lumineuse, donc sans couplage avec les photons, autour des galaxies et à l'intérieur de leurs amas, a été confirmée par toute une série d'observations indépendantes au niveau galactique, extragalactique et cosmologique. De quoi cette matière noire est composée représente un des mystères de l'Univers qui intrigue cosmologistes et physiciens des particules. Les modèles supersymétriques proposent des candidats naturels : les WIMPs (Weakly Interacting Massive Particle). Dans la plupart des cas de figure, l'Univers est suffisament rempli de WIMPs pour qu'il soit possible de les détecter indirectement ou directement. Pendant mon doctorat, je me suis intéressée â la recherche directe de matière noire au sein de la collaboration EDELWEISS. EDELWEISS est une expérience de recherche directe de matière noire, cette dernière interagissant avec la matière baryonique par diffusion élastique. Dans le but de mesurer les énergies des reculs nucléaires dus à ces rares interactions, EDELWEISS emploie des détecteurs cryogéniques à double composante chaleur et ionisation (de type Ge-NTD). Chacun de ces détecteurs est constitué d'un cristal de Germanium de 320g, refroidi à une température de 20 mK. La mesure simultanée de deux signaux chaleur et ionisation permet la discrimination entre les reculs électroniques et les reculs nucléaires, ces derniers étant principalement induits par des WIMPs ou des neutrons. Le coeur de mon travail de thèse a été l'analyse des données du run 8 de physique comportant 11 bolomètres caractérisés par une très bonne stabilité en terme de résolution ligne de base et correspondant à une exposition fiducielle de 93.5 kg.j. Les différentes étapes de l'analyse sont détaillées ci-dessous. J'ai commencé par l'étalonnage des détecteurs cryogéniques avec des sources gamma 133Ba et neutron Am-Be dans le but d'évaluer leurs performances dans l'environnement du nouveau cryostat EDELWEISS-II et de la nouvelle chaîne d'acquisition. Ensuite j'ai traité l'optimisation des méthodes d'analyse et des paramètres de la chaîne de lecture des données. Enfin les résultats sont interprétés en terme de limite sur la section efficace d'interaction d'un WIMP avec un nucléon en fonction de la valeur de sa masse. Pour un seuil en énergie de recul de 30 keV (choisi a priori), 3 événements ont été enregistrés dans la bande de reculs nucléaires, correspondant à une sensibilité de 5*10^-7 pb pour une masse de WIMP de 80 GeV/c^2. J'ai également mené une étude pour comprendre le bruit de fond radioactif résiduel, regardant avec attention le fond gamma et le fond beta provenant du 210Pb. Pour ce dernier, un bolomètre Ge-NTD a été equipé avec une source de 210Pb. Le fond gamma pour des énergies supérieures à 100 keV montre une réduction globale et uniforme d'un facteur deux par rapport à la première phase de l'expérience, EDELWEISS-I, arrêtée en 2004. La comparaison entre les données expérimentales et les simulations des contaminations radioactives des matériaux proches des détecteurs comme le cuivre (pour les chaînes de désintégration U/Th, l'activation du 60Co et la contamination en 40K) faites avec GEANT4, m'a permis une évaluation de la contamination radioactive du cuivre. Il en résulte qu'elle est de 2 à 5 fois inférieure aux limites supérieures mesurées en spectrométrie HPGe. Ceci indique une plus grande propreté du Cuivre proche par rapport à EDELWEISS-I.Sachant que l'expérience peut être contaminée par une pollution en plomb due au Radon, l'étude du détecteur équipé avec une source de 210Pb m'a permis une investigation des betas de basse énergie qui tombent dans la bande de recul nucléaire et peuvent être interprétés comme un événement WIMP. Cette étude a permis de prédire le nombre de betas de basse énergie attendus pour le run de physique. Cette prédiction se révèle compatible avec le spectre expérimental de trois événements observés dans la zone des reculs nucléaires. Néanmoins cela n'est pas suffisant pour permettre une soustraction du fond, du fait des grandes incertitudes liées au profil de collection de charge et au profil d'implantation du Pb.
|
280 |
Transistors à nanofils de silicium top-down. Application à la détection biologique.Lehoucq, Gaëlle 10 March 2010 (has links) (PDF)
Ce travail de thèse a porté sur la réalisation d'un capteur d'espèces biologiques en solution à partir de réseaux organisés de nanofils de silicium opérant sur le mode d'un transistor à effet de champ à "grille biologique". Cette nouvelle génération de biocapteurs vise à être intégrée dans des systèmes de détection ultrasensibles et compacts destinés à des applications médicales et militaires. Nous proposons la réalisation des transistors à nanofils de silicium suivant une approche dite "top-down". Cette méthode, qui consiste à graver les nanofils dans une couche mince de silicium, permet un contrôle précis de leur positionnement, contrairement à l'approche "bottom-up", qui utilise des nanofils obtenus par croissance CVD. Ceci permet l'obtention de transistors aux caractéristiques électriques reproductibles et facilite leur intégration. La première partie de nos travaux a ainsi concerné le design et la fabrication de transistors à nanofils de silicium suivant une approche top-down. Ce travail de développement technologique a permis la réalisation de composants que nous avons caractérisés à sec puis adaptés à un fonctionnement en milieu liquide. La seconde partie de nos travaux a porté sur la réalisation de mesures en solution. La validation du fonctionnement de notre transistor en mode capteur a été démontrée par le suivi de variations de pH. Notre étude a ensuite eu pour objet la mise en valeur de l'ensemble des paramètres influençant les performances du capteur (choix de la tension de grille, de la force ionique, influence de la microfluidique, ...), la compréhension de ces facteurs étant indispensable à la réalisation de mesures biologiques fiables.
|
Page generated in 0.0654 seconds