• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 488
  • 296
  • 197
  • 80
  • 78
  • 36
  • 36
  • 34
  • 16
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • Tagged with
  • 1444
  • 155
  • 148
  • 137
  • 114
  • 114
  • 113
  • 107
  • 100
  • 80
  • 69
  • 68
  • 66
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
601

A Generalization of a Theorem of Boyd and Lawton

Issa, Zahraa 08 1900 (has links)
Ce mémoire s’applique à étudier d’abord, dans la première partie, la mesure de Mahler des polynômes à une seule variable. Il commence en donnant des définitions et quelques résultats pertinents pour le calcul de telle hauteur. Il aborde aussi le sujet de la question de Lehmer, la conjecture la plus célèbre dans le domaine, donne quelques exemples et résultats ayant pour but de résoudre la question. Ensuite, il y a l’extension de la mesure de Mahler sur les polynômes à plusieurs variables, une démarche semblable au premier cas de la mesure de Mahler, et le sujet des points limites avec quelques exemples. Dans la seconde partie, on commence par donner des définitions concernant un ordre supérieur de la mesure de Mahler, et des généralisations en passant des polynômes simples aux polynômes à plusieurs variables. La question de Lehmer existe aussi dans le domaine de la mesure de Mahler supérieure, mais avec des réponses totalement différentes. À la fin, on arrive à notre objectif, qui sera la démonstration de la généralisation d’un théorème de Boyd-Lawton, ce dernier met en évidence une relation entre la mesure de Mahler des polynômes à plusieurs variables avec la limite de la mesure de Mahler des polynômes à une seule variable. Ce résultat a des conséquences en termes de la conjecture de Lehmer et sert à clarifier la relation entre les valeurs de la mesure de Mahler des polynômes à une variable et celles des polynômes à plusieurs variables, qui, en effet, sont très différentes en nature. / This thesis applies to study first, in part 1, the Mahler measure of polynomials in one variable. It starts by giving some definitions and results that are important for calculating this height. It also addresses the topic of Lehmer’s question, an interesting conjecture in the field, and it gives some examples and results aimed at resolving the issue. The extension of the Mahler measure to several variable polynomials is then considered including the subject of limit points with some examples. In the second part, we first give definitions of a higher order for the Mahler measure, and generalize from single variable polynomials to multivariable polynomials. Lehmer’s question has a counterpart in the area of the higher Mahler measure, but with totally different answers. At the end, we reach our goal, where we will demonstrate the generalization of a theorem of Boyd-Lawton. This theorem shows a relation between the limit of Mahler measure of multivariable polynomials with Mahler measure of polynomials in one variable. This result has implications in terms of Lehmer's conjecture and serves to clarify the relationship between the Mahler measure of one variable polynomials, and the Mahler measure of multivariable polynomials, which are very different.
602

Détection des chutes par calcul homographique

Mokhtari, Djamila 08 1900 (has links)
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche. / The main objective of video surveillance is to protect persons and property by detecting any abnormal behavior. This is not possible without detecting motion in the image. This process is often based on the concept of subtraction of the scene background. However in video tracking, the cameras are themselves often in motion, causing a significant change of the background. So, background subtraction techniques become problematic. We propose in this work a motion detection approach, with the example application of fall detection. This approach is free of background subtraction for a rotating surveillance camera. The method uses the camera rotation to detect motion by using homographic calculation. Our results on synthetic and real video sequences demonstrate the feasibility of this approach.
603

Vers l’étalonnage interne de caméra à haute précision / Towards high precision internal camera calibration

Rudakova, Victoria 21 January 2014 (has links)
Cette thèse se concentre sur le sujet de la calibration de la camera interne et, en particulier, sur les aspects de haute précision. On suit et examine deux fils principaux: la correction d'une aberration chromatique de lentille et l'estimation des paramètres intrinsèques de la caméra. Pour la problème de l'aberration chromatique, on suit un chemin de post-traitement numérique de l'image, afin de se débarrasser des artefacts de couleur provoqués par le phénomène de dispersion du système d'objectif de la caméra, ce qui produit une désalignement perceptible des canaux couleur. Dans ce contexte, l'idée principale est de trouver un modèle de correction plus général pour réaligner les canaux de couleur que ce qui est couramment utilisé - différentes variantes du polynôme radial. Celui-ci ne peut pas être suffisamment général pour assurer la correction précise pour tous les types de caméras. En combinaison avec une détection précise des points clés, la correction la plus précise de l'aberration chromatique est obtenue en utilisant un modèle polynomial qui est capable de capter la nature physique du décalage des canaux couleur. Notre détection de points clés donne une précision allant jusqu'à 0,05 pixels, et nos expériences montrent sa grande résistance au bruit et au flou. Notre méthode de correction de l’aberration, par opposition aux logiciels existants, montre une géométrique résiduelle inférieure à 0,1 pixels, ce qui est la limite de la perception de la vision humaine. En ce qui concerne l'estimation des paramètres intrinsèques de la caméra, la question est de savoir comment éviter la compensation d'erreur résiduelle qui est inhérent aux méthodes globales d'étalonnage, dont le principe fondamental consiste à estimer tous les paramètres de la caméra ensemble - l'ajustement de faisceaux. Détacher les estimations de la distorsion de la caméra et des paramètres intrinsèques devient possible lorsque la distorsion est compensée séparément. Cela peut se faire au moyen de la harpe d'étalonnage, récemment développée, qui calcule le champ de distorsion en utilisant la mesure de la rectitude de cordes tendues dans différentes orientations. Une autre difficulté, étant donnée une image déjà corrigée de la distorsion, est de savoir comment éliminer un biais perspectif. Ce biais dû à la perspective est présent quand on utilise les centres de cibles circulaires comme points clés, et il s'amplifie avec l'augmentation de l'angle de vue. Afin d'éviter la modélisation de chaque cercle par une fonction conique, nous intégrons plutôt fonction de transformation affine conique dans la procédure de minimisation pour l'estimation de l'homographie. Nos expériences montrent que l'élimination séparée de la distorsion et la correction du biais perspectif sont efficaces et plus stables pour l'estimation des paramètres intrinsèques de la caméra que la méthode d'étalonnage globale / This dissertation focuses on internal camera calibration and, especially, on its high-precision aspects. Two main threads are followed and examined: lens chromatic aberration correction and estimation of camera intrinsic parameters. For the chromatic aberration problem, we follow a path of digital post-processing of the image in order to get rid from the color artefacts caused by dispersion phenomena of the camera lens system, leading to a noticeable color channels misalignment. In this context, the main idea is to search for a more general correction model to realign color channels than what is commonly used - different variations of radial polynomial. The latter may not be general enough to ensure stable correction for all types of cameras. Combined with an accurate detection of pattern keypoints, the most precise chromatic aberration correction is achieved by using a polynomial model, which is able to capture physical nature of color channels misalignment. Our keypoint detection yields an accuracy up to 0.05 pixels, and our experiments show its high resistance to noise and blur. Our aberration correction method, as opposed to existing software, demonstrates a final geometrical residual of less than 0.1 pixels, which is at the limit of perception by human vision. When referring to camera intrinsics calculation, the question is how to avoid residual error compensation which is inherent for global calibration methods, the main principle of which is to estimate all camera parameters simultaneously - the bundle adjustment. Detachment of the lens distortion from camera intrinsics becomes possible when the former is compensated separately, in advance. This can be done by means of the recently developed calibration harp, which captures distortion field by using the straightness measure of tightened strings in different orientations. Another difficulty, given a distortion-compensated calibration image, is how to eliminate a perspective bias. The perspective bias occurs when using centers of circular targets as keypoints, and it gets more amplified with increase of view angle. In order to avoid modelling each circle by a conic function, we rather incorporate conic affine transformation function into the minimization procedure for homography estimation. Our experiments show that separate elimination of distortion and perspective bias is effective and more stable for camera's intrinsics estimation than global calibration method
604

Etude expérimentale et modélisation de la longueur de bon mélange. Application à la représentativité des points de prélèvement en conduit / Experimental study and modelling of the well-mixing length. Application to the representativeness of sampling points in duct

Alengry, Jonathan 20 March 2014 (has links)
La surveillance des rejets gazeux des installations nucléaires dans l'environnement et de contrôle des dispositifs d'épuration reposent sur des mesures régulières de concentrations des contaminants en sortie de cheminées et dans les réseaux de ventilation. La répartition de la concentration peut être hétérogène au niveau du point de mesure si la distance d'établissement du mélange est insuffisante. La question se pose sur l'évaluation du positionnement des points de piquage et sur l'erreur commise par rapport à la concentration homogène en cas de non-respect de cette distance. Cette étude définit cette longueur dite de « bon mélange » à partir d'expériences menées en laboratoire. Le banc dimensionné pour ces essais a permis de reproduire des écoulements dans des conduits longs circulaire et rectangulaire, comprenant chacun un coude. Une technique de mesure optique a été développée, calibrée puis utilisée pour mesurer la distribution de la concentration d'un traceur injecté dans l'écoulement. Les résultats expérimentaux en conduit cylindrique ont validé un modèle analytique basé sur l'équation de convection-diffusion d'un traceur, et ont permis de proposer des modèles de longueur de bon mélange et de représentativité de points de prélèvement. Dans le conduit à section rectangulaire, les mesures acquises constituent une première base de données sur l'évolution de l'homogénéisation d'un traceur, dans la perspective de simulations numériques explorant des conditions plus réalistes des mesures in situ. / Monitoring of gaseous releases from nuclear installations in the environment and air cleaning efficiency measurement are based on regular measurements of concentrations of contaminants in outlet chimneys and ventilation systems. The concentration distribution may be heterogeneous at the measuring point if the distance setting of the mixing is not sufficient. The question is about the set up of the measuring point in duct and the error compared to the homogeneous concentration in case of non-compliance with this distance. This study defines the so-called "well mixing length" from laboratory experiments. The bench designed for these tests allowed to reproduce flows in long circular and rectangular ducts, each including a bend. An optical measurement technique has been developed, calibrated and used to measure the concentration distribution of a tracer injected in the flow. The experimental results in cylindrical duct have validated an analytical model based on the convection-diffusion equation of a tracer, and allowed to propose models of good mixing length and representativeness of sampling points. In rectangular duct, the acquired measures constitute a first database on the evolution of the homogenization of a tracer, in the perspective of numerical simulations exploring more realistic conditions for measurements in situ.
605

Mimésis, narrativité, expressivité. Le cinéma dans son rapport au réel / Mimesis, narrativity, expressiveness : a study of the relationship between cinema and reality

Gravas, Florence 12 June 2014 (has links)
Quel type d’expérience faisons-nous quand nous « regardons un film » ? Si cette formulation se montre impropre du fait de la double implication sensorielle d’un voir/entendre qu’engage l’expérience spectatorielle, elle signale d’emblée une forme d’équivocité à propos de ce qu’on « regarde » comme de ce qu’engage le rapport que nous établissons avec ce que nous percevons d’un film. Il s’offre en effet comme une expérience de mimèsis singulière, dont l’examen est l’enjeu du présent travail. La méthode retenue a consisté à mener notre réflexion à partir de l’étude attentive d’un corpus de six films : Valse avec Bachir, d’Ari Folman, Caché, de Michael Haneke, le diptyque Mulholland drive/Lost highway, de David Lynch, Le mystère Picasso, de Henri-Georges Clouzot, et Eût-elle été criminelle…, de Jean-Gabriel Périot. Cette méthode nous a permis de nous interroger sur le type d’opérations que le visionnage d’un film requiert chez le spectateur, comme de nous demander quelle est la nature des objets perçus par le biais du dispositif cinématographique. Nous avons mis à jour le statut équivoque de ce que le spectateur perçoit, en distinguant trois aspects de l’image filmique : profigurant, figuratif, figural. Cette distinction met en évidence l’ambiguïté de l’image filmique quant à ce qu’elle image : monde représenté, complexe d’images et de sons, ensemble d’événements issus du monde réel. Ceci dans un second temps nous a conduit à étudier en quoi la réalisation engage des opérations productives de sens et de prescriptions pour le spectateur. A quelles conditions peut-on la penser comme écriture ? Et qu’est-ce qui est ainsi « réalisé » par ces opérations ? Enfin il s’agissait de s’interroger sur le rôle singulier que le cinéma réserve au spectateur : cette expérience particulière engage des activités tant perceptives, que cognitives et affectives, des immersions dans des temporalités hétérogènes, et un mode de croyance qui n’exclut pas le savoir de ce qui s’y joue. / What exactly do we experience when we “watch a movie” ? This phrase may seem ill-chosen since, in this “spectatorial experience” the viewer not only watches but he also listens. However it announces straightaway a form of equivocity between what we watch and what we connect with, while watching a movie. It appears as a unique experience of mimesis whose analysis is the aim of this study.The chosen method consisted in carrying out our reflection starting from the attentive study of a corpus of six films: Waltz with Bachir, by Ari Folman, Hidden, by Michael Haneke, the diptych Mulholland drive/Lost highway, by David Lynch, the Mystery Picasso, by Henri-Georges Clouzot, and Even if she had been a criminal…, by Jean-Gabriel Périot. This method enabled us to study the type of operations which the watching of a film requires from the spectator, and led us to ask ourselves which is the nature of the objects perceived by the means of the cinematographic device. We’ve highlighted the equivocity of what the spectator perceives, by distinguishing three aspects of the filmic image : profigurant, figurative, figural. This distinction underlines the ambiguity of the filmic image in what it actually shows : a representation of the world, a mixing of images and sounds, a set of events resulting from the real world. This, in a second time, led us to study to what extent the director’s choices engages productive operations of direction and regulations for the spectator. On which conditions can we consider it as writing? And what is thus « realized » by these operations? At last, we have tried to analyse the singular role that the cinema offers to the spectator : this particular experience involves perceptive, cognitive and emotional activities, immersions in heterogeneous temporalities, and a mode of belief in which the viewer is aware of what is at stake.
606

Caractérisation par microspectroscopie confocale Raman de la diffusion cutanée d'actif : optimisation des paramètres instrumentaux et méthodologiques en vue d'applications in vivo. / Characterization of actives diffusion through the skin by confocal Raman microspectroscopy : optimization of instrumental and methodological parameters for in vivo applications.

Tfaili, Sana 14 February 2012 (has links)
La microspectroscopie Raman confocale apparait comme un outil à fort potentiel pour l'analyse in vivo de la peau, avec des applications innovantes en dermatologie et cosmétologie. Cette technique biophotonique permet d'accéder à des informations moléculaires très spécifiques d'un échantillon ; et ceci de façon totalement non destructive et sans aucun marquage ni préparation particulière. Les travaux référencés ont porté sur la caractérisation des constituants cutanés, l'évaluation du taux d'hydratation, le suivi de la perméation d'actif ou encore le diagnostic des lésions tumorales de la peau. Ces études ont été réalisées avec des configurations instrumentales très diverses. En vue de la conception d'une nouvelle micro-sonde Raman confocale, cette thèse a permis d'établir un cahier des charges précis ; les paramètres instrumentaux ont été définis et leurs effets sur la qualité des enregistrements Raman (fluorescence parasite, rapport signal sur bruit, atténuation du signal en profondeur) ont été évalués. En particulier, l'effet de la longueur d'onde d'excitation, paramètre clé en spectroscopie Raman, a été analysé. Dans nos expérimentations, la répétabilité et la variabilité du signal Raman ont également été prises en compte. Dans le but d'évaluer l'approche Raman pour l'analyse de la perméation cutanée d'actif, la diffusion cutanée de deux molécules (caféine et resvératrol) appliquées en faibles concentrations a été suivie sur un microspectromètre Raman confocal avec des paramètres d'acquisition similaires à ceux définis pour la micro-sonde. Nous avons montré la possibilité d'enregistrer des cinétiques de diffusion, et également mis en évidence des points limitatifs spécifiques de ces études expérimentales. / Confocal Raman microspectroscopy seems to be a tool with strong potential for in vivo skin analyses, and for innovative applications in dermatology and cosmetology fields. This biophotonic technique allows access to very specific molecular information non-destructively and without any particular skin labeling or sample preparation. The referenced work focused on the characterization of the cutaneous constituents, the evaluation of the rate of skin hydration, the monitoring of active ingredient permeation or diagnosis of tumoral skin lesions. These studies were performed with a variety of instrumental configurations. In view of the design of a new confocal Raman micro-probe, this thesis has established a registry of precise specifications; the instrumental parameters were defined, and their effects on the quality of the Raman records (parasite fluorescence, signal to noise ratio, signal attenuation in depth) were evaluated. In particular, the impact of the excitation wavelength, a key parameter in Raman spectroscopy, was analyzed. In our experiments, the reproducibility and the variability of the Raman signal were also considered. In order to evaluate the Raman approach for the analysis of cutaneous permeation of active ingredients, the cutaneous diffusion of two molecules (caffeine and resveratrol) applied in low concentrations were monitored by confocal Raman microspectroscopy using the acquisition parameters defined for the micro-probe. We have demonstrated the possibility of recording diffusion kinetics and at the same time unraveled specific limitations of these experimental studies.
607

Outils pour l'analyse des courbes discrètes bruitées / Tools for the analysis of noisy discrete curves

Nasser, Hayat 30 October 2018 (has links)
Dans cette thèse, nous nous intéressons à l’étude des courbes discrètes bruitées qui correspondent aux contours d’objets dans des images. Nous avons proposé plusieurs outils permettant de les analyser. Les points dominants (points dont l’estimation de la courbure est localement maximale) jouent un rôle très important dans la reconnaissance de formes et, nous avons développé une méthode non heuristique, rapide et fiable pour les détecter dans une courbe discrète. Cette méthode est une amélioration d’une méthode existante introduite par Nguyen et al. La nouvelle méthode consiste à calculer une mesure d’angle. Nous avons proposé aussi deux approches pour la simplification polygonale : une méthode automatique minimisant, et une autre fixant le nombre de sommets du polygone résultant. Ensuite, nous avons introduit un nouvel outil géométrique, nommé couverture tangentielle adaptative (ATC), reposant sur la détection des épaisseurs significatives introduites par Kerautret et al. Ces épaisseurs calculées en chaque point du contour à analyser, permettent d’estimer localement le niveau de bruit. Dans ce contexte notre algorithme de construction de la couverture tangentielle adaptative prend en considération les différents niveaux de bruits présents dans la courbe à étudier et ne nécessite pas de paramètre. Deux applications de l’ATC sont proposées en analyse d’images : d’une part la décomposition des contours d’une forme dans une image en arcs et en segments de droite et d’autre part, dans le cadre d’un projet avec une université d’Inde, autour du langage des signes et la reconnaissance des gestes de la main. Premièrement, la méthode de décomposition des courbes discrètes en arcs et en segments de droite est basée sur deux outils : la détection de points dominants en utilisant la couverture tangentielle adaptative et la représentation dans l’espace des tangentes du polygone, issue des points dominants détectés. Les expériences montrent la robustesse de la méthode w.r.t. le bruit. Deuxièmement, à partir des contours des mains extraits d’images prises par une Kinect, nous proposons différents descripteurs reposant sur des points dominants sélectionnés du contour des formes dans les images. Les descripteurs proposés, qui sont une combinaison entre descripteurs statistiques et descripteurs géométriques, sont efficaces et conviennent à la reconnaissance de gestes / In this thesis, we are interested in the study of noisy discrete curves that correspond to the contours of objects in images. We have proposed several tools to analyze them. The dominant points (points whose curvature estimation is locally maximal) play a very important role in pattern recognition and we have developed a non-heuristic, fast and reliable method to detect them in a discrete curve. This method is an improvement of an existing method introduced by Nguyen et al. The new method consists in calculating a measure of angle. We have also proposed two approaches for polygonal simplification: an automatic method minimizing, and another fixing the vertex number of the resulting polygon. Then we proposed a new geometric tool, called adaptive tangential cover ATC, based on the detection of meaningful thickness introduced by Kerautret et al. These thicknesses are calculated at each point of the contours allow to locally estimate the noise level. In this context our construction algorithm of adaptive tangential cover takes into account the different levels of noise present in the curve to be studied and does not require a parameter. Two applications of ATC in image analysis are proposed: on the one hand the decomposition of the contours of a shape in an image into arcs and right segments and on the other hand, within the framework of a project with an Indian university about the sign language and recognition of hand gestures. Firstly, the method to decompose discrete curves into arcs and straight segments is based on two tools: dominant point detection using adaptive tangential cover and tangent space representation of the polygon issued from detected dominant points. The experiments demonstrate the robustness of the method w.r.t. noise. Secondly, from the outlines of the hands extracted from images taken by a Kinect, we propose several descriptors from the selected dominant points computed from the adaptive tangential cover. The proposed descriptors, which are a combination of statistical descriptors and geometrical descriptors, are effective and suitable for gesture recognition
608

Localisation par l'image en milieu urbain : application à la réalité augmentée / Image-based localization in urban environment : application to augmented reality

Fond, Antoine 06 April 2018 (has links)
Dans cette thèse on aborde le problème de la localisation en milieux urbains. Inférer un positionnement précis en ville est important dans nombre d’applications comme la réalité augmentée ou la robotique mobile. Or les systèmes basés sur des capteurs inertiels (IMU) sont sujets à des dérives importantes et les données GPS peuvent souffrir d’un effet de vallée qui limite leur précision. Une solution naturelle est de s’appuyer le calcul de pose de caméra en vision par ordinateur. On remarque que les bâtiments sont les repères visuels principaux de l’humain mais aussi des objets d’intérêt pour les applications de réalité augmentée. On cherche donc à partir d’une seule image à calculer la pose de la caméra par rapport à une base de données de bâtiments références connus. On décompose le problème en deux parties : trouver les références visibles dans l’image courante (reconnaissance de lieux) et calculer la pose de la caméra par rapport à eux. Les approches classiques de ces deux sous-problèmes sont mises en difficultés dans les environnements urbains à cause des forts effets perspectives, des répétitions fréquentes et de la similarité visuelle entre façades. Si des approches spécifiques à ces environnements ont été développés qui exploitent la grande régularité structurelle de tels milieux, elles souffrent encore d’un certain nombre de limitations autant pour la détection et la reconnaissance de façades que pour le calcul de pose par recalage de modèle. La méthode originale développée dans cette thèse s’inscrit dans ces approches spécifiques et vise à dépasser ces limitations en terme d’efficacité et de robustesse aux occultations, aux changements de points de vue et d’illumination. Pour cela, l’idée principale est de profiter des progrès récents de l’apprentissage profond par réseaux de neurones convolutionnels pour extraire de l’information de haut-niveau sur laquelle on peut baser des modèles géométriques. Notre approche est donc mixte Bottom-Up/Top-Down et se décompose en trois étapes clés. Nous proposons tout d’abord une méthode d’estimation de la rotation de la pose de caméra. Les 3 points de fuite principaux des images en milieux urbains, dits points de fuite de Manhattan sont détectés grâce à un réseau de neurones convolutionnels (CNN) qui fait à la fois une estimation de ces points de fuite mais aussi une segmentation de l’image relativement à eux. Une second étape de raffinement utilise ces informations et les segments de l’image dans une formulation bayésienne pour estimer efficacement et plus précisément ces points. L’estimation de la rotation de la caméra permet de rectifier les images et ainsi s’affranchir des effets de perspectives pour la recherche de la translation. Dans une seconde contribution, nous visons ainsi à détecter les façades dans ces images rectifiées et à les reconnaître parmi une base de bâtiments connus afin d’estimer une translation grossière. Dans un soucis d’efficacité, on a proposé une série d’indices basés sur des caractéristiques spécifiques aux façades (répétitions, symétrie, sémantique) qui permettent de sélectionner rapidement des candidats façades potentiels. Ensuite ceux-ci sont classifiés en façade ou non selon un nouveau descripteur CNN contextuel. Enfin la mise en correspondance des façades détectées avec les références est opérée par un recherche au plus proche voisin relativement à une métrique apprise sur ces descripteurs [...] / This thesis addresses the problem of localization in urban areas. Inferring accurate positioning in the city is important in many applications such as augmented reality or mobile robotics. However, systems based on inertial sensors (IMUs) are subject to significant drifts and GPS data can suffer from a valley effect that limits their accuracy. A natural solution is to rely on the camera pose estimation in computer vision. We notice that buildings are the main visual landmarks of human beings but also objects of interest for augmented reality applications. We therefore aim to compute the camera pose relatively to a database of known reference buildings from a single image. The problem is twofold : find the visible references in the current image (place recognition) and compute the camera pose relatively to them. Conventional approaches to these two sub-problems are challenged in urban environments due to strong perspective effects, frequent repetitions and visual similarity between facades. While specific approaches to these environments have been developed that exploit the high structural regularity of such environments, they still suffer from a number of limitations in terms of detection and recognition of facades as well as pose computation through model registration. The original method developed in this thesis is part of these specific approaches and aims to overcome these limitations in terms of effectiveness and robustness to clutter and changes of viewpoints and illumination. For do so, the main idea is to take advantage of recent advances in deep learning by convolutional neural networks to extract high-level information on which geometric models can be based. Our approach is thus mixed Bottom- Up/Top-Down and is divided into three key stages. We first propose a method to estimate the rotation of the camera pose. The 3 main vanishing points of the image of urban environnement, known as Manhattan vanishing points, are detected by a convolutional neural network (CNN) that estimates both these vanishing points and the image segmentation relative to them. A second refinement step uses this information and image segmentation in a Bayesian model to estimate these points effectively and more accurately. By estimating the camera’s rotation, the images can be rectified and thus free from perspective effects to find the translation. In a second contribution, we aim to detect the facades in these rectified images to recognize them among a database of known buildings and estimate a rough translation. For the sake of efficiency, a series of cues based on facade specific characteristics (repetitions, symmetry, semantics) have been proposed to enable the fast selection of facade proposals. Then they are classified as facade or non-facade according to a new contextual CNN descriptor. Finally, the matching of the detected facades to the references is done by a nearest neighbor search using a metric learned on these descriptors. Eventually we propose a method to refine the estimation of the translation relying on the semantic segmentation inferred by a CNN for its robustness to changes of illumination ans small deformations. If we can already estimate a rough translation from these detected facades, we choose to refine this result by relying on the se- mantic segmentation of the image inferred from a CNN for its robustness to changes of illuminations and small deformations. Since the facade is identified in the previous step, we adopt a model-based approach by registration. Since the problems of registration and segmentation are linked, a Bayesian model is proposed which enables both problems to be jointly solved. This joint processing improves the results of registration and segmentation while remaining efficient in terms of computation time. These three parts have been validated on consistent community data sets. The results show that our approach is fast and more robust to changes in shooting conditions than previous methods
609

Recalage de groupes d’images médicales 3D par extraction de points d’intérêt / 3D medical images groupwise registration by interest points extraction

Agier, Rémi 23 October 2017 (has links)
Les imageurs des hôpitaux produisent de plus en plus d'images 3D et il y a un nombre croissant d'études de cohortes. Afin d'ouvrir la voie à des méthodes utilisant de larges bases de données, il est nécessaire de développer des approches permettant de rendre ces bases cohérentes en recalant les images. Les principales méthodes actuelles de recalage de groupes utilisent des données denses (voxels) et sélectionnent une référence pour mettre en correspondance l'ensemble des images. Nous proposons une approche de recalage par groupes, sans image de référence, en utilisant seulement des points d'intérêt (Surf3D), applicable à des bases de plusieurs centaines d'images médicales. Nous formulons un problème global fondé sur l'appariement de points d'intérêt. La variabilité inter-individu étant grande, le taux de faux positifs (paires aberrantes) peut être très important (70\%). Une attention particulière est portée sur l'élimination des appariements erronés. Une première contribution effectue le recalage rigide de groupes d'images. Nous calculons les recalages de toutes les paires d'images. En s'appuyant sur le graphe complet de ces recalages, nous formulons le problème global en utilisant l'opérateur laplacien. Des expérimentations avec 400 images scanner CT 3D hétérogènes illustrent la robustesse de notre méthode et sa vitesse d'exécution. Une seconde contribution calcule le recalage déformable de groupes d'images. Nous utilisons des demi-transformations, paramétrées par des pyramides de B-splines, entre chaque image et un espace commun. Des comparaisons sur un jeu de données de référence montrent que notre approche est compétitive avec la littérature tout en étant beaucoup plus rapide. Ces résultats montrent le potentiel des approches basées sur des points d'intérêt pour la mise en correspondance de grandes bases d'images. Nous illustrons les perspectives de notre approche par deux applications : la segmentation multi-atlas et l'anthropologie. / The ever-increasing amount of medical images stored in hospitals offers a great opportunity for big data analysis. In order to pave the way for huge image groups screening, we need to develop methods able to make images databases consistent by group registering those images. Currently, group registration methods generally use dense, voxel-based, representations for images and often pick a reference to register images. We propose a group registration framework, without reference image, by using only interest points (Surf3D), able to register hundreds of medical images. We formulate a global problem based on interest point matching. The inter-patient variability is high, and the outliers ratio can be large (70\%). We pay a particular attention on inhibiting outliers contribution. Our first contribution is a two-step rigid groupwise registration. In the first step, we compute the pairwise rigid registration of each image pair. In a second step, a complete graph of those registrations allows us to formulate a global problem using the laplacian operator. We show experimental results for groups of up to 400 CT-scanner 3D heterogeneous images highlighting the robustness and speed of our approach. In our second contribution, we compute a non-rigid groupwise registration. Our approach involves half-transforms, parametrized by a b-spline pyramid, between each image and a common space. A reference dataset shows that our algorithm provides competitive results while being much faster than previous methods. Those results show the potential of our interest point based registration method for huge datasets of 3D medical images. We also provide to promising perspectives: multi-atlas based segmentation and anthropology.
610

La justice à l'épreuve des points de vue : repenser l'impartialité avec Thomas Nagel / Justice in the Test of Points of Views : rethinking Impartiality with Thomas Nagel

Desbiolles, Blondine 06 November 2018 (has links)
L’impartialité constitue une condition et un élément essentiels du concept de justice ; mais en quoi consiste-t-elle précisément ? Les théories de justice contemporaines tendent à l’aborder en termes strictement politiques, en laissant de côté ou en limitant ses aspects épistémologiques et moraux. Ce travail se propose d’exposer, d’analyser et de discuter de manière critique la manière dont Thomas Nagel aborde à nouveaux frais, à partir de sa thèse du conflit des perspectives, l’idée d’impartialité en termes à la fois épistémologiques, moraux et politiques. L’impartialité est en effet d’abord une affaire de jugement objectif et rationnel ; mais un tel jugement doit aussi tenir compte de la division des points de vue personnels et impersonnels en nous, ainsi que du pluralisme des raisons et des valeurs qu’elle engendre. Le concept d’impartialité requiert alors un examen attentif de cette division des perspectives, et des types ou degrés d’objectivité qui seraient possibles dans les débats tant moraux que politiques. Peut-on dégager des critères, des conditions, une méthode de l’impartialité ? Comment la garantir, au niveau moral mais aussi en termes politiques et distributifs ? Et quels principes, raisons ou valeurs une justice pleinement impartiale peut-elle avancer et promouvoir de manière cohérente et légitime ? À travers notre examen des thèses, originales et hybrides, de Thomas Nagel, nous défendons la nécessité de remonter à ces conditions et questions fondamentales afin d’élaborer une conception satisfaisante et réaliste de la justice impartiale. Une telle conception prend avec Nagel un visage libéral, démocratique, pluraliste et fortement égalitarien, qui est certes proche des théorisations de Rawls ou Scanlon, mais est façonné à partir de thèses originales et hybrides offrant des alternatives novatrices. Ces thèses, affinées et modifiées par Nagel au cours des années et souvent non encore traduites en français, n’avaient encore pas fait l’objet d’une étude francophone et spécialisée dans les débats contemporains autour des théorisations de la justice. Dans notre travail, nous en analysons les facettes épistémologiques, métaéthiques, éthiques, politiques et économiques, en mettant en perspective les conceptions de Nagel par rapport à celles des penseurs modernes et contemporains dont il se démarque, et en dégageant la manière dont ces thèses se combinent, se complètent, se limitent respectivement aussi parfois. À partir de l’analyse de ces différentes thèses, nous avançons des éléments de discussion critique et des prolongements du concept d’impartialité qui en résulte, ainsi que du type de justice sociale – libérale, pluraliste, fortement égalitarienne – qu’il porte. Nous défendons la perspective réaliste et rationaliste de Nagel, son refus de toute forme d’utopie et sa conception plurielle, hybride mais exigeante de l’impartialité, tout en prenant au sérieux les difficultés que ces thèses soulèvent et les points de blocage auxquels Nagel se heurte. Mais nous considérons que ces difficultés peuvent trouver, dans les options envisagées par Nagel et dans les éléments de critique que nous avançons dans notre thèse, des solutions ou du moins des pistes de résolution qui constituent autant de perspectives stimulantes pour prolonger l’effort philosophique au sujet de la justice, de l’impartialité et de l’équité, dans et pour le monde d’aujourd’hui. / Impartiality is an essential condition and element of the concept of justice. But what exactly is impartiality in itself? Contemporary theories of justice tend to approach it in strictly political terms, and to leave aside or to limit its epistemological and moral aspects. This work offers to expose, analyse and critically discuss the way Thomas Nagel, from his conception of the conflict of perspectives, renews the approach to the idea of impartiality in epistemological, moral and political terms. Indeed impartiality is first a matter of objective and rational judgment; but such a judgement must also take into account the division of personal and impersonal points of view within us, as well as the pluralism of reasons and values it creates. The concept of impartiality then requires a scrutiny of this division of perspectives, and of the types or degrees of objectivity that could be possible in both moral and political debates. Can we determine impartiality’s criteria, conditions or method? How are we to guarantee it, morally but also politically and distributively? Which principles, reasons or values can a fully impartial justice consistently and legitimately advance or promote? Through our examination of Thomas Nagel’s original and hybrid conceptions, we defend the necessity of going back to these fundamental conditions and questions in order to elaborate a satisfying and realistic conception of impartial justice. Such a conception takes in Nagel’s approach a liberal, democratic, pluralistic and strongly egalitarian shape. It is surely close to Rawls’ or Scanlon’s theorizations of justice, but it is based on original and hybrid theses that offer innovative alternatives. These theses, which Nagel refined and modified over years and which, for most of them, have not yet been translated into French, had not until then been studied in France with a specialized focus on contemporary debates around theories of justice. In our work, we analyse their epistemological, metaethical, ethical, political and economic aspects, while putting into perspective Nagel’s conceptions in relation to those of modern and contemporary thinkers whom he stands out. We also show and explain how his theses combine, complete but also sometimes limit each other. With this analyse, we offer elements of critical discussion and possible extensions of the concept impartiality hence built, as well as of the type of social justice – liberal, pluralist, strongly egalitarian – that it carries. We defend the realist and rationalist perspective of Nagel, his refusal of any form of utopia and his plural, hybrid but demanding conception of impartiality. We also take seriously the difficulties his theses raise and the blockings Nagel faces. But we consider that these difficulties can find, in the options he explores and in the critical elements we suggest in our dissertation, solutions or at least possible resolutions that constitute as many stimulating perspectives to pursue the philosophical effort about justice, impartiality and equity, within and for our actual world.

Page generated in 0.0662 seconds