• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 44
  • 25
  • Tagged with
  • 194
  • 103
  • 46
  • 44
  • 39
  • 38
  • 30
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Rétines courbes : une approche bio-inspirée de simplification et miniaturisation des systèmes infrarouge / Curved retina : a bio-inspired approach to simplify and miniaturize infrared systems

Dumas, Delphine 08 December 2011 (has links)
Si dans les caméras actuelles, les matrices de photodétection sont planes, dans la nature, aucune surface focale n'est plane : la rétine est soit concave (œil humain), soit convexe (œil d'insecte). Ces architectures offrent deux solutions de miniaturisation et de simplification des systèmes de détection, qui ont fait l'objet des travaux de cette thèse. La courbure concave du détecteur permet de supprimer l'aberration de courbure de champ qui est particulièrement présente dans les instruments grand champ. L'étude théorique de cette solution, étayée par des applications concrètes, a permis de démontrer la simplification des architectures accessibles par cette approche, ainsi que les améliorations en termes de performances optiques. La courbure convexe permet quant à elle de miniaturiser les systèmes grand champ, en s'inspirant de l'œil composé des petits invertébrés. Cette architecture, constituée de groupes de pixels reliés par une métallisation souple, a été réalisée sur une matrice de détecteurs infrarouge en CdHgTe. Les composants obtenus sont fonctionnels et comparables en termes de performances aux valeurs standard. Ils ouvrent à la voie à des architectures grand champ extrêmement compactes. L'originalité du travail a porté sur la mise en forme sphérique de composants monolithiques, dont la couche active n'est pas modifiée, permettant ainsi de produire des systèmes avec un taux de remplissage de 100%. Après une étude de la souplesse d'échantillons de silicium aminci, le procédé de courbure a été transféré sur des composants fonctionnels: circuit de lecture Si-CMOS et matrice de micro-bolomètres infrarouge. La courbure concave des matrices de détection infrarouge de type micro-bolomètres, a mené à la réalisation de deux caméras. La première, constituée de deux lentilles du commerce, a permis de comparer les systèmes composés des détecteurs plan et courbe. Le gain lié à la courbure sphérique de la rétine sur l'uniformité de la réponse impulsionnelle a été prouvé grâce aux mesures de la fonction de transfert de contrastes (FTC). Enfin, à l'image d'un œil humain, un œil infrarouge composé d'une seule lentille et d'une matrice de micro-bolomètres courbée en concave a été réalisée. La qualité des images obtenues, ainsi que la FTC mesurée, ont mis en évidence le potentiel des plans focaux courbés pour des systèmes ultra-compacts, inenvisageables jusqu'à ce jour. / In natural world, plane retina, on which are based our cameras does not exist. The focal plane is either concave for human beings or convex in insects' eyes. Both curvatures offer novel solution to miniaturize and simplify the optical design, and both of them have been studied in this work.The concave curving of the focal plane suppresses one aberration, the field curvature, on which depends the image quality of large field of view instruments. Advantages in image quality and optical design have been studied by theoretical analysis and by real cases of instruments. The convex curvature results in a miniaturization achieved by reproducing the compound eye of small invertebrates. This design, which is composed of several groups of pixels interconnected by metallic lines, has been realized with cooled infrared detecting device. The performed detectors are still electrically functional with a comparable behaviour than conventional sensors. The originality of this work is the spherical curvature of monocrystalline and monolithic components; the active layer is not modified for this purpose. The process of curvature has been developed on thinned square silicon bare dies and then transferred to thinned functional devices: Si-CMOS and micro-bolometers. The concave curvature of bolometers leads to the realization of two cameras. The first one, composed of two commercial lenses, was dedicated to the comparison between a planar traditional camera and a curved detector system. Optical advantages, and especially the response uniformity, have been proved thanks to measures of the contrast modulation function (CMF). Finally, I have realized an infrared eye composed of a unique lens and a curved concave bolometer. Both the image quality obtained and CMF experiments proved the interest of the curved focal plane in miniaturized optical systems.
112

La fiction à la première personne en réalité virtuelle

Ragheb, Roula 05 1900 (has links)
No description available.
113

Visual monocular SLAM for minimally invasive surgery and its application to augmented reality / Localisation et cartographie simultanées par vision monoculaire pour la réalité médicale augmentée

Ali, Nader Mahmoud Elshahat Elsayed 19 June 2018 (has links)
La création d'informations 3D denses à partir d'images endoscopiques intraopératoires, ainsi que le calcul de la position relative de la caméra endoscopique, sont des éléments fondamentaux pour un guidage de qualité durant la chirurgie guidée par l'image. Par exemple, cela permet de superposer modèle pré-opératoire via la réalité augmentée. Cette thèse présente une approche pour l'estimation de ces deux information basées sur une approche de localisation et cartographie simultanées (SLAM). Nous découplons la reconstruction dense de l'estimation de la trajectoire de la caméra, aboutissant à un système qui combine la précision du SLAM, et une reconstruction plus complète. Les solutions proposées dans cette thèse ont été validées sur de séquences porcines provenant de différents ensembles de données. Ces solutions n'ont pas besoin de matériel de suivi externe ni d'intervention. Les seules entrées nécessaires sont les trames vidéo d'un endoscope monoculaire. / Recovering dense 3D information from intra-operative endoscopic images together with the relative endoscope camera pose are fundamental blocks for accurate guidance and navigation in image-guided surgery. They have several important applications, e.g., augmented reality overlay of pre-operative models. This thesis provides a systematic approach for estimating these two pieces of information based on a pure vision Simultaneous Localization And Mapping (SLAM). We decouple the dense reconstruction from the camera trajectory estimation, resulting in a system that combines the accuracy and robustness of feature-based SLAM with the more complete reconstruction of direct SLAM methods. The proposed solutions in this thesis have been validated on real porcine sequences from different datasets and proved to be fast and do not need any external tracking hardware nor significant intervention from medical staff. The sole input is video frames of a standard monocular endoscope.
114

Méthodes de reconstruction tridimensionnelle intégrant des points cycliques : application au suivi d’une caméra / Structure-from-Motion paradigms integrating circular points : application to camera tracking

Calvet, Lilian 23 January 2014 (has links)
Cette thèse traite de la reconstruction tridimensionnelle d’une scène rigide à partir d’une collection de photographies numériques, dites vues. Le problème traité est connu sous le nom du "calcul de la structure et du mouvement" (structure-and/from-motion) qui consiste à "expliquer" des trajectoires de points dits d’intérêt au sein de la collection de vues par un certain mouvement de l’appareil (dont sa trajectoire) et des caractéristiques géométriques tridimensionnelles de la scène. Dans ce travail, nous proposons les fondements théoriques pour étendre certaines méthodes de calcul de la structure et du mouvement afin d’intégrer comme données d’entrée, des points d’intérêt réels et des points d’intérêt complexes, et plus précisément des images de points cycliques. Pour tout plan projectif, les points cycliques forment une paire de points complexes conjugués qui, par leur invariance par les similitudes planes, munissent le plan projectif d’une structure euclidienne. Nous introduisons la notion de marqueurs cycliques qui sont des marqueurs plans permettant de calculer sans ambiguïté les images des points cycliques de leur plan de support dans toute vue. Une propriété de ces marqueurs, en plus d’être très "riches" en information euclidienne, est que leurs images peuvent être appariées même si les marqueurs sont disposés arbitrairement sur des plans parallèles, grâce à l’invariance des points cycliques. Nous montrons comment utiliser cette propriété dans le calcul projectif de la structure et du mouvement via une technique matricielle de réduction de rang, dite de factorisation, de la matrice des données correspondant aux images de points réels, complexes et/ou cycliques. Un sous-problème critique abordé dans le calcul de la structure et du mouvement est celui de l’auto-calibrage de l’appareil, problème consistant à transformer un calcul projectif en un calcul euclidien. Nous expliquons comment utiliser l’information euclidienne fournie par les images des points cycliques dans l’algorithme d’auto-calibrage opérant dans l’espace projectif dual et fondé sur des équations linéaires. L’ensemble de ces contributions est finalement utilisé pour une application de suivi automatique de caméra utilisant des marqueurs formés par des couronnes concentriques (appelés CCTags), où il s’agit de calculer le mouvement tridimensionnel de la caméra dans la scène à partir d’une séquence vidéo. Ce type d’application est généralement utilisé dans l’industrie du cinéma ou de la télévision afin de produire des effets spéciaux. Le suivi de caméra proposé dans ce travail a été conçu pour proposer le meilleur compromis possible entre flexibilité d’utilisation et précision des résultats obtenus. / The thesis deals with the problem of 3D reconstruction of a rigid scene from a collection of views acquired by a digital camera. The problem addressed, referred as the Structure-from-Motion (SfM) problem, consists in computing the camera motion (including its trajectory) and the 3D characteristics of the scene based on 2D trajectories of imaged features through the collection. We propose theoretical foundations to extend some SfM paradigms in order to integrate real as well as complex imaged features as input data, and more especially imaged circular points. Circular points of a projective plane consist in a complex conjugate point-pair which is fixed under plane similarity ; thus endowing the plane with an Euclidean structure. We introduce the notion of circular markers which are planar markers that allows to compute, without any ambiguity, imaged circular points of their supporting plane in all views. Aside from providing a very “rich” Euclidean information, such features can be matched even if they are arbitrarily positioned on parallel planes thanks to their invariance under plane similarity ; thus increasing their visibility compared to natural features. We show how to benefit from this geometric property in solving the projective SfM problem via a rank-reduction technique, referred to as projective factorization, of the matrix whose entries are images of real, complex and/or circular features. One of the critical issues in such a SfM paradigm is the self-calibration problem, which consists in updating a projective reconstruction into an euclidean one. We explain how to use the euclidean information provided by imaged circular points in the self-calibration algorithm operating in the dual projective space and relying on linear equations. All these contributions are finally used in an automatic camera tracking application relying on markers made up of concentric circles (called C2Tags). The problem consists in computing the 3D camera motion based on a video sequence. This kind of application is generally used in the cinema or TV industry to create special effects. The camera tracking proposed in this work in designed in order to provide the best compromise between flexibility of use and accuracy.
115

Reconnaissance d'objets en vision artificielle : application à la reconnaissance de piétons / Object recognition in machine vision : application to pedestrian recognition

Leyrit, Laetitia 22 November 2010 (has links)
Ce mémoire présente les travaux réalisés dans le cadre de ma thèse. Celle-ci a été menée dans le groupe GRAVIR (1) du LASMEA (2) au sein de l’équipe ComSee (3) qui se consacre à la vision par ordinateur. Ces travaux s’inscrivent dans le cadre d’un projet de l’Agence Nationale pour la Recherche s’intitulant « Logiciels d’Observation des Vulnérables ». Son but est de concevoir des logiciels détectant des piétons en danger et d’améliorer ainsi la sécurité routière. Ma thèse a pour but de détecter et de reconnaître les piétons dans les images. Celles-ci proviennent d’une caméra embarquée dans un véhicule circulant en milieu urbain. Ce cahier des charges implique de nombreuses contraintes. Il faut notamment obtenir un système fonctionnant en temps réel pour être capable de détecter les piétons avant un éventuel impact. De plus, ces piétons peuvent être sujets à de nombreuses variations (taille, type de vêtements...), ce qui rend la tâche de reconnaissance d’autant plus ardue. La caméra étant mobile, aucune information ne pourra être extraite du fond. Dans ma thèse, nous mettons en oeuvre différentes méthodes de vision par ordinateur, toutes basées apprentissage, qui permettent de répondre à ces attentes. Le problème se traite en deux phases. Dans un premier temps, une étape de traitement hors ligne nous permet de concevoir une méthode valide pour reconnaître des piétons. Nous faisons appel à une base d’apprentissage. Tout d’abord, un descripteur d’images est employé pour extraire des informations des images.Puis, à partir de ces informations, un classifieur est entraîné à différencier les piétons des autres objets. Nous proposons l’utilisation de trois descripteurs (ondelettes de Haar, histogrammes de gradients et descripteur binaire). Pour la classification, nous avons recours à un algorithme de Boosting (AdaBoost) et à des méthodes à noyaux (SVM, RVM, moindres carrés). Chaque méthode a été paramétrée, testée et validée, tant au niveau description d’images que classification.La meilleure association de toutes ces méthodes est également recherchée. Dans un second temps, nous développons un système embarqué temps réel, qui soit capable de détecter les piétons avant une éventuelle collision. Nous exploitons directement des images brutes en provenance de la caméra et ajoutons un module pour segmenter l’image, afin de pouvoir intégrer les méthodes de description et classification précédentes et ainsi répondre à la problématique initiale.1. acronyme de « Groupe d’Automatique, VIsion et Robotique ».2. acronyme de « LAboratoire des Sciences et Matériaux Et d’Automatique ».3. acronyme de « Computers that See ». / This thesis has been realized in the group GRAVIR (4) of the LASMEA (5) with the team Com-See (6), which works on computer vision. My research was involved in a projet of the « Agence Nationale pour la Recherche »nammed « Logiciels d’Observation des Vulnérables ». Its goal was to create softwares to detect endangered pedestrians and thus to improve road safety. My thesis aims to detect and to recognize pedestrians in images. These come from a camera embedded into a vehicle, which is driven in urban areas. These specifications involve many constraints. We have to obtain a real-time system for detect pedestrians before a possible collision. Moreover, pedestrians should be very variable (size, clothes, ...), which make the recognition more complicated. As the camera is moving, no information could be taken from the background. In my thesis, we implement several methods of computer vision, all based on a learning stage, which answer to all theses expectations. The problem is solved in two steps. Firstly, a off-line stage allows us to design a method able to recognize pedestrians. We use a learning database. First of all, an image descriptor is used to extract informations of the images.Then, from these informations, a classifior is trained to differentiate pedestrians to others objects. We suggest to use three descriptors (Haar wavelets, histograms of oriented gradients and binary descriptor). For the classification task, we use a Boosting algorithm (AdaBoost) and kernel methods (SVM, RVM, least squares). We define all the parameters, and each method - of description or classification - is then tested and validated. The best association of these methods is also searched. Secondly, we realize an embedded real-time system, which is able to detect pedestrians before a possible collision. We directly use raw images coming from the camera et add a segmentation stage, so as to insert previous description and classification méthods and thus to answer to the initial problem.4. for « Groupe d’Automatique, VIsion et Robotique ».5. for « LAboratoire des Sciences et Matériaux et d’Automatique ».6. for « Computers that See ».
116

L’automédiatisation, une autre forme de communication sociale / The « automédiatisation », another form of social communication

Amara, Mohamed 30 March 2012 (has links)
L’automédiatisation, comme une autre forme de communication sociale, est une démarche de médiatisation de groupes de parole par l’image vidéo. Dans un contexte de distorsion du lien social (chômage, solitude, repli sur soi…), il s’agit de s’interroger sur la place et le rôle de la caméra dans sa capacité à transformer les sujets individuels et collectifs lorsqu’ils portent un regard sur eux-mêmes et sur la société. Il s’agit aussi de questionner le rapport entre la caméra et le groupe de parole par l’intervention du tiers –médiatiseur (le filmeur). Pour appréhender la façon dont l’outil vidéo façonne, influence la parole des participants d’un groupe, quatre axes de travail se détachent :1) comprendre les relations entre les groupes de parole, la caméra et le filmeur pour participer à un mouvement d’émergence du sujet et à une transformation de la société 2) réfléchir aux capacités de transformation d’un outil, comme la caméra, sur les acteurs, pour sortir du manque de considération ou de l’exclusion3) créer et renforcer les liens entre les participants au sein des groupes et entre les groupes, grâce à l’influence de l’outil vidéo4) partir de l’interdisciplinarité pour appréhender les questions de difficultés de dialogue.A travers ces quatre axes de recherche, le travail de terrain a consisté à comprendre la mise en place d’une médiatisation par des acteurs, confrontés au « diktat » de l’image, car ces mêmes acteurs perçoivent la caméra d'abord comme une occasion de paraître à « l’écran », plus qu’un moyen de débattre des préoccupations quotidiennes ou d’investigation sociologique. C'est pourquoi il faut s'appuyer sur la dynamique du groupe et de ses acteurs pour comprendre en quoi la caméra suscite une communication sociale, et permet aux groupes de parole de réfléchir et de se réfléchir. Mais aussi la question principale : en quoi l’utilisation de la caméra dans le groupe fait-elle évoluer la capacité des participants à "s’auto-analyser" pour aller vers une construction commune, une transformation sociale ? / The automediatisation, as another form of social communication, is an approach of “médiatisation” of speech groups through video image. In a context of distortion of social cohesion (unemployment, loneliness, withdrawal…), we should tackle the question of the place and of the role of video camera in its ability to transform individual and collective subjects when they look at themselves and at society. I also question the relationship between video camera and the speech group through the intervention of a mediating third party (the person who films). In order to apprehend the way the video skill shapes, influences the speech of the participants to a group, four research axis will be followed:- Understanding the relationships between speech groups, the video camera and the person who films, in order to participate to a movement of emergence of the subject and to a transformation of society- Thinking about the capacities of transformation of a skill, like the video camera, on the actors, in order to go out of the miss of consideration or of exclusion.- Creating and enforcing links between participants within groups and between groups, thanks to the influence of the video skill.- Using interdisciplinarity to tackle the subject of difficulties in dialog. Through these four research axis, field work consisted in understanding the implementation of a “médiatisation” by the actors, who were confronted to the “diktat” of image, as these very actors first perceived video camera as an occasion to appear “on screen”, more than a way to discuss their daily concerns or as a skill for sociological investigation. That is why I had to rely on the dynamics of the group and of its actors, so as to understand how video camera creates a social communication, and allows speech groups to think, and to think about themselves. But also the main question: how does the use of video camera in the group allow the development of participant’s ability to analyze themselves, and go towards a common construction, a social transformation?
117

Exterior inspection of an aircraft using a Pan-Tilt-Zoom camera and a 3D scanner moved by a mobile robot : 2D image processing and 3D point cloud analysis / Inspection de l'extérieur d'un aéronef à partir d'une caméra Pan-Tilt-Zoom et d'un scanner 3D portés par un robot mobile : analyse d'images et de nuages de points 3D

Jovančević, Igor 21 November 2016 (has links)
Cette thèse s’inscrit dans le cadre d’un projet industriel multi-partenaires ayant pour objectif le développement d’un robot mobile collaboratif (un cobot), autonome dans ses mouvements au sol, capable de réaliser l’inspection visuelle d’un aéronef, à la fois en phase de petite ou grande maintenance dans un hangar ou en phase de pré-vol sur le tarmac d’un aéroport. Le cobot est équipé de capteurs lui permettant d’effectuer ses tâches de navigation autonome, mais également d’un ensemble de capteurs optiques constituant la tête d’inspection : une caméra orientable Pan-Tilt-Zoom et un scanner 3D qui délivrent respectivement des données sous forme d’images 2D et de nuages de points 3D. L’objectif de la thèse est de développer des algorithmes d’analyse d’images 2D et de nuages de points 3D, afin d’établir un diagnostic sur l’état de l’avion et son aptitude à voler. Nous avons développé des algorithmes pour vérifier certains éléments de l’appareil, tels que valves, portes, capteurs, pneus ou moteurs, et également pour détecter et caractériser des dommages 3D sur le fuselage (impacts, rayures, etc.). Nous avons exploité dans nos algorithmes les connaissances a priori disponibles, en particulier le modèle 3D CAO de l’avion (un AIRBUS A320 dans le cadre de nos essais). Durant ces travaux de la thèse, nous avons pu répondre à deux besoins (parfois antagonistes) : développer des algorithmes d’inspection rapides et robustes, mais également répondre aux exigences spécifiques d’un projet industriel qui visait à développer un prototype opérationnel. Nous nous sommes attachés à développer des algorithmes les plus génériques possibles, de manière à ce qu’ils puissent être utilisés pour d’autres types d’inspection, tels que l’inspection de bâtiments ou de navires par exemple. Nous avons aussi contribué au développement du prototype (robot mobile équipé de capteurs) en développant le module de contrôle des capteurs d’inspection et en intégrant nos codes sur le robot avec les autres modules développés par les partenaires. Le prototype a fait l’objet de nombreux essais en hangar de maintenance ou sur tarmac. / This thesis makes part of an industry oriented multi-partners project aimed at developing a mobile collaborative robot (a cobot), autonomous in its movements on the ground, capable of performing visual inspection of an aircraft during short or long maintenance procedures in the hangar or in the pre-flight phase on the tarmac. The cobot is equipped with sensors for realizing its navigation tasks as well as with a set of optical sensors which constitute the inspection head: an orientable Pan-Tilt-Zoom visible light camera and a three-dimensional scanner, delivering data in the format of two-dimensional images and three-dimensional point clouds, respectively. The goal of the thesis is to propose original approaches for processing 2D images and 3D clouds, with intention to make a decision with respect to the flight readiness of the airplane. We developed algorithms for verification of the aircraft items such as vents, doors, sensors, tires or engine as well as for detection and characterization of three-dimensional damages on the fuselage. We integrated a-priori knowledge on the airplane structure, notably numerical three-dimensional CAD model of the Airbus-A320. We argue that with investing effort to develop robust enough algorithms and with the help of existing optical sensors to acquire suitable data, we can come up with non-invasive, accurate, and time-efficient system for automatic airplane exterior inspection. The thesis work was placed in between two main requirements: develop inspection algorithms which could be as general as possible and also meet the specific requirements of an industry oriented project. Often, these two goals do not go along and the balance had to be made. On one side, we were aiming to design and assess the approaches that can be employed on other large structures, for ex. buildings, ships. On the other hand, writing source code for controlling sensors as well as integrating our whole developed source code with other modules on the real-time robotic system, were necessary in order to demonstrate the feasibility of our robotic prototype.
118

Unconstrained Gaze Estimation Using RGB-D Camera. / Estimation du regard avec une caméra RGB-D dans des environnements utilisateur non-contraints

Kacete, Amine 15 December 2016 (has links)
Dans ce travail, nous avons abordé le problème d’estimation automatique du regard dans des environnements utilisateur sans contraintes. Ce travail s’inscrit dans la vision par ordinateur appliquée à l’analyse automatique du comportement humain. Plusieurs solutions industrielles sont aujourd’hui commercialisées et donnent des estimations précises du regard. Certaines ont des spécifications matérielles très complexes (des caméras embarquées sur un casque ou sur des lunettes qui filment le mouvement des yeux) et présentent un niveau d’intrusivité important, ces solutions sont souvent non accessible au grand public. Cette thèse vise à produire un système d’estimation automatique du regard capable d’augmenter la liberté du mouvement de l’utilisateur par rapport à la caméra (mouvement de la tête, distance utilisateur-capteur), et de réduire la complexité du système en utilisant des capteurs relativement simples et accessibles au grand public. Dans ce travail, nous avons exploré plusieurs paradigmes utilisés par les systèmes d’estimation automatique du regard. Dans un premier temps, Nous avons mis au point deux systèmes basés sur deux approches classiques: le premier basé caractéristiques et le deuxième basé semi apparence. L’inconvénient majeur de ces paradigmes réside dans la conception des systèmes d'estimation du regard qui supposent une indépendance totale entre l'image d'apparence des yeux et la pose de la tête. Pour corriger cette limitation, Nous avons convergé vers un nouveau paradigme qui unifie les deux blocs précédents en construisant un espace regard global, nous avons exploré deux directions en utilisant des données réelles et synthétiques respectivement. / In this thesis, we tackled the automatic gaze estimation problem in unconstrained user environments. This work takes place in the computer vision research field applied to the perception of humans and their behaviors. Many existing industrial solutions are commercialized and provide an acceptable accuracy in gaze estimation. These solutions often use a complex hardware such as range of infrared cameras (embedded on a head mounted or in a remote system) making them intrusive, very constrained by the user's environment and inappropriate for a large scale public use. We focus on estimating gaze using cheap low-resolution and non-intrusive devices like the Kinect sensor. We develop new methods to address some challenging conditions such as head pose changes, illumination conditions and user-sensor large distance. In this work we investigated different gaze estimation paradigms. We first developed two automatic gaze estimation systems following two classical approaches: feature and semi appearance-based approaches. The major limitation of such paradigms lies in their way of designing gaze systems which assume a total independence between eye appearance and head pose blocks. To overcome this limitation, we converged to a novel paradigm which aims at unifying the two previous components and building a global gaze manifold, we explored two global approaches across the experiments by using synthetic and real RGB-D gaze samples.
119

Analyse d'images couleurs pour le contrôle qualité non destructif / Color images analysis for non-destructive quality control

Harouna Seybou, Aboubacar 23 September 2016 (has links)
La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance. / Color is a major criterion for many sectors to identify, to compare or simply to control the quality of products. This task is generally assumed by a human operator who performs a visual inspection. Unfortunately, this method is unreliable and not repeatable due to the subjectivity of the operator. To avoid these limitations, a RGB camera can be used to capture and extract the photometric properties. This method is simple to deploy and permits a high speed control. However, it's very sensitive to the metamerism effects. Therefore, the reflectance measurement is the more reliable solution to ensure the conformity between samples and a reference. Thus in printing industry, spectrophotometers are used to measure uniform color patches printed on a lateral band. For a control of the entire printed surface, multispectral cameras are used to estimate the reflectance of each pixel. However, they are very expensive compared to conventional cameras. In this thesis, we study the use of an RGB camera for the spectral reflectance estimation in the context of printing. We propose a complete spectral description of the reproduction chain to reduce the number of measurements in the training stages and to compensate for the acquisition limitations. Our first main contribution concerns the consideration of the colorimetric limitations in the spectral characterization of a camera. The second main contribution is the exploitation of the spectral printer model in the reflectance estimation methods.
120

Caméras 3D pour la localisation d'un système mobile en environnement urbain / 3D cameras for the localization of a mobile platform in urban environment

Mittet, Marie-Anne 15 June 2015 (has links)
L’objectif de la thèse est de développer un nouveau système de localisation mobile composé de trois caméras 3D de type Kinect et d’une caméra additionnelle de type Fish Eye. La solution algorithmique est basée sur l’odométrie visuelle et permet de calculer la trajectoire du mobile en temps réel à partir des données fournies par les caméras 3D. L’originalité de la méthodologie réside dans l’exploitation d’orthoimages créées à partir des nuages de points acquis en temps réel par les trois caméras. L’étude des différences entre les orthoimages successives acquises par le système mobile permet d’en déduire ses positions successives et d’en calculer sa trajectoire. / The aim of the thesis is to develop a new kind of localization system, composed of three 3D cameras such as Kinect and an additional Fisheye camera. The localization algorithm is based on Visual Odometry principles in order to calculate the trajectory of the mobile platform in real time from the data provided by the 3D cameras.The originality of the processing method lies within the exploitation of orthoimages processed from the point clouds that are acquired in real time by the three cameras. The positions and trajectory of the mobile platform can be derived from the study of the differences between successive orthoimages.

Page generated in 0.0301 seconds