1 |
Développement d'un pixel innovant de type "temps de vol" pour des capteurs d'images 3D-CMOS / 3D image sensor, Time of flight pixel, Continuous-Wave modulation, buried channel transfer gate, gradual epitaxial layerRodrigues Gonçalves, Boris 09 January 2018 (has links)
Dans l'objectif de développer des nouveaux capteurs d'image 3D pour des applications émergeantes, nous avons étudié un pixel de mesure de distance de type « temps de vol ». Nous avons proposé une nouvelle architecture de pixel basée sur la méthode « Continuous-Wave modulation » à trois échantillons par pixel. Cette méthode repose sur la mesure d'un déphasage entre la source lumineuse modulée en amplitude envoyée (source proche infrarouge) et le signal réfléchi par la scène à capturer. Le pixel de dimensions 6,2μm x 6,2μm intègre une photodiode pincée, trois chemins de transfert de charges pour l'échantillonnage successif du signal modulé reçu, et d'un quatrième chemin pour évacuer les charges excédentaires. Les différents chemins de transfert sont constitués d'une grille de transfert de charges de la photodiode vers une mémoire de stockage à canal enterré pour améliorer le rendement et la vitesse de transfert de charges; d'une mémoire à stockage en volume à base de tranchées capacitives profondes afin d'augmenter la dynamique; d'un substrat dont l'épaisseur et le profil de dopage ont été optimisés afin de collecter efficacement les charges photogénérées et ainsi augmenter les performances de démodulation. Un véhicule de test constitué d'une matrice de résolution de 464x197 pixels (QVGA) a été fabriqué, différentes variantes de pixels et différents essais technologiques ont été étudiées et analysées. La fonctionnalité du pixel a été vérifiée pour des fréquences de démodulation de 20MHz à 165MHz, utilisant une source laser de longueur d'onde 850nm ou 950nm. Une première image de profondeur acquise utilisant une matrice de test est une validation du pixel proposé / In order to develop new 3D image sensors for emerging applications, we studied “time of flight” pixel for distance measurement. We have proposed a new pixel architecture based on the "Continuous-Wave Modulation" method with three samples per pixel. This method is based on the measurement of a phase shift between the transmitted amplitude modulated light source (near-infrared source) and the signal reflected by the scene to be captured. The pixel of dimensions 6.2 μm x 6.2 μm integrates a pinned photodiode, three charge transfer paths for successive sampling of the received modulated signal, and a fourth path for anti-blooming purpose. The different paths are controlled by a buried-channel transfer gate for charges transfer from the photodiode to memory in order to improve the efficiency and speed of the charge transfer; A fully depleted memory based on capacitive deep trenches is used to increase the memory storage capacitance; thickness and doping profile of the substrate have been optimized to efficiently collect photogenerated and increase demodulation performance. The designed 464x197-pixel (QVGA) test chip has been fabricated, different pixel variants and different technology trials have been studied and analyzed. Pixel functionality has been verified for demodulation frequencies from 20 to 165MHz, using a laser source of wavelength 850nm or 950nm. A first acquired depth image using the test chip made is a validation of the proposed pixel
|
2 |
Algorithmes, architecture et éléments optiques pour l'acquisition embarquées d'images totalement focalisées et annotées en distance / Algorithms, architecture and optics components for embedded All-in-Focus and distance-annoted image acquision systemEmberger, Simon 13 December 2017 (has links)
L'acquisition de la profondeur d'une scène en plus de son image est une caractéristique souhaitable pour de nombreuses applications qui dépendent de l'environnement proche. L'état de l'art dans le domaine de l'extraction de profondeur propose de nombreuses méthodes, mais très peu sont réellement adaptées aux systèmes embarqués miniaturisés. Certaines parce qu'elles sont trop encombrantes en raison de leur système optique, d'autres parce qu'elles nécessitent une calibration délicate, ou des méthodes de reconstructions difficilement implantables dans un système embarqué. Dans cette thèse nous nous concentrons sur des méthodes a faible complexité matérielle afin de proposer une solution algorithmique et optique pour réaliser un capteur permettant à la fois d'extraire la profondeur de la scène, de fournir une évaluation de pertinence de cette mesure et de proposer des images focalisées en tout point. Dans ce sens, nous montrons que les algorithmes du type Depth from Focus (DfF) sont les plus adaptés à ces contraintes. Ce procédé consiste à acquérir un cube d'images multi-focus d'une même scène pour différentes distances de focalisation. Les images sont analysées afin d'annoter chacune des zones de la scène d'un indice relatif à sa profondeur estimée. Cet indice est utilisé pour reconstruire une image nette en tout point.Nous avons travaillé sur la notion de netteté afin de proposer des solutions peu complexes, uniquement basées sur des additions et comparaisons, et de fait, facilement adaptables pour un portage sur une architecture matérielle. La solution proposée effectue une analyse bidirectionnelle de contraste local puis combine les meilleures estimations de profondeur en fin de traitement. Elle se décline en trois approches avec une restriction de la complexité de plus en plus forte et ainsi une aptitude de plus en plus marquée pour l'embarqué. Pour chaque méthode, des cartes de profondeurs et de confiances sont établies, ainsi qu'une image totalement focalisée constituée d'éléments issus de l'ensemble du cube multi-focus. Ces approches sont comparées en qualité et en complexité à d'autres méthodes de l'état de l'art de complexité similaire. Une architecture est proposée pour une implantation matérielle de la solution la plus prometteuse. La conception de ces algorithmes soulève le problème de la qualité d'image. Il est en effet primordial d'avoir une évolution remarquable du contraste ainsi qu'une invariance de la scène lors de la capture du cube multi-focus. Un effet très souvent négligé dans ce type d'approche est le zoom parasite provoqué par la lentille responsable de la variation de focus. Ce zoom de focalisation fragilise l'aspect invariance de la scène et provoque l'apparition d'artefacts sur les trois informations Profondeur, Image et Confiance. La recherche d'optiques adaptées au DfF constitue donc un second axe de ces travaux. Nous avons évalué des lentilles liquides industrielles et des lentilles modales expérimentales à cristaux liquides nématiques conçues durant cette thèse. Ces technologies ont été comparées en termes de rapidité, de qualité d'image, d'intensité de zoom de focalisation engendré, de tension d'alimentation et enfin de qualité des cartes de profondeur extraites et des images totalement focalisées reconstruites.La lentille et l'algorithme répondant le mieux à cette problématique DfF embarqué ont ensuite été évalués via le portage sur une plateforme de développement CPU-GPU permettant l'acquisition d'images et de cartes de profondeurs et de confiances en temps réel. / Acquiring the depth of a scene in addition to its image is a desirable feature for many applications which depend on the near environment. The state of the art in the field of depth extraction offers many methods, but very few are well adapted to small embedded systems. Some of them are too cumbersome because of their large optical system. Others might require a delicate calibration or processing methods which are difficult to implement in an embedded system. In this PhD thesis, we focus on methods with low hardware complexity in order to propose algorithms and optical solutions that extract the depth of the scene, provide a relevance evaluation of this measurement and produce all-in-focus images. We show that Depth from Focus (DfF) algorithms are the most adapted to embedded electronics constraints. This method consists in acquiring a cube of multi-focus images of the same scene for different focusing distances. The images are analyzed in order to annotate each zone of the scene with an index relative to its estimated depth. This index is then used to build an all in focus image. We worked on the sharpness criterion in order to propose low complexity solutions, only based on additions and comparisons, easily adaptable on a hardware architecture. The proposed solution uses bidirectional local contrast analysis and then combines the most relevant depth estimations based on detection confidence at the end of treatment. It is declined in three approaches which need less and less processing and thus make them more and more adapted for a final embedded solution. For each method, depth and confidence maps are established, as well as an all-in-focus image composed of elements from the entire multi-focus cube. These approaches are compared in quality and complexity with other state-of-the-art methods which present similar complexity. A hardware implementation of the best solution is proposed. The design of these algorithms raises the problem of image quality. It is indeed essential to have a remarkable contrast evolution as well as a motionless scene during the capture of the multi-focus cube. A very often neglected effect in this type of approach is the parasitic zoom caused by the lens motion during a focus variation. This "focal zoom" weakens the invariance aspect of the scene and causes artifacts on the depth and confidence maps and on the all in focus image. The search for optics adapted to DfF is thus a second line of research in this work. We have evaluated industrial liquid lenses and experimental nematic liquid crystal modal lenses designed during this thesis. These technologies were compared in terms of speed, image quality, generated focal zoom intensity, power supply voltage and finally the quality of extracted depth maps and reconstructed all in focus images. The lens and the algorithm which best suited this embedded DfF issue were then evaluated on a CPU-GPU development platform allowing real time acquisition of depth maps, confidence maps and all in focus images.
|
Page generated in 0.0738 seconds