1 |
Organisation de l'espace audiovisuel tridimensionnelZannoli, Marina 28 September 2012 (has links) (PDF)
Le terme stéréopsie renvoie à la sensation de profondeur qui est perçue lorsqu'une scène est vue de manière binoculaire. Le système visuel s'appuie sur les disparités horizontales entre les images projetées sur les yeux gauche et droit pour calculer une carte des différentes profondeurs présentes dans la scène visuelle. Il est communément admis que le système stéréoscopique est encapsulé et fortement contraint par les connexions neuronales qui s'étendent des aires visuelles primaires (V1/V2) aux aires intégratives des voies dorsales et ventrales (V3, cortex temporal inférieur, MT). A travers quatre projets expérimentaux, nous avons étudié comment le système visuel utilise la disparité binoculaire pour calculer la profondeur des objets. Nous avons montré que le traitement de la disparité binoculaire peut être fortement influencé par d'autres sources d'information telles que l'occlusion binoculaire ou le son. Plus précisément, nos résultats expérimentaux suggèrent que : (1) La stéréo de da Vinci est résolue par un mécanisme qui intègre des processus de stéréo classiques (double fusion), des contraintes géométriques (les objets monoculaires sont nécessairement cachés à un œil, par conséquent ils sont situés derrière le plan de l'objet caché) et des connaissances à priori (une préférence pour les faibles disparités). (2) Le traitement du mouvement en profondeur peut être influencé par une information auditive : un son temporellement corrélé avec une cible définie par le mouvement stéréo peut améliorer significativement la recherche visuelle. Les détecteurs de mouvement stéréo sont optimalement adaptés pour détecter le mouvement 3D mais peu adaptés pour traiter le mouvement 2D. (3) Grouper la disparité binoculaire avec un signal auditif dans une dimension orthogonale (hauteur tonale) peut améliorer l'acuité stéréo d'approximativement 30%
|
2 |
Organisation de l'espace audiovisuel tridimensionnel / Organisation of audio-visual three-dimensional spaceZannoli, Marina 28 September 2012 (has links)
Le terme stéréopsie renvoie à la sensation de profondeur qui est perçue lorsqu’une scène est vue de manière binoculaire. Le système visuel s’appuie sur les disparités horizontales entre les images projetées sur les yeux gauche et droit pour calculer une carte des différentes profondeurs présentes dans la scène visuelle. Il est communément admis que le système stéréoscopique est encapsulé et fortement contraint par les connexions neuronales qui s’étendent des aires visuelles primaires (V1/V2) aux aires intégratives des voies dorsales et ventrales (V3, cortex temporal inférieur, MT). A travers quatre projets expérimentaux, nous avons étudié comment le système visuel utilise la disparité binoculaire pour calculer la profondeur des objets. Nous avons montré que le traitement de la disparité binoculaire peut être fortement influencé par d’autres sources d’information telles que l’occlusion binoculaire ou le son. Plus précisément, nos résultats expérimentaux suggèrent que : (1) La stéréo de da Vinci est résolue par un mécanisme qui intègre des processus de stéréo classiques (double fusion), des contraintes géométriques (les objets monoculaires sont nécessairement cachés à un œil, par conséquent ils sont situés derrière le plan de l’objet caché) et des connaissances à priori (une préférence pour les faibles disparités). (2) Le traitement du mouvement en profondeur peut être influencé par une information auditive : un son temporellement corrélé avec une cible définie par le mouvement stéréo peut améliorer significativement la recherche visuelle. Les détecteurs de mouvement stéréo sont optimalement adaptés pour détecter le mouvement 3D mais peu adaptés pour traiter le mouvement 2D. (3) Grouper la disparité binoculaire avec un signal auditif dans une dimension orthogonale (hauteur tonale) peut améliorer l’acuité stéréo d’approximativement 30% / Stereopsis refers the perception of depth that arises when a scene is viewed binocularly. The visual system relies on the horizontal disparities between the images from the left and right eyes to compute a map of the different depth values present in the scene. It is usually thought that the stereoscopic system is encapsulated and highly constrained by the wiring of neurons from the primary visual areas (V1/V2) to higher integrative areas in the ventral and dorsal streams (V3, inferior temporal cortex, MT). Throughout four distinct experimental projects, we investigated how the visual system makes use of binocular disparity to compute the depth of objects. In summary, we show that the processing of binocular disparity can be substantially influenced by other types of information such as binocular occlusion or sound. In more details, our experimental results suggest that: (1) da Vinci stereopsis is solved by a mechanism that integrates classic stereoscopic processes (double fusion), geometrical constraints (monocular objects are necessarily hidden to one eye, therefore they are located behind the plane of the occluder) and prior information (a preference for small disparities). (2) The processing of motion-in-depth can be influenced by auditory information: a sound that is temporally correlated with a stereomotion defined target can substantially improve visual search. Stereomotion detectors are optimally suited to track 3D motion but poorly suited to process 2D motion. (3) Grouping binocular disparity with an orthogonal auditory signal (pitch) can increase stereoacuity by approximately 30%
|
3 |
Contrôle adaptatif, techniques de régularisation et applications en analyse d'images / Adaptive control, regularization techniques and their applications in imageAmur, Khua Bux 19 September 2011 (has links)
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik / An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
|
4 |
Contributions to accurate and efficient cost aggregation for stereo matchingChen, Dongming 12 March 2015 (has links)
Les applications basées sur 3D tels que les films 3D, l’impression 3D, la cartographie 3D, la reconnaissance 3D, sont de plus en plus présentes dans notre vie quotidienne; elles exigent une reconstruction 3D qui apparaît alors comme une technique clé. Dans cette thèse, nous nous intéressons à l’appariement stéréo qui est au coeur de l’acquisition 3D. Malgré les nombreuses publications traitant de l’appariement stéréo, il demeure un défi en raison des contraintes de précision et de temps de calcul: la conduite autonome requiert le temps réel; la modélisation d’objets 3D exige une précision et une résolution élevées. La méthode de pondération adaptative des pixels de support (adaptative-supportweight), basée sur le bien connu filtre bilatéral, est une méthode de l’état de l’art, de catégorie locale, qui en dépit de ses potentiels atouts peine à lever l’ambiguïté induite par des pixels voisins, de disparités différentes mais avec des couleurs similaires. Notre première contribution, à base de filtre trilatéral, est une solution pertinente qui tout en conservant les avantages du filtre bilatéral permet de lever l’ambiguïté mentionnée. Evaluée sur le corpus de référence, communément acceptée, Middlebury, elle se positionne comme étant la plus précise au moment où nous écrivons ces lignes. Malgré ces performances, la complexité de notre première contribution est élevée. Elle dépend en effet de la taille de la fenêtre support. Nous avons proposé alors une implémentation récursive du filtre trilatérale, inspirée par les filtres récursifs. Ici, les coûts bruts en chaque pixel sont agrégés à travers une grille organisée en graphe. Quatre passages à une dimension permettent d’atteindre une complexité en O(N), indépendante cette fois de la taille de la fenêtre support. C’est-à-dire des centaines de fois plus rapide que la méthode originale. Pour le calcul des pondérations des pixels du support, notre méthode basée sur le filtre trilatéral introduit un nouveau terme, qui est une fonction d’amplitude du gradient. Celui-ci est remarquable aux bords des objets, mais aussi en cas de changement de couleurs et de texture au sein des objets. Or, le premier cas est déterminant dans l’estimation de la profondeur. La dernière contribution de cette thèse vise alors à distinguer les contours des objets de ceux issus du changement de couleur au sein de l’objet. Les évaluations, sur Middlebury, prouvent l’efficacité de la méthode proposée. Elle est en effet plus précise que la méthode basée sur le filtre trilatéral d’origine, mais aussi d’autres méthodes locales. / 3D-related applications are becoming more and more popular in our daily life, such as 3D movies, 3D printing, 3D maps, 3D object recognition, etc. Many applications require realistic 3D models and thus 3D reconstruction is a key technique behind them. In this thesis, we focus on a basic problem of 3D reconstruction, i.e. stereo matching, which searches for correspondences in a stereo pair or more images of a 3D scene. Although various stereo matching methods have been published in the past decades, it is still a challenging task since the high requirement of accuracy and efficiency in practical applications. For example, autonomous driving demands realtime stereo matching technique; while 3D object modeling demands high quality solution. This thesis is dedicated to develop efficient and accurate stereo matching method. The well-known bilateral filter based adaptive support weight method represents the state-of-the-art local method, but it hardly sorts the ambiguity induced by nearby pixels at different disparities but with similar colors. Therefore, we proposed a novel trilateral filter based method that remedies such ambiguities by introducing a boundary strength term. As evaluated on the commonly accepted Middlebury benchmark, the proposed method is proved to be the most accurate local stereo matching method at the time of submission (April 2013). The computational complexity of the trilateral filter based method is high and depends on the support window size. In order to enhance its computational efficiency, we proposed a recursive trilateral filter method, inspired by recursive filter. The raw costs are aggregated on a grid graph by four one-dimensional aggregations and its computational complexity proves to be O(N), which is independent of the support window size. The practical runtime of the proposed recursive trilateral filter based method processing 375 _ 450 resolution image is roughly 260ms on a PC with a 3:4 GHz Inter Core i7 CPU, which is hundreds times faster than the original trilateral filter based method. The trilateral filter based method introduced a boundary strength term, which is computed from color edges, to handle the ambiguity induced by nearby pixels at different disparities but with similar colors. The color edges consist of two types of edges, i.e. depth edges and texture edges. Actually, only depth edges are useful for the boundary strength term. Therefore, we presented a depth edge detection method, aiming to pick out depth edges and proposed a depth edge trilateral filter based method. Evaluation on Middlebury benchmark proves the effectiveness of the proposed depth edge trilateral filter method, which is more accurate than the original trilateral filter method and other local stereo matching methods.
|
5 |
Couplage mouvements articulées - vision stéréoscopique : une approche projectiveRuf, Andreas 15 January 2001 (has links) (PDF)
Cette thèse propose un nouvel éclairage sur le couplage de la vision stéréoscopique avec le mouvement articulé. Elle développe tout particulièrement de nouvelles solutions s'appuyant sur la géométrie projective. Ceci permet notamment l'utilisation des caméras non-calibrées. La contribution de cette thèse est d'abord une nouvelle formulation géométrique du problème. Il en découle des solutions pratiques pour la modélisation, l'étalonnage, et la commande du système. Ces solutions suivent une approche "coordinate-free", généralisées en une approche "calibration-free". C'est à dire, elles sont indépendantes du choix des repères et de l'étalonnage des caméras. Sur le plan pratique, un tel système projectif peut fonctionner sans connaissance a priori, et l'auto-étalonnage projectif se fait de manière automatique. Les modèles proposés sont issues d'une unification projective de la géométrie du système plutôt que d'une stratification métrique. Pour un asservissement visuel, les modèles obtenus sont équivalents aux modèles classiques. D'autres questions pratiques ont ainsi pu être abordées d'une nouvelle manière: la commande de trajectoires visibles et méchaniquement realisables dans l'espace de travail entier. Sur le plan théorique, un cadre mathématique complet est introduit. Il donne à l'ensemble des objets impliqués dans un asservissement visuel une représentation projective. Sont notamment etudiés, l'action des joints rotoïdes et prismatiques, les mouvements rigides et articulés, ainsi que la notion associée de vitesse projective. Le calcul de ces représentations est de plus explicité.
|
6 |
Elaboration de biocatalyseurs artificiels à deux composantesNpetgat Ngoutane, Eloïne Arlette 13 December 2012 (has links)
Depuis quelques années on assiste au développement de nouveaux bio-catalyseurs qui sont des hybrides combinant les avantages de la catalyse organométallique (système robustes, efficaces, mais couteux) à ceux de la catalyse enzymatique (écologique, spécifique mais peu flexible). Parmi les différentes stratégies mises en œuvre pour créer des enzymes artificielles, aucune d'elles n'a jusqu'à présent véritablement envisagé d'utiliser l'activité d'une enzyme et de la combiner à celle d'un composé organique. C'est la nouvelle approche proposée dans ce travail pour tenter d'orienter l'activité catalytique d'une oxydase à fort potentiel industriel, la laccase. Les produits d'oxydation de la laccase sont des radicaux phénoxyls qui se recombinent dans le milieu sans contrôle de l'enzyme. Chez certaines plantes, des petites protéines nommées « dirigent proteins » interagissent avec les radicaux phénoxyls pour conduire à la formation d'un seul produit optiquement pur. Dans ce travail, nous avons tenté de mimer ces « dirigent proteins » en greffant une molécule cage de type cyclodextrine à proximité du site actif de la laccase. Dans un premier temps, nous avons réalisé la synthèse de modules organiques dits « plateformes » possédants a) un point d'attachement à l'enzyme, b) un groupement pour la purification des protéines fonctionnalisées et c) une cyclodextrine qui permet d'encapsuler un grand nombre de molécules organiques. Par des mesures de fluorescences et d'immuno-détection, nous avons identifié les conditions optimales de fonctionnalisation pour la laccase et ainsi validé sa dérivatisation. / In recent years we are witnessing the development of new bio-catalysts which are hybrids combining the advantages of organometallic catalysis (robust and efficient system, but expensive) to those of enzymatic catalysis (ecological, specific but not very flexible). Among the various strategies used to create artificial enzymes, none of them has yet seriously considered to combine an enzyme activity with that of an organic compound. This is the new approach proposed in this work to try to orient the catalytic activity of the laccase, an oxidase with an industrial potential. The oxidation products of the laccase are phénoxy radicals which recombine in the medium regardless of the activity of the enzyme. In some plants, small proteins called "dirigent proteins" interact with phénoxy radicals leading to the formation of a single optically pure product. In this work, we tried to mimic the "dirigent proteins" by grafting a cyclodextrin-cage molecule near the active site of the laccase. As a first step, we performed the synthesis of organic modules called "platforms" with a) an anchor point to the enzyme, b) a group for functionalized protein purification c) a cyclodextrin that encapsulates a large number of organic molecules. By fluorescence and immunodetection measurements, we identified the optimal conditions for laccase functionalization and thus validated its derivatization. Monitoring the oxidation of coniferyl alcohol by the functionalized laccase with a cyclodextrined platform highlights a change in the kinetic profiles of the substrate and products. This difference appears due to the location of the cyclodextrin near the substrate oxidation site.
|
7 |
Localisation robuste d'un véhicule en environnement urbain à partir d'un système de stéréo-visionSIMOND, Nicolas 01 July 2005 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la robotique mobile et plus précisément dans le cadre de la localisation de véhicules en environnement urbain. Notre tâche a consisté à extraire le maximum d'informations sur le déplacement d'un système de stéréo-vision non-calibré embarqué à bord d'un véhicule en s'appuyant sur l'environnement structuré que forme les rues. L'objectif de cette étude est d'estimer le déplacement d'un véhicule lorsque la configuration de l'environnement s'oppose à sa localisation par un système de géo-référencement satellitaire.<br /><br />Une modélisation polyhédrique des rues qui forment l'environnement urbain de cette étude permet de segmenter trois plans principaux : la route et les façades verticales des bâtiments qui délimitent l'espace de navigation. La segmentation du plan de la route est facilitée par la matérialisation des voies de navigation et autres trottoirs ou terre-pleins, parallèles entre eux au premier plan, qui sont à l'origine dans les images de contours qui convergent vers un point de fuite dominant.<br /><br />Les conditions d'illumination et la présence d'obstacles dynamiques qui obstruent le champ de vision compliquent la tâche de suivi des plans segmentés. L'emploi d'une paire stéréo permet à chaque nouvelle pose de déterminer quelles sont les régions des images qui correspondent aux plans segmentés en calculant l'homographie induite par chaque plan entre les deux images de la paire. Le déplacement du véhicule étant supposé plan, ses mouvements d'inclinaison et de lacet influent peu sur chacune des homographies estimées entre les images de la paire stéréo. Nous possédons ainsi un outil fiable de segmentation des plans principaux qui forment l'environnement.<br /><br />L'estimation du déplacement entre deux poses de chaque caméra consiste à estimer l'homographie induite par le mouvement relatif du plan considéré. Le calcul est entrepris grâce à la mise en correspondance des primitives (points, droites) détectées dans les régions planaires segmentées. La précision et la fiabilité des résultats dépendent essentiellement de la répartition spatiale des primitives mises en correspondance.<br /><br />L'introduction de la notion de super-homographie permet de robustifier les estimations des homographies en calculant de manière simultanée toutes les homographies induites par un même plan, observé dans plusieurs images. La redondance des contraintes imposées par le mouvement relatif des primitives coplanaires mises en correspondance améliore l'estimation du mouvement de la projection du plan dans les différentes images. L'apport de la super-homographie est double : elle permet de détecter d'éventuelles erreurs de mise en correspondance et fournit une estimée des coordonnées des primitives coplanaires avec une précision sub-pixellique. Lorsque la calibration de la paire stéréo est connue, la trajectographie du véhicule peut être estimée en décomposant l'homographie relative au mouvement d'une des caméras, extraite de la super-homographie.
|
8 |
Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplésNarasimha, Ramya 14 September 2010 (has links) (PDF)
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps.
|
9 |
Prototyping methodology of image processing applications on heterogeneous parallel systems / Méthodologie de prototypage d'applications de traitement d'image sur des systèmes parallèles hétérogènesZhang, Jinglin 19 December 2013 (has links)
Le travail présenté dans cette thèse s'inscrit dans un contexte de manipulation croissante d'images et de vidéo sur des systèmes embarqués parallèles. Les limitations et le manque de flexibilité dans la conception actuelle de ces systèmes font qu’il est de plus en plus compliqué de mettre en oeuvre les applications, en particulier lorsque le système est hétérogène. Or, non seulement Open Computing Language (OpenCL) est un nouveau cadre pour utiliser pleinement la capacité de calcul des processeurs généraux ou embarqués, mais, en outre, des outils de prototypage rapide sont disponibles pour la conception des systèmes, leur but étant de générer un prototype fiable ou de mettre en oeuvre de manière automatique les applications de traitement d’images et vidéo sur les systèmes embarqués. L'objectif général de cette thèse est d'évaluer et d'améliorer les processus de conception pour les systèmes embarqués, particulièrement ceux fondés sur des approches flot de données (haut niveau d’abstraction) et OpenCL (niveau intermédiaire d’abstraction). Cet objectif ambitieux fait l’objet de plusieurs projets dont le projet collaboratif COMPA, mettant en oeuvre les outils Orcc, Preesm et HMPP. Dans ce cadre, cette thèse vise à valider et évaluer ces outils sur des applications d'estimation de mouvement et d’appariement stéréo. Nous avons ainsi modélisé ces applications dans le langage hautniveau RVC-CAL. Puis, par le biais des trois outils Orcc, Preesm et HMPP, nous avons généré et vérifié du code C, OpenCL et CUDA, pour des plates-formes hétérogènes CPU multi-coeur et GPU. L’implémentation des algorithmes sur la puce embarquée MPPA multi-coeur (many-core) de la société KALRAY, a été étudiée. Pour atteindre l’objectif, nous avons proposé trois algorithmes. Le premier est un estimateur de mouvement parallélisé pour un système hétérogène constitué d’un CPU et d’un GPU : pour cette implantation, nous avons développé une méthode qui équilibre la répartition des charges entre CPU et GPU. Le second algorithme est une méthode d’appariement stéréo en temps réel : elle utilise une combinaison de fonctions de coût et une agrégation des coûts par pas d’itération carré ; nos résultats expérimentaux surpassent les autres méthodes en offrant un compromis intéressant entre la complexité de l’algorithme et sa précision. Le troisième algorithme est une méthode d’appariement stéréo basée sur le mouvement : elle utilise les vecteurs de mouvements issus du premier algorithme pour déterminer la région d’étude nécessaire pour le second algorithme ; nos résultats montrent que l’approche est particulièrement efficace lorsque les séquences de test sont riches en mouvement, même bruitées. / The work presented in this thesis takes place in a context of growing demand for image and video applications on parallel embedded systems. The limitations and lack of flexibility of current design with parallel embedded systems make increasingly complicated to implement applications, particularly on heterogeneous systems. But Open Computing Language (OpenCL) is a new framework for fully employ the capability of computation of general purpose processors or embedded processors. In the meantime, some rapid prototyping tools to design systems are proposed to generate a reliably prototype or automatically implement the image and video applications on embedded systems. The goal of this thesis was to evaluate and to improve design processes for embedded systems, especially based on the dataflow approach (high level of abstraction) and OpenCL approach (intermediate level of abstraction). This challenge is tackled by several projects including the collaborative project COMPA which studies a framework based on the Orcc, Preesm and HMPP tools. In this context, this thesis aims to validate and to evaluate the framework with motion estimation and stereo matching algorithms. For this aim, algorithms have been described using the high-level RVC-CAL language. With the help of Orcc, Preesm, and HMPP tools, we generated and verified C code or OpenCL code or CUDA code for heterogeneous platforms based on multi-core CPU and GPU. We also studied the implementations of these algorithms onto the last generation of many-core for embedded system called MPPA and developed by KALRAY. We proposed three algorithms. One is a parallelized motion estimation method for heterogeneous system based on one CPU and one GPU: we developed one basic method to balance the workload distribution on such heterogeneous system. The second algorithm is a real-time stereo matching method that adopts combined costs and costs aggregation with square size step to implement on laptop’s GPU platform: our experimental results outperform other baseline methods about tradeoff between matching accuracy and time-efficiency. The third algorithm is a joint motion-based video stereo matching method that uses the motion vectors calculated by the first algorithm to build the support region for the second algorithm: our experimental results outperform the stereo video matching methods in the test sequences with abundant movement even in large amounts of noise.
|
10 |
Quantification des processus d'érosion et de transport sur l' île de la Réunion à partir de données multisources / Quantification of erosion processus in La Réunion island (Indian Ocean) using multi-sources remotesensing dataLe Bivic, Réjanne 05 July 2017 (has links)
La morphologie de l’île tropicale volcanique de la Réunion (Océan Indien) est caractérisée par des vallées fortement incisées et des structures pluri-kilométriques particulières de forme circulaire appelées « cirques ». Ces morphologies sont présentes à la fois sur les flancs du volcan éteint, le Piton des Neiges, et sur les flancs du volcan en activité, le Piton de la Fournaise. Elles témoignent des processus d’érosion et de transport sédimentaire intenses qui s’y produisent. L’intensité de ces processus est liée à la fois au relief prononcé et aux évènements météorologiques extrêmes, les cyclones, durant lesquels de fortes pluies provoquent un ruissèlement important sur les versants et les crues des rivières. Ces crues, d’un débit qui peut atteindre plusieurs milliers de mètres cubes d’eau par seconde, sont responsables d’un transport important des sédiments vers la côte. Dans ce travail, nous avons testé des solutions permettant de mesurer des volumes sédimentaires érodés et transportés par l’utilisation de données de télédétection multi-sources. En effet l’intensité des crues ne permet pas une mesure précise des volumes sédimentaires transportés par les rivières durant les cyclones, les appareils de mesures classiques ne résistant pas à ces évènements très énergétiques. Nous avons donc développé des méthodologies d’acquisition et de traitement de la topographie par LiDAR terrestre et par imagerie optique acquises depuis un ULM. Ces deux techniques ont été mises en oeuvre sur le terrain en mai 2014 et en mai 2015. De plus, afin d’étendre la période temporelle des observations nous avons valorisé les données d’archives d’imagerie aérienne qui existent depuis 1949 sur l’île. Nous avons calculé des MNT diachroniques, et nous avons développé une méthodologie de corrélation d’images SPOT-5 en contexte tropical fortement végétalisé.Ces travaux ouvrent de nouvelles perspectives pour explorer le potentiel de la télédétection afin d’affiner les connaissances sur les volumes de sédiments érodés et transportés en contexte volcanique tropical. / The morphology of the tropical volcanic island of la Réunion (Indian Ocean) is characterized by deeply incised canyons and plurikilometric structures with a circular shape called cirques. These morphologies are present both on the slope of the extinct volcano, the Piton des Neiges, and the active volcano, the Piton de la Fournaise, and are the consequence of intense sedimentary erosion and transport processes. The intensity of these processes is linked to the pronounced surface relief and to extreme meteorological events, such as cyclones, during which heavy rainfall causes significant runoff on hillslopes and subsequent river floods. During extreme floods, flows can reach several thousands of cubic meters per second, and is the primary mechanism responsible for the transport of sediment to the seashore.The intensity of extreme floods makes precise measurements of the sedimentary volumes transported by rivers during cyclones difficult because typical in-situ measuring devices are not able to withstand such energetic events. In this work, novel solutions to measure eroded and transported sedimentary material using multi-source remote-sensing data are evaluated. Methods were developed to acquire and process topographic data using terrestrial LiDAR and optical imagery, with photographs acquired from a microlight. These techniques were implemented on the island in May 2014 and May 2015. Furthermore, in order to extend the temporal observation period, archived aerial images acquired since 1949 over the island were used. Diachronic DEMs were processed and a methodology for SPOT-5 image correlation in a densely vegetated tropical context was developed.This work opens new possibilities to explore the potential of remote-sensing techniques in order to better understand the erosion and transport of sediment volumes in this tropical volcanic context.
|
Page generated in 0.04 seconds