• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 34
  • 19
  • Tagged with
  • 125
  • 125
  • 125
  • 125
  • 108
  • 108
  • 66
  • 65
  • 60
  • 58
  • 55
  • 45
  • 40
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

De la segmentation au moyen de graphes d'images de muscles striés squelettiques acquises par RMN

Baudin, Pierre-Yves 23 May 2013 (has links) (PDF)
La segmentation d'images anatomiques de muscles striés squelettiques acquises par résonance magnétique nucléaire (IRM) présente un grand intérêt pour l'étude des myopathies. Elle est souvent un préalable nécessaire pour l'étude les mécanismes d'une maladie, ou pour le suivi thérapeutique des patients. Cependant, le détourage manuel des muscles est un travail long et fastidieux, au point de freiner les recherches cliniques qui en dépendent. Il est donc nécessaire d'automatiser cette étape. Les méthodes de segmentation automatique se basent en général sur les différences d'aspect visuel des objets à séparer et sur une détection précise des contours ou de points de repère anatomiques pertinents. L'IRM du muscle ne permettant aucune de ces approches, la segmentation automatique représente un défi de taille pour les chercheurs. Dans ce rapport de thèse, nous présentons plusieurs méthodes de segmentation d'images de muscles, toutes en rapport avec l'algorithme dit du marcheur aléatoire (MA). L'algorithme du MA, qui utilise une représentation en graphe de l'image, est connu pour être robuste dans les cas où les contours des objets sont manquants ou incomplets et pour son optimisation numérique rapide et globale. Dans sa version initiale, l'utilisateur doit d'abord segmenter de petites portions de chaque région de l'image, appelées graines, avant de lancer l'algorithme pour compléter la segmentation. Notre première contribution au domaine est un algorithme permettant de générer et d'étiqueter automatiquement toutes les graines nécessaires à la segmentation. Cette approche utilise une formulation en champs aléatoires de Markov, intégrant une connaissance à priori de l'anatomie et une détection préalable des contours entre des paires de graines. Une deuxième contribution vise à incorporer directement la connaissance à priori de la forme des muscles à la méthode du MA. Cette approche conserve l'interprétation probabiliste de l'algorithme original, ce qui permet de générer une segmentation en résolvant numériquement un grand système linéaire creux. Nous proposons comme dernière contribution un cadre d'apprentissage pour l'estimation du jeu de paramètres optimaux régulant l'influence du terme de contraste de l'algorithme du MA ainsi que des différents modèles de connaissance à priori. La principale difficulté est que les données d'apprentissage ne sont pas entièrement supervisées. En effet, l'utilisateur ne peut fournir qu'une segmentation déterministe de l'image, et non une segmentation probabiliste comme en produit l'algorithme du MA. Cela nous amène à faire de la segmentation probabiliste optimale une variable latente, et ainsi à formuler le problème d'estimation sous forme d'une machine à vecteurs de support latents (latent SVM). Toutes les méthodes proposées sont testées et validées sur des volumes de muscles squelettiques acquis par IRM dans un cadre clinique.
72

Real-time Traffic State Prediction: Modeling and Applications

Chen, Hao 12 June 2014 (has links)
Travel-time information is essential in Advanced Traveler Information Systems (ATISs) and Advanced Traffic Management Systems (ATMSs). A key component of these systems is the prediction of the spatiotemporal evolution of roadway traffic state and travel time. From the perspective of travelers, such information can result in better traveler route choice and departure time decisions. From the transportation agency perspective, such data provide enhanced information with which to better manage and control the transportation system to reduce congestion, enhance safety, and reduce the carbon footprint of the transportation system. The objective of the research presented in this dissertation is to develop a framework that includes three major categories of methodologies to predict the spatiotemporal evolution of the traffic state. The proposed methodologies include macroscopic traffic modeling, computer vision and recursive probabilistic algorithms. Each developed method attempts to predict traffic state, including roadway travel times, for different prediction horizons. In total, the developed multi-tool framework produces traffic state prediction algorithms ranging from short – (0~5 minutes) to medium-term (1~4 hours) considering departure times up to an hour into the future. The dissertation first develops a particle filter approach for use in short-term traffic state prediction. The flow continuity equation is combined with the Van Aerde fundamental diagram to derive a time series model that can accurately describe the spatiotemporal evolution of traffic state. The developed model is applied within a particle filter approach to provide multi-step traffic state prediction. The testing of the algorithm on a simulated section of I-66 demonstrates that the proposed algorithm can accurately predict the propagation of shockwaves up to five minutes into the future. The developed algorithm is further improved by incorporating on- and off-ramp effects and more realistic boundary conditions. Furthermore, the case study demonstrates that the improved algorithm produces a 50 percent reduction in the prediction error compared to the classic LWR density formulation. Considering the fact that the prediction accuracy deteriorates significantly for longer prediction horizons, historical data are integrated and considered in the measurement update in the developed particle filter approach to extend the prediction horizon up to half an hour into the future. The dissertation then develops a travel time prediction framework using pattern recognition techniques to match historical data with real-time traffic conditions. The Euclidean distance is initially used as the measure of similarity between current and historical traffic patterns. This method is further improved using a dynamic template matching technique developed as part of this research effort. Unlike previous approaches, which use fixed template sizes, the proposed method uses a dynamic template size that is updated each time interval based on the spatiotemporal shape of the congestion upstream of a bottleneck. In addition, the computational cost is reduced using a Fast Fourier Transform instead of a Euclidean distance measure. Subsequently, the historical candidates that are similar to the current conditions are used to predict the experienced travel times. Test results demonstrate that the proposed dynamic template matching method produces significantly better and more stable prediction results for prediction horizons up to 30 minutes into the future for a two hour trip (prediction horizon of two and a half hours) compared to other state-of-the-practice and state-of-the-art methods. Finally, the dissertation develops recursive probabilistic approaches including particle filtering and agent-based modeling methods to predict travel times further into the future. Given the challenges in defining the particle filter time update process, the proposed particle filtering algorithm selects particles from a historical dataset and propagates particles using data trends of past experiences as opposed to using a state-transition model. A partial resampling strategy is then developed to address the degeneracy problem in the particle filtering process. INRIX probe data along I-64 and I-264 from Richmond to Virginia Beach are used to test the proposed algorithm. The results demonstrate that the particle filtering approach produces less than a 10 percent prediction error for trip departures up to one hour into the future for a two hour trip. Furthermore, the dissertation develops an agent-based modeling approach to predict travel times using real-time and historical spatiotemporal traffic data. At the microscopic level, each agent represents an expert in the decision making system, which predicts the travel time for each time interval according to past experiences from a historical dataset. A set of agent interactions are developed to preserve agents that correspond to traffic patterns similar to the real-time measurements and replace invalid agents or agents with negligible weights with new agents. Consequently, the aggregation of each agent's recommendation (predicted travel time with associated weight) provides a macroscopic level of output – predicted travel time distribution. The case study demonstrated that the agent-based model produces less than a 9 percent prediction error for prediction horizons up to one hour into the future. / Ph. D.
73

Mise en correspondance stéréoscopique par approches variationnelles convexes ; application à la détection d'obstacles routiers

Souid-Miled, Wided 17 December 2007 (has links) (PDF)
Cette thèse porte sur la mise en correspondance stéréoscopique ainsi que sur son application à la détection des obstacles routiers à partir d'un système de vision stéréoscopique. La mise en correspondance est une étape cruciale dans la reconstruction de la structure tridimensionnelle de la scène observée. Elle consiste à retrouver les pixels homologues dans deux images prises de deux points de vue différents, et se ramène à un problème d'estimation d'un champ de disparité. La première partie de ma thèse a porté sur l'estimation de la disparité, dans le cadre d'une approche ensembliste, en minimisant une fonction objective convexe sur l'intersection d'ensembles convexes, construits à partir des connaissances a priori et des observations. Dans la plupart des applications de stéréovision, le champ de disparité doit être lisse dans les zones homogènes et les zones faiblement texturées. L'une de nos contributions a consisté à proposer différentes contraintes de régularisation satisfaisant cette propriété. Pour résoudre le problème d'optimisation considéré, nous utilisons un algorithme efficace itératif par bloc. La deuxième partie traite du problème d'estimation de la disparité en présence de changements d'illumination dans la scène observée. Nous considérons pour cela un modèle d'illumination multiplicatif qui permet de compenser les variations spatiales de luminosité de la scène. Enfin, dans la troisième partie, nous appliquons notre méthode d'estimation de la disparité robuste aux variations d'illumination pour la détection des obstacles routiers.
74

Quelques outils de géométrie différentielle pour la construction automatique de modèles CAO à partir d'images télémétriques

Goulette, François 14 March 1997 (has links) (PDF)
Au niveau des grandes architectures industrielles, il existe un besoin de plans CAO précis de l'existant. A l'heure actuelle, ces plans peuvent être construits à partir de la technologie de la photogrammétrie, technique lente et coûteuse basée sur la prise de photos de plusieurs points de vue des structures dans l'espace. Une technologie récente, la télémétrie laser, permet d'obtenir directement des images denses de points tridimensionnels scannés sur les surfaces des objets. Un logiciel permet ensuite de construire un modèle CAO plaqué au mieux sur les points de mesure. La difficulté principale de la construction du modèle CAO à partir des images télémétriques réside dans la faculté de segmenter les images de points en sous-ensembles correspondant chacun à une primitive géométrique unique (cylindre, tore, sphère, cône ou plan, principalement). Ce problème étant particulièrement difficile à résoudre, le logiciel actuel fait appel à l'opérateur qui effectue interactivement cette segmentation à l'écran. L'objectif de la thèse était d'explorer les possibilités d'automatisation de ce travail. Dans un premier temps, l'étude s'est limitée aux ensembles de tuyauteries, représentant la majeure partie des scènes observées. Ces ensembles peuvent être modélisés par les seules primitives de cylindres, tores et cônes. L'approche proposée consiste à segmenter les tuyauteries en utilisant les centres de courbure locaux des surfaces observées. Ces centres de courbure dessinent des lignes dans l'espace 3D, qu'il est facile de segmenter et à partir desquelles on peut remonter à l'image de départ. Pour calculer les centres de courbure, il a été nécessaire d'effectuer une étude théorique de l'algorithme de calcul de courbures principales sur des surfaces de points discrets dans l'espace, étude qui a mené à l'amélioration de l'algorithme par rapport à ce que l'on trouve dans la littérature, et notamment à la définition d'un critère d'optimalité en termes de bruit des résultats. Les algorithmes ont été testés sur de nombreuses images industrielles. L'étude de segmentation a été menée jusqu'à la reconstruction CAO automatique d'un bout de tuyauterie, validant ainsi l'approche proposée. L'objectif initial de la thèse de segmentation CAO automatique a donc été atteint. Ce travail a cependant ouvert plus de voies de recherches futures que n'en a fermées, en proposant des solutions intéressantes mais encore améliorables sur bien des points, et en incitant à poursuivre l'étude sur les surfaces planaires observées dans les images.
75

Contributions à l'apprentissage grande échelle pour la classification d'images

Akata, Zeynep 06 January 2014 (has links) (PDF)
La construction d'algorithmes classifiant des images à grande échelle est devenue une tache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles inetiquetées présentes sur Internet. Nous visons à classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complèxe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans le cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "ranking", "ranking pondéré moyen" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt anticipé de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles.
76

Représentation, Segmentation et Appariement de Formes Visuelles 3D Utilisant le Laplacient et le Noyau de la Chaleur

Sharma, Avinash 29 October 2012 (has links) (PDF)
Analyse de la forme 3D est un sujet de recherche extrêmement actif dans les deux l'infographie et vision par ordinateur. Dans la vision par ordinateur, l'acquisition de formes et de modélisation 3D sont généralement le résultat du traitement des données complexes et des méthodes d'analyse de données. Il existe de nombreuses situations concrètes où une forme visuelle est modélisé par un nuage de points observés avec une variété de capteurs 2D et 3D. Contrairement aux données graphiques, les données sensorielles ne sont pas, dans le cas général, uniformément répartie sur toute la surface des objets observés et ils sont souvent corrompus par le bruit du capteur, les valeurs aberrantes, les propriétés de surface (diffusion, spécularités, couleur, etc), l'auto occlusions, les conditions d'éclairage variables. Par ailleurs, le même objet que l'on observe par différents capteurs, à partir de points de vue légèrement différents, ou à des moments différents cas peuvent donner la répartition des points tout à fait différentes, des niveaux de bruit et, plus particulièrement, les différences topologiques, par exemple, la fusion des mains. Dans cette thèse, nous présentons une représentation de multi-échelle des formes articulés et concevoir de nouvelles méthodes d'analyse de forme, en gardant à l'esprit les défis posés par les données de forme visuelle. En particulier, nous analysons en détail le cadre de diffusion de chaleur pour représentation multi-échelle de formes 3D et proposer des solutions pour la segmentation et d'enregistrement en utilisant les méthodes spectrales graphique et divers algorithmes d'apprentissage automatique, à savoir, le modèle de mélange gaussien (GMM) et le Espérance-Maximisation (EM). Nous présentons d'abord l'arrière-plan mathématique sur la géométrie différentielle et l'isomorphisme graphique suivie par l'introduction de la représentation spectrale de formes 3D articulés. Ensuite, nous présentons une nouvelle méthode non supervisée pour la segmentation de la forme 3D par l'analyse des vecteurs propres Laplacien de graphe. Nous décrivons ensuite une solution semi-supervisé pour la segmentation de forme basée sur un nouveau paradigme d'apprendre, d'aligner et de transférer. Ensuite, nous étendre la représentation de forme 3D à une configuration multi-échelle en décrivant le noyau de la chaleur cadre. Enfin, nous présentons une méthode d'appariement dense grâce à la représentation multi-échelle de la chaleur du noyau qui peut gérer les changements topologiques dans des formes visuelles et de conclure par une discussion détaillée et l'orientation future des travaux.
77

Vers la modélisation grand échelle d'environnements urbains à partir d'images

Moslah, Oussama 05 July 2011 (has links) (PDF)
L'objectif principal de cette thèse est de développer des outils pour la reconstruction de l'environnement urbain à partir d'images. Les entrées typiques de notre travail est un ensemble d'images de façades, des empreintes au sol de bâtiments, et des modèles 3D reconstruits à partir d'images aériennes. Les principales étapes comprennent le calibrage des images,le recalage avec le modèle 3D, la récupération des informations de profondeur ainsi que la sémantique des façades.Pour atteindre cet objectif, nous utilisons des techniques du domaine de vision par ordinateur, reconnaissance de formes et de l'informatique graphique. Les contributions de notre approche sont présentés en deux parties.Dans la première partie, nous nous sommes concentrés sur des techniques de reconstruction multi-vues dans le but de récupérer automatiquement les informations de profondeur de façades à partir un ensemble des photographies non calibrées. Tout d'abord, nous utilisons la technique structure et mouvement pour calibrer automatiquement l'ensemble des photographies. Ensuite, nous proposons des techniques pour le recalage de la reconstruction avec un modèle 3D. Enfin, nous proposons des techniques de reconstruction 3d dense (stéréo multi-vues et voxel coloring) pour produire un maillage 3D texturé d'une scène d'un ensemble d'images calibrées.La deuxième partie est consacrée à la reconstruction à partir d'une seule vue et son objectif est de récupérer la structure sémantique d'une façade d'une image ortho-rectifiée. La nouveauté de cette approche est l'utilisation d'une grammaire stochastique décrivant un style architectural comme modèle pour la reconstruction de façades. nous combinons un ensemble de détecteurs image avec une méthode d'optimisation globale stochastique en utilisant l'algorithme Metropolis-Hastings.
78

Une approche collaborative segmentation - classification pour l'analyse descendante d'images multirésolutions

Kurtz, Camille 11 September 2012 (has links) (PDF)
Depuis la fin des années 1990, les images optiques à très hautes résolutions spatiales issues de capteurs satellitaires sont de plus en plus accessibles par une vaste communauté d'utilisateurs. En particulier, différents systèmes satellitaires sont maintenant disponibles et produisent une quantité de données importante, utilisable pour l'observation de la Terre. En raison de cet important volume de données,les méthodes analytiques manuelles deviennent inadaptées pour un traitement efficace de ces données. Il devient donc crucial d'automatiser ces méthodes par des procédés informatiques, capables de traiter cette quantité de données hétérogènes.Dans le cadre de cette thèse, nos recherches se sont focalisées sur le développement de nouvelles approches basées régions (i.e., segmentation et classification) permettant l'extraction de plusieurs niveaux de connaissance et d'information à partir d'ensembles d'images à différentes résolutions spatiales. De telles images offrent en effet des vues différentes de la scène étudiée, ce qui peut permettre de faciliter l'extraction des objets d'intérêt. Ces derniers étant structurés sous la forme de hiérarchies d'objets complexes, nos travaux se sont naturellement tournés (1) vers l'utilisation d'approches de segmentation hiérarchique fournissant des ensembles de partitions de la scène à différents niveaux de détail et (2) vers l'intégration de connaissances de haut-niveau dans les processus de fouille de données. De manière plus générale, nous nous sommes intéressés à élaborer un outil informatique reposant sur une stratégie d'analyse descendante,similaire à celle d'un utilisateur, qui consiste à interpréter la scène en considérant, en premier lieu, les grandes zones composant les territoires (à partir des images aux résolutions les plus grossières) puis à affiner récursivement le niveau d'interprétation pour en extraire des zones plus spécialisées (à partir des images aux résolutions les plus fines).L'ensemble de ces travaux a été implanté dans une bibliothèque logicielle et validé dans le contexte de l'analyse d'environnements urbains à partir d'ensembles d'images multi résolutions.
79

Algorithmes de traitement d'images pour la visualisation d'outils interventionnels dans des séquence de fluoroscopie par rayons X.

Bismuth, Vincent 09 January 2012 (has links) (PDF)
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalit e dans le monde. Lors d'une proc edure de pose de stent, le m edecin ins ere des outils chirurgicaux dans le r eseau vasculaire du patient. La progression de ces outils a l'int erieur du corps est suivie en temps r eel sous fluoroscopie par rayons X. Trois outils, en particulier, jouent un role crucial dans la proc edure : le guide, le ballon d'angioplastie et le stent. Le guide apparait dans les images sous la forme d'une structure curviligne. Le ballon, mont e sur le guide, est equip e de deux marqueurs radio-opaques a ses extr emit es. Le stent est un maillage m etallique qui se projette en une forme complexe dans les images fluoroscopique. Le stent, dont le bon d eploiement est essentiel au succ es du geste m edical, est souvent tr es diffi cilement visible dans les images. Les travaux pr esent es dans cette th ese poursuivent un double objectif. Il s'agit d'une part, de concevoir, d' etudier et de valider des techniques de traitement d'image visant a am eliorer la visualisation des stents. D'autre part, nous etudions le traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous pr esentons des algorithmes de traitement d'image d edi es a la visualisation 2D et 3D des stents. Nous sommes amen es, dans ce but, a d etecter, suivre et recaler, de mani ere compl etement automatique, les outils n ecessaires a la pose de stent que sont le guide et le ballon. Le stent etant a peine visible dans les images, nous ne cherchons pas a le localiser directement a l'aide de techniques de traitement d'images. La position et le mouvement du stent sont d etermin ees par nos algorithmes a partir de celles de deux amers: le guide et le ballon qui ont des formes caract eristiques. Nous eff ectuons donc, dans ce but, la d etection, le suivi et le recalage de ces amers, et ce de mani ere compl etement automatique. Le coe ur de notre m ethode de visualisation des stents en 2D r eside dans l'utilisation des amers pour effectuer un d ebruitage compens e en mouvement. Nous avons evalu e la performance des ces outils pour la visualisation des stents en 2D, sur une large base de pr es de 200 cas cliniques. Il en ressort que notre m ethode surpasse les m ethodes utilis ees jusqu'ici sur le plan de la qualit e image. La validation exhaustive que nous avons men e, a confi rm e que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en r esulte est d esormais install e sur un grand nombre de sites cliniques, o u il est r eguli erement utilis e. La m ethode de visualisation 3D des stents que nous proposons utilise les amers pour e ffectuer une reconstruction tomographique compens ee en mouvement. Nous exposons des r esultats pr eliminaires sur une base de 22 cas cliniques. Il semble que notre m ethode surpasse les m ethodes pr ec edemment employ ees aussi bien du point de vue de la qualit e image que de l'automatisation. Les m ethodes de visualisation des stents que nous proposons s'appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d'uni er dans un meme cadre diff erents concepts pr e-existants. De plus, il permet de controler la r egularit e et la longueur des structures a traiter avec une param etrisation simple et intuitive. A n de tirer pleinement parti des performances du PPI nous proposons un sch ema algorithmique effi cace pour le calculer. Nous illustrons ses utilisations pour la segmentation automatique de guide ou il surpasse les techniques existantes.
80

Stéreo multi-vues à grande échelleet de haute qualité.

Vu, Hiep 05 December 2011 (has links) (PDF)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vid eo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acqu érir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différents (méthode passive). La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre avec une grande précision, et surtout moins couteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stereo multi-vues à grande échelle . Nous améliorons des méthodes précédentes et les assemblons pour créer une chaine de stereo multi-vues efficace tirant parti de l'accélération des cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel).

Page generated in 0.3131 seconds