• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 214
  • 150
  • 39
  • Tagged with
  • 406
  • 406
  • 406
  • 286
  • 161
  • 112
  • 110
  • 86
  • 80
  • 78
  • 76
  • 72
  • 72
  • 68
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modèle computationnel d'attention pour la vision adaptative / Computational attention model for adaptive vision

Perreira da Silva, Matthieu 10 December 2010 (has links)
L'analyse temps réel de la masse de données générée par les mécanismes de gestion de la vision dans les applications interactives est un problème toujours ouvert, promettant des avancées importantes dans des domaines aussi variés que la robotique, l’apprentissage à distance ou les nouvelles formes d’interactions avec l’utilisateur, sans clavier ni souris. Dans le cadre général de la vision, les algorithmes d’analyse de scène doivent trouver un compromis entre d'une part la qualité des résultats recherchés et d'autre part la quantité de ressources allouable aux différents tâches. Classiquement, ce choix est effectué à la conception du système (sous la forme de paramètres et d’algorithmes prédéfinis), mais cette solution limite le champ d’application de celui-ci. Une solution plus flexible consiste à utiliser un système de vision adaptatif qui pourra modifier sa stratégie d’analyse en fonction des informations disponibles concernant son contexte d’exécution. En conséquence, ce système doit posséder un mécanisme permettant de guider rapidement et efficacement l’exploration de la scène afin d’obtenir ces informations. Chez l’homme, les mécanismes de l’évolution ont mis en place le système d’attention visuelle. Ce système sélectionne les informations importantes afin de réduire la charge cognitive et les ambiguïtés d’interprétation de la scène. Nous proposons, dans cette thèse, un système d'attention visuelle, dont nous définissons l’architecture et les principes de fonctionnement. Ce dernier devra permettre l’interaction avec un système de vision afin qu’il adapte ses traitements en fonction de l’intérêt de chacun des éléments de la scène, i.e. ce que nous appelons saillance. A la croisée des chemins entre les modèles centralisés et hiérarchiques (ex : [Koch1985], puis [Itti1998]), et les modèles distribués et compétitifs (ex : [Desimone1995], puis [Deco2004, Rolls2006]), nous proposons un modèle hiérarchique, compétitif et non centralisé. Cette approche originale permet de générer un point de focalisation attentionnel à chaque pas de temps sans utiliser de carte de saillance ni de mécanisme explicite d’inhibition de retour. Ce nouveau modèle computationnel d'attention visuelle temps réel est basé sur un système d'équations proies / prédateurs, qui est bien adapté pour l'arbitrage entre un comportement attentionnel non déterministe et des propriétés de stabilité, reproductibilité, et réactivité. L'analyse des expérimentations menées est positive : malgré le comportement non-déterministe des équations proies / prédateurs, ce système possède des propriétés intéressantes de stabilité, reproductibilité, et réactivité, tout en permettant une exploration rapide et efficace de la scène. Ces propriétés ouvrent la possibilité d’aborder différents types d’applications allant de l’évaluation de la complexité d’images et de vidéos à la détection et au suivi d’objets. Enfin, bien qu’il soit destiné à la vision par ordinateur, nous comparons notre modèle au système attentionnel humain et montrons que celui-ci présente un comportement aussi plausible (voire plus en fonction du comportement défini) que les modèles classiques existants. / Providing real time analysis of the huge amount of data generated by computer vision algorithms in interactive applications is still an open problem. It promises great advances across a wide variety of fields : robotics, distance education, or new mouse-less and keyboard-less human computer interaction.When using scene analysis algorithms for computer vision, a trade-off must be found between the quality of the results expected, and the amount of computer resources allocated for each task. It is usually a design time decision, implemented through the choice of pre-defined algorithms and parameters. However, this way of doing limits the generality of the system. Using an adaptive vision system provides a more flexible solution as its analysis strategy can be changed according to the information available concerning the execution context. As a consequence, such a system requires some kind of guiding mechanism to explore the scene faster and more efficiently.In human, the mechanisms of evolution have generated the visual attention system which selects the most important information in order to reduce both cognitive load and scene understanding ambiguity.In this thesis, we propose a visual attention system tailored for interacting with a vision system (whose theoretical architecture is given) so that it adapts its processing according to the interest (or salience) of each element of the scene.Somewhere in between hierarchical salience based (ex: [Koch1985], then [Itti1998]) and competitive distributed (ex: [Desimone1995], then [Deco2004, Rolls2006]) models, we propose a hierarchical yet competitive and non salience based model. Our original approach allows the generation of attentional focus points without the need of neither saliency map nor explicit inhibition of return mechanism. This new real-time computational model is based on a preys / predators system. The use of this kind of dynamical system is justified by an adjustable trade-off between nondeterministic attentional behavior and properties of stability, reproducibility and reactiveness.Our experiments shows that despite the non deterministic behavior of preys / predators equations, the system exhibits interesting properties of stability, reproducibility and reactiveness while allowing a fast and efficient exploration of the scene. These properties are useful for addressing different kinds of applications, ranging from image complexity evaluation, to object detection and tracking. Finally, while it is designed for computer vision, we compare our model to human visual attention. We show that it is equally as plausible as existing models (or better, depending on its configuration).
52

Reconstruction of the surface of the Sun from stereoscopic images

Lazǎr, Vlad-Andrei January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
53

Étude de contraintes spatiales bas niveau appliquées à la vision par ordinateur

Jodoin, Pierre-Marc January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
54

Mise en correspondance active et passive pour la vision par ordinateur multivue

Drouin, Marc-Antoine January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
55

Reconnaissance de visages à partir de modèles tridimensionnels

Beauchesne, Étienne January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
56

Réalité augmentée en chirurgie : développement d'un pointeur intelligent

Lewis, Nicolas January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
57

Une approche globale à l'estimation du mouvement de caméra pour des scènes encombrées

Chapdelaine-Couture, Vincent January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
58

Reconstruction volumétrique par l'algorithme du flot maximum dans un graphe

Proulx, Catherine January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
59

Removing camera shake blur and unwanted occluders from photographs / Restauration des images par l'élimination du flou et des occlusions

Whyte, Oliver 15 March 2012 (has links)
Cette thèse se concerne avec la restauration des images par l'élimination des occlusions indésirables et du flou attribué au mouvement de l'appareil. Ce flou est modélisé par un ensemble pondéré des poses de l'appareil, qui induit des transformations projectives sur l'image. Le flou est caractérisé par les poids, qui décrivent complètement le flou à tous les pixels de l'image. Nous montrons l'estimation directe de ces poids à partir des images seuls et des pairs d'images, en adaptent des algorithmes existants pour le défloutage (spatiellement-invariant) des images. Ceci nous permet de retrouver un version nette d'une image floue de manière automatique. Pour réduire le coût de l'utilisation de notre modèle, nous proposons une approximation fondée sur l'uniformité locale du flou. En groupant les pixels dans quelques régions locales, avec une seule fonction d'étalement du point (PSF) pour chaque région, nous pouvons utiliser des convolutions efficaces 2D pour calculer le flou. Ensuite, nous considérons le défloutage des images qui contiennent des pixels saturés et modifions notre modèle du flou pour inclure cette non-linéarité. Avec cette modèle, nous redérivons l'algorithme Richardson-Lucy en le modifiant afin de réduire le "ringing" attribué à celui-ci. Pour éliminer les occlusions indésirables, nous retrouvons automatiquement de l'Internet un ensemble d'images de la même scène. Nous obtenons une correspondance entre les pixels de chacune de ces images et de l'image cible avec des homgographies, et combinons plusieurs de ces images dans l'image cible pour remplacer les pixels occlus, en résoudrant un problème de minimisation d'énergie. / This thesis investigates the removal of spatially-variant blur from photographs degraded by camera shake, and the removal of large occluding objects from photographs of popular places. Spatially-variant blur caused by camera shake is modelled using a weighted set of camera poses, which induce homographies on the image. The blur in an image is parameterised by the set of weights, which fully describe the spatially-variant blur at all pixels. We demonstrate direct estimation of the blur weights from single and multiple images captured by conventional cameras, by adapting existing (spatially-invariant) deblurring algorithms. This permits a sharp image to be recovered from a blurry "shaken" image without any user interaction. To reduce the computational cost of our model, we introduce an approximation based on local-uniformity of the blur. By grouping pixels into local regions which share a single PSF, we can use fast 2D convolutions to perform the blur computation. For deblurring images with saturated pixels, we modify the forward model to include this non-linearity, and re-derive the Richardson-Lucy algorithm. To prevent ringing appearing in the output, we propose separate updates for pixels affected/not affected by saturation. In order to remove large occluders from photos, we automatically retrieve a set of exemplar images of the same scene from the Internet. We extract homographies between each of these images and the target image to provide pixel correspondences. Finally we combine pixels from several exemplars in a seamless manner to replace the occluded pixels, by solving an energy minimisation problem.
60

Des droites à la dynamique des robots parallèles / From lines to dynamics of parallel robots

Özgür, Erol 13 July 2012 (has links)
Cette thèse présente des nouvelles approches de modélisation, de tracking et de commande des robots parallèles en utilisant des droites. Un robot parallèle est composé de plusieurs chaînes cinématiques fermées. Par conséquent, un fort couplage de comportement apparait durant le mouvement du robot. La géométrie (squelette) d’un robot parallèle peut être définie en considérant les jambes de ce robot comme des droites 3D. C’est ainsi que la modélisation, le suivi visuel et la commande d’un robot parallèle devient plus simple et que sa représentation géométrique et physique est plus intuitive. Le point commun des méthodes proposées est l’observation des orientations 3D des jambes avec précision et à des grandes vitesses. Cela permet de commander les robots parallèles rapides avec précision. Pour la modélisation cinématique et dynamique des robots parallèles, nous avons développé une représentation basée sur les éléments cinématiques. Cette représentation rend la modélisation simple et immédiate. Les modèles obtenus sont basés sur les mesures des orientations des jambes et leurs vitesses. Par conséquent, nous avons ainsi proposé un observateur d’état dynamique à haute vitesse qui peut fournir les orientations des jambes et leurs vitesses. Cette procédure consiste à observer d’une manière séquentielle une portion de chaque jambe. Nous avons utilisé ces contours pour construire une consigne spatio-temporelle. Par conséquent, nous avons pu écrire des contraintes géométriques minimisées en une seule itération d’une tâche d’asservissement visuel virtuel. Ensuite, nous avons proposé une commande dynamique pour contrôler un robot parallèle dans différents espaces de commande. Ce qui nous a permis de mener des analyses pour identifier l’espace le plus adéquat pour réaliser une tâche spécifique. Ces nouvelles approches sont validées en simulation et, partiellement, en expérimentation. Les résultats obtenus sont satisfaisants et ouvrent des perspectives dans le domaine de la modélisation, du suivi visuel et de la commande des robots parallèles basé sur l’observation des jambes. / This thesis presents novel methods for modeling, tracking and control of parallel robots by means of lines. A parallel robot is composed of several closed-loop kinematic chains which cause a highly coupled-motion behavior. By treating the legs of a parallel robot as 3D lines and representing the geometry with a skeleton constructed from these 3D lines of the legs, the modeling, tracking and control of a parallel robot become geometrically and physically simpler and more intuitive. The common key point for the simplicity and accuracy of all these methods is the precise observation of the 3D orientation vectors of the legs at high speed. This is because of parallel robots are designed for high speed applications. Thus, we first developed a body-based linear scheme both for kinematic and dynamic modeling of parallel robots. This body-based linear modeling scheme is so simple such that one can work out all the equations even for the most complex parallel robot by pen and paper. The simplicity and feasibility of this modeling scheme are conditioned on that the 3D leg direction vectors and their velocities are known. Therefore, secondly we proposed a high-speed vision based dynamic state observer which can provide these 3D leg direction vectors of a parallel robot and their velocities at each sampling time. We achieved this by sequentially observing small portions of the legs in order to form a spatio-temporal reference signal and then by minimizing the constraints written from the geometric shapes of the legs in a single-iteration virtual visual servoing scheme. Afterwards, we constructed a versatile computed-torque control scheme which allows us to control the parallel robot for a given task in different control spaces. We defined this versatile control scheme so that we can analyse and then choose the best control space for better control of parallel robots for a given specific task. These proposed novel methods are validated by the first promising simulation and experimental results. Obtained results encourage us to explore more the modeling, tracking and control of parallel robots by means of lines.

Page generated in 0.0875 seconds