Spelling suggestions: "subject:"disision para ordinateur)"" "subject:"decisision para ordinateur)""
51 |
Apprentissage a contrario et architecture efficace pour la détection d'évènements visuels significatifsBurrus, Nicolas 08 December 2008 (has links) (PDF)
Pour assurer la robustesse d'un algorithme de détection, il est nécessaire de maîtriser son point de fonctionnement, et en particulier son taux de fausses alarmes. Cette tâche est particulièrement difficile en vision artificielle à cause de la grande variabilité des images naturelles, qui amène généralement à introduire des paramètres choisis a priori qui limitent la portée et la validité des algorithmes. Récemment, l'approche statistique a contrario a montré sa capacité à détecter des structures visuelles sans autre paramètre libre que le nombre moyen de fausses alarmes tolérées, en recherchant des entités dont certaines propriétés sont statistiquement trop improbables pour être le fruit du hasard. Les applications existantes reposent toutefois sur un cadre purement analytique qui requiert un travail important de modélisation, rend difficile l'utilisation de caractéristiques multiples et limite l'utilisation d'heuristiques de recherche dirigées par les données. Nous proposons dans cette thèse d'assouplir ces restrictions en ayant recours à de l'apprentissage pour les quantités non calculables analytiquement. Nous illustrons l'intérêt de la démarche à travers trois applications : la détection de segments, la segmentation en régions homogènes et la détection d'objets à partir d'une base de photos. Pour les deux premières applications, nous montrons que des seuils de détection robustes peuvent être appris à partir d'images de bruit blanc. Pour la dernière, nous montrons que quelques exemples d'images naturelles ne contenant pas d'objets de la base suffisent pour obtenir un algorithme de détection fiable. Enfin, nous remarquons que la monotonicité du raisonnement a contrario permet d'intégrer incrémentalement des informations partielles. Cette propriété nous conduit à proposer une architecture "anytime" pour la détection d'objets, c'est-à-dire capable de fournir des détections progressivement au cours de son exécution, en commençant par les objets les plus saillants.
|
52 |
Modèle computationnel d'attention pour la vision adaptative / Computational attention model for adaptive visionPerreira da Silva, Matthieu 10 December 2010 (has links)
L'analyse temps réel de la masse de données générée par les mécanismes de gestion de la vision dans les applications interactives est un problème toujours ouvert, promettant des avancées importantes dans des domaines aussi variés que la robotique, l’apprentissage à distance ou les nouvelles formes d’interactions avec l’utilisateur, sans clavier ni souris. Dans le cadre général de la vision, les algorithmes d’analyse de scène doivent trouver un compromis entre d'une part la qualité des résultats recherchés et d'autre part la quantité de ressources allouable aux différents tâches. Classiquement, ce choix est effectué à la conception du système (sous la forme de paramètres et d’algorithmes prédéfinis), mais cette solution limite le champ d’application de celui-ci. Une solution plus flexible consiste à utiliser un système de vision adaptatif qui pourra modifier sa stratégie d’analyse en fonction des informations disponibles concernant son contexte d’exécution. En conséquence, ce système doit posséder un mécanisme permettant de guider rapidement et efficacement l’exploration de la scène afin d’obtenir ces informations. Chez l’homme, les mécanismes de l’évolution ont mis en place le système d’attention visuelle. Ce système sélectionne les informations importantes afin de réduire la charge cognitive et les ambiguïtés d’interprétation de la scène. Nous proposons, dans cette thèse, un système d'attention visuelle, dont nous définissons l’architecture et les principes de fonctionnement. Ce dernier devra permettre l’interaction avec un système de vision afin qu’il adapte ses traitements en fonction de l’intérêt de chacun des éléments de la scène, i.e. ce que nous appelons saillance. A la croisée des chemins entre les modèles centralisés et hiérarchiques (ex : [Koch1985], puis [Itti1998]), et les modèles distribués et compétitifs (ex : [Desimone1995], puis [Deco2004, Rolls2006]), nous proposons un modèle hiérarchique, compétitif et non centralisé. Cette approche originale permet de générer un point de focalisation attentionnel à chaque pas de temps sans utiliser de carte de saillance ni de mécanisme explicite d’inhibition de retour. Ce nouveau modèle computationnel d'attention visuelle temps réel est basé sur un système d'équations proies / prédateurs, qui est bien adapté pour l'arbitrage entre un comportement attentionnel non déterministe et des propriétés de stabilité, reproductibilité, et réactivité. L'analyse des expérimentations menées est positive : malgré le comportement non-déterministe des équations proies / prédateurs, ce système possède des propriétés intéressantes de stabilité, reproductibilité, et réactivité, tout en permettant une exploration rapide et efficace de la scène. Ces propriétés ouvrent la possibilité d’aborder différents types d’applications allant de l’évaluation de la complexité d’images et de vidéos à la détection et au suivi d’objets. Enfin, bien qu’il soit destiné à la vision par ordinateur, nous comparons notre modèle au système attentionnel humain et montrons que celui-ci présente un comportement aussi plausible (voire plus en fonction du comportement défini) que les modèles classiques existants. / Providing real time analysis of the huge amount of data generated by computer vision algorithms in interactive applications is still an open problem. It promises great advances across a wide variety of fields : robotics, distance education, or new mouse-less and keyboard-less human computer interaction.When using scene analysis algorithms for computer vision, a trade-off must be found between the quality of the results expected, and the amount of computer resources allocated for each task. It is usually a design time decision, implemented through the choice of pre-defined algorithms and parameters. However, this way of doing limits the generality of the system. Using an adaptive vision system provides a more flexible solution as its analysis strategy can be changed according to the information available concerning the execution context. As a consequence, such a system requires some kind of guiding mechanism to explore the scene faster and more efficiently.In human, the mechanisms of evolution have generated the visual attention system which selects the most important information in order to reduce both cognitive load and scene understanding ambiguity.In this thesis, we propose a visual attention system tailored for interacting with a vision system (whose theoretical architecture is given) so that it adapts its processing according to the interest (or salience) of each element of the scene.Somewhere in between hierarchical salience based (ex: [Koch1985], then [Itti1998]) and competitive distributed (ex: [Desimone1995], then [Deco2004, Rolls2006]) models, we propose a hierarchical yet competitive and non salience based model. Our original approach allows the generation of attentional focus points without the need of neither saliency map nor explicit inhibition of return mechanism. This new real-time computational model is based on a preys / predators system. The use of this kind of dynamical system is justified by an adjustable trade-off between nondeterministic attentional behavior and properties of stability, reproducibility and reactiveness.Our experiments shows that despite the non deterministic behavior of preys / predators equations, the system exhibits interesting properties of stability, reproducibility and reactiveness while allowing a fast and efficient exploration of the scene. These properties are useful for addressing different kinds of applications, ranging from image complexity evaluation, to object detection and tracking. Finally, while it is designed for computer vision, we compare our model to human visual attention. We show that it is equally as plausible as existing models (or better, depending on its configuration).
|
53 |
Reconstruction of the surface of the Sun from stereoscopic imagesLazǎr, Vlad-Andrei January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
54 |
Étude de contraintes spatiales bas niveau appliquées à la vision par ordinateurJodoin, Pierre-Marc January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
55 |
Mise en correspondance active et passive pour la vision par ordinateur multivueDrouin, Marc-Antoine January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
56 |
Reconnaissance de visages à partir de modèles tridimensionnelsBeauchesne, Étienne January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
57 |
Réalité augmentée en chirurgie : développement d'un pointeur intelligentLewis, Nicolas January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
58 |
Une approche globale à l'estimation du mouvement de caméra pour des scènes encombréesChapdelaine-Couture, Vincent January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
59 |
Reconstruction volumétrique par l'algorithme du flot maximum dans un grapheProulx, Catherine January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
60 |
Removing camera shake blur and unwanted occluders from photographs / Restauration des images par l'élimination du flou et des occlusionsWhyte, Oliver 15 March 2012 (has links)
Cette thèse se concerne avec la restauration des images par l'élimination des occlusions indésirables et du flou attribué au mouvement de l'appareil. Ce flou est modélisé par un ensemble pondéré des poses de l'appareil, qui induit des transformations projectives sur l'image. Le flou est caractérisé par les poids, qui décrivent complètement le flou à tous les pixels de l'image. Nous montrons l'estimation directe de ces poids à partir des images seuls et des pairs d'images, en adaptent des algorithmes existants pour le défloutage (spatiellement-invariant) des images. Ceci nous permet de retrouver un version nette d'une image floue de manière automatique. Pour réduire le coût de l'utilisation de notre modèle, nous proposons une approximation fondée sur l'uniformité locale du flou. En groupant les pixels dans quelques régions locales, avec une seule fonction d'étalement du point (PSF) pour chaque région, nous pouvons utiliser des convolutions efficaces 2D pour calculer le flou. Ensuite, nous considérons le défloutage des images qui contiennent des pixels saturés et modifions notre modèle du flou pour inclure cette non-linéarité. Avec cette modèle, nous redérivons l'algorithme Richardson-Lucy en le modifiant afin de réduire le "ringing" attribué à celui-ci. Pour éliminer les occlusions indésirables, nous retrouvons automatiquement de l'Internet un ensemble d'images de la même scène. Nous obtenons une correspondance entre les pixels de chacune de ces images et de l'image cible avec des homgographies, et combinons plusieurs de ces images dans l'image cible pour remplacer les pixels occlus, en résoudrant un problème de minimisation d'énergie. / This thesis investigates the removal of spatially-variant blur from photographs degraded by camera shake, and the removal of large occluding objects from photographs of popular places. Spatially-variant blur caused by camera shake is modelled using a weighted set of camera poses, which induce homographies on the image. The blur in an image is parameterised by the set of weights, which fully describe the spatially-variant blur at all pixels. We demonstrate direct estimation of the blur weights from single and multiple images captured by conventional cameras, by adapting existing (spatially-invariant) deblurring algorithms. This permits a sharp image to be recovered from a blurry "shaken" image without any user interaction. To reduce the computational cost of our model, we introduce an approximation based on local-uniformity of the blur. By grouping pixels into local regions which share a single PSF, we can use fast 2D convolutions to perform the blur computation. For deblurring images with saturated pixels, we modify the forward model to include this non-linearity, and re-derive the Richardson-Lucy algorithm. To prevent ringing appearing in the output, we propose separate updates for pixels affected/not affected by saturation. In order to remove large occluders from photos, we automatically retrieve a set of exemplar images of the same scene from the Internet. We extract homographies between each of these images and the target image to provide pixel correspondences. Finally we combine pixels from several exemplars in a seamless manner to replace the occluded pixels, by solving an energy minimisation problem.
|
Page generated in 0.1115 seconds