Spelling suggestions: "subject:"disision para ordinateur"" "subject:"disision para ordinateurs""
21 |
Conception et réalisation d'une machine de vision achrome et trichrome pour la robotique.Cattoen, Michel, January 1900 (has links)
Th.--Trait. du signal--Toulouse--I.N.P., 1985. N°: 91.
|
22 |
Contribution à l'intégration de la vision passive tridimensionnelle en robotique : suivi de contours, calibrage de caméra et commande cinématique de robot.Petit, Régis, January 1900 (has links)
Th. doct.-ing.--Inform.--Toulouse--I.N.P., 1985. N°: 364.
|
23 |
Descripteurs 2D et 2D+t de points d'intérêt pour des appariements robustes / 2D and 2D+t descriptors of points of interest for robust matchingGrand-Brochier, Manuel 18 November 2011 (has links)
De nos jours les méthodes de vision par ordinateur sont utilisées dans de nombreuses applications telles que la vidéo-surveillance, l'aide à la conduite ou la reconstruction 3D par exemple. Ces différentes applications s'appuient généralement sur des procédés de reconnaissance de formes ou de suivi. Pour ce faire, l'image est analysée afin d'en extraire des amers ou des primitives (contours, fonctions d'intensité ou modèles morphologiques). Les méthodes les plus courantes s'appuient sur l'utilisation de points d'intérêt représentant une discontinuité des niveaux de gris caractérisant un coin dans une image. Afin de mettre en correspondance un ensemble de points d'une image à une autre, une description locale est utilisée. Elle permet d'extraire l'information du voisinage de chaque point (valeurs des pixels, des intensités lumineuses, des gradients). Dans le cas d'applications telles que la vidéo-surveillance ou les caméras embarquées, l'ajout d'une information temporelle est fortement recommandé. Cette généralisation est utilisée au sein du laboratoire pour des projets de type véhicules intelligents (CyCab : véhicule intelligent, VELAC : VEhicule du Lasmea pour l'Aide à la Conduite). Les travaux de recherche présentés dans ce mémoire ont pour objectif de mettre en oeuvre différents outils de détection, description et mise en correspondance de points d'intérêt. Un certain nombre de contraintes a été établi, notamment l'utilisation d'images en niveaux de gris, la robustesse et l'aspect générique de la méthode. Dans un premier temps, nous proposons une analyse bibliographique des méthodes existantes. Cette dernière permet en effet d'en déduire les paramètres de mise en oeuvre ainsi que les principaux avantages et inconvénients. Nous détaillons par la suite la méthode proposée. La détection des primitives repose sur l'utilisation du détecteur fast-hessien que nous optimisons. L'utilisation d'une description locale basée sur des histogrammes de gradients orientés (HOG) est très répandue et procure de très bons résultats. Nous proposons de compléter son utilisation par un recalage et une mise à l'échelle d'un masque d'analyse elliptique créant ainsi une nouvelle forme de description locale (E-HOG). La mise en correspondance des points d'intérêt se base quant à elle sur une approche par corrélation à laquelle nous ajoutons un coefficient de sélection ainsi qu'une étape de suppression des doublons. Les différents résultats validant notre approche s'appuient sur l'utilisation de transformations synthétiques (vérité terrain) ou réelles. Nous proposons également une généralisation de notre approche au domaine spatiotemporel, permettant ainsi d'élargir son domaine d'utilisation. Le masque d'analyse précédemment cité est modifié et s'appuie donc sur l'utilisation d'ellipsoïdes. Les tests de validation reposent d'une part sur des séquences vidéo ayant subi des transformations synthétiques et d'autre part sur des séquences réelles issues de la plate-forme PAVIN (Plate-forme d'Auvergne pour Véhicules Intelligents). / Pas de résumé disponible
|
24 |
Automatisation du procédé de béton projeté : contrôle du rebond et vision numériqueSchaeffer, Julien 13 December 2023 (has links)
Le virage technologique débutant dans le secteur du génie civil a permis la création d'outils et de procédés tournés vers le numérique et l'automatisation. Le béton projeté, qui comprend un grand potentiel d'automatisation, ne doit pas faire exception à la règle puisque l'avancement et l'optimisation des méthodes de production sont clairement poussés en avant par cet élan technologique. Le Laboratoire de béton projeté de l'Université Laval travaille depuis plus de 15 ans sur plusieurs initiatives de recherche visant à comprendre et à améliorer la méthode de mise en place qu'est le béton projeté. Sur cette base de réflexion, un effort de recherche visant à réduire le rebond et à automatiser le procédé par voie sèche avec un bras robotisé a été lancé avec le projet SPARO. Le présent projet de recherche se place dans sa continuité directe, et il s'articule autour de 4 axes principaux : optimisation et compréhension du phénomène de rebond, étude de l'influence de l'automatisation du procédé sur les propriétés du béton projeté durci, amélioration de l'autonomie du procédé et enfin, développement d'une assistance au lancier. La première partie du projet contribue à la compréhension des interactions entre les différentes trajectoires et le rebond, notamment avec l'utilisation de la trajectoire dite planétaire. Elle présente des valeurs de rebond remarquablement faibles et proches de celles obtenues usuellement par voie humide; elle apporte le concept de rebond fondamental du matériau et génère moins de rebonds que la trajectoire « classique » largement adoptée par les lanciers. L'hypothèse soutenue est que la trajectoire optimale est celle qui, pour une consigne d'épaisseur donnée, couvre une surface de taille maximale, tout en s'assurant que chaque portion de cette surface soit impactée, ou excitée, en permanence de façon à dépasser une fréquence énergétique critique du substrat, facilitant la capture des particules. L'étude des propriétés du béton projeté à l'état durci souligne que la technique de mise en place a un effet important sur la résistance en compression. Une diminution de 7% est observée entre la méthode automatisée et un projeteur traditionnel; en revanche, aucun changement n'a été observé pour la porosité. Dans la contribution à l'automatisation globale du système, l'utilisation de la vision numérique a montré des résultats très satisfaisants. Une méthode automatique de mesure de l'épaisseur projetée et de sa correction a été développée à l'aide d'un capteur LIDAR. En parallèle, l'adaptation de certains capteurs a permis de développer un système d'aide au lancier, offrant des renseignements sur l'angle et la distance de la lance par rapport à la surface projeté. / The technological transition in civil engineering has led to the creation of tools and processes oriented towards digitalization and automation. Shotcrete, which presents a great potential for automation, should not be an exception to the trend since the advancement and optimization of production methods are clearly pushed forward by this technological boom. The Shotcrete Laboratory of Université Laval has been working for more than 15 years on several research initiatives in order to understand and improve the shotcrete process. On this basis, a research initiative aimed at reducing rebound and automating the dry process with a robotic arm was launched with the SPARO project. The present research project is in direct continuation. It is organized around 4 main axes, with the optimization and the comprehension of the phenomenon of rebound, the study of the influence of the automation process on the properties of the hardened shotcrete, the improvement of the process's autonomy and, finally, the development of nozzleman assistance. The first part contributes to understanding the interactions between the different nozzle trajectories and rebound, especially with the use of the so-called planetary path. It shows remarkably low values of rebound, close to the one usually obtained with wet-mix shotcrete. It brings the concept of fundamental rebound of the materials and generates less rebound than the "classical" trajectory widely adopted by nozzlemen. The hypothesis supported is that the optimal trajectory is the one that, for a given thickness, covers a surface of maximum size, while ensuring that each portion of this surface is constantly impacted, or excited, so as to exceed a critical energy frequency of the substrate, faciliting the capture of incoming particles. The study of the hardened concrete's properties underlines that the placement technique has an important effect on the compressive strength. A decrease of 7% is observed between the automated method and a traditional sprayer, on the other hand, no changes were observed concerning the porosity. In the contribution to the overall system's automation, the use of computer vision showed very satisfying results. An automatic method for measuring the sprayed thickness and its subsequent corrections has been developed using a LIDAR sensor. In parallel, adapting certain sensors package has made possible the development of a nozzlemen's assistance, giving information on the nozzle’s angle and distance with regards to the sprayed surface.
|
25 |
Estimation probabiliste du mouvement de caméraDraréni, Jamil January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
26 |
Two problems of digital image formation : recovering the camera point spread function and boosting stochastic renderers by auto-similarity filtering / Deux problèmes dans la formation des images numériques : l'estimation du noyau local de flou d'une caméra et l'accélération de rendus stochastiques par filtrage auto-similaireDelbracio, Mauricio 25 March 2013 (has links)
Cette thèse s'attaque à deux problèmes fondamentaux dans la formation des images numériques : la modélisation et l'estimation du flou introduit par une caméra numérique optique, et la génération rapide des images de synthèse photoréalistes. L'évaluation précise du flou intrinsèque d'une caméra est un problème récurrent en traitement d'image. Des progrès technologiques récents ont eu un impact significatif sur la qualité de l'image. Donc, une amélioration de la précision des procédures de calibration est impérative pour pousser plus loin cette évolution. La première partie de cette thèse présente une théorie mathématique de l'acquisition physique de l’image par un appareil photo numérique. Sur la base de cette mo\-dé\-li\-sa\-tion, deux algorithmes automatiques pour estimer le flou intrinsèque de la l’appareil sont proposés. Pour le premier, l'estimation est effectuée à partir d'une photographie d'une mire d’étallonnage spécialement conçue à cet effet. L'une des principales contributions de cette thèse est la preuve qu’une mire portant l’image d’un bruit blanc est proche de l'optimum pour estimer le noyau de flou. Le deuxième algorithme évite l'utilisation d'une mire d’étallonnage, procédure qui peut devenir un peu encombrante. En effet, nous montrons que deux photos d'une scène plane texturée, prises à deux distances différentes avec la même configuration de l’appareil photo, suffisent pour produire une estimation précise. Dans la deuxième partie de cette thèse, nous proposons un algorithme pour accélérer la synthèse d'images réalistes. Plusieurs heures, et même plusieurs jours peuvent être nécessaires pour produire des images de haute qualité. Dans un rendu typique, les pixels d'une image sont formés en établissant la moyenne de la contribution des rayons stochastiques lancés à partir d'une caméra virtuelle. Le principe d'accélération, simple mais puissant, consiste à détecter les pixels similaires en comparant leurs histogrammes de rayons et à leur faire partager leurs rayons. Les résultats montrent une accélération significative qui préserve la qualité de l’image. / This dissertation contributes to two fundamental problems of digital image formation: the modeling and estimation of the blur introduced by an optical digital camera and the fast generation of realistic synthetic images. The accurate estimation of the camera's intrinsic blur is a longstanding problem in image processing. Recent technological advances have significantly impacted on image quality. Thus improving the accuracy of calibration procedures is imperative to further push this development. The first part of this thesis presents a mathematical theory that models the physical acquisition of digital cameras. Based on this modeling, two fully automatic algorithms to estimate the intrinsic camera blur are introduced. For the first one, the estimation is performed from a photograph of a specially designed calibration pattern. One of the main contributions of this dissertation is the proof that a pattern with white noise characteristics is near optimal for the estimation purpose. The second algorithm circumvents the tedious process of using a calibration pattern. Indeed, we prove that two photographs of a textured planar scene, taken at two different distances with the same camera configuration, are enough to produce an accurate estimation. In the second part of this thesis, we propose an algorithm to accelerate realistic image synthesis. Several hours or even days may be necessary to produce high-quality images. In a typical renderer, image pixels are formed by averaging the contribution of stochastic rays cast from a virtual camera. The simple yet powerful acceleration principle consists of detecting similar pixels by comparing their ray histograms and letting them share their rays. Results show a significant acceleration while preserving image quality.
|
27 |
Descripteurs 2D et 2D+t de points d'intérêt pour des appariements robustesGrand-Brochier, Manuel 18 November 2011 (has links) (PDF)
De nos jours les méthodes de vision par ordinateur sont utilisées dans de nombreuses applications telles que la vidéo-surveillance, l'aide à la conduite ou la reconstruction 3D par exemple. Ces différentes applications s'appuient généralement sur des procédés de reconnaissance de formes ou de suivi. Pour ce faire, l'image est analysée afin d'en extraire des amers ou des primitives (contours, fonctions d'intensité ou modèles morphologiques). Les méthodes les plus courantes s'appuient sur l'utilisation de points d'intérêt représentant une discontinuité des niveaux de gris caractérisant un coin dans une image. Afin de mettre en correspondance un ensemble de points d'une image à une autre, une description locale est utilisée. Elle permet d'extraire l'information du voisinage de chaque point (valeurs des pixels, des intensités lumineuses, des gradients). Dans le cas d'applications telles que la vidéo-surveillance ou les caméras embarquées, l'ajout d'une information temporelle est fortement recommandé. Cette généralisation est utilisée au sein du laboratoire pour des projets de type véhicules intelligents (CyCab : véhicule intelligent, VELAC : VEhicule du Lasmea pour l'Aide à la Conduite). Les travaux de recherche présentés dans ce mémoire ont pour objectif de mettre en oeuvre différents outils de détection, description et mise en correspondance de points d'intérêt. Un certain nombre de contraintes a été établi, notamment l'utilisation d'images en niveaux de gris, la robustesse et l'aspect générique de la méthode. Dans un premier temps, nous proposons une analyse bibliographique des méthodes existantes. Cette dernière permet en effet d'en déduire les paramètres de mise en oeuvre ainsi que les principaux avantages et inconvénients. Nous détaillons par la suite la méthode proposée. La détection des primitives repose sur l'utilisation du détecteur fast-hessien que nous optimisons. L'utilisation d'une description locale basée sur des histogrammes de gradients orientés (HOG) est très répandue et procure de très bons résultats. Nous proposons de compléter son utilisation par un recalage et une mise à l'échelle d'un masque d'analyse elliptique créant ainsi une nouvelle forme de description locale (E-HOG). La mise en correspondance des points d'intérêt se base quant à elle sur une approche par corrélation à laquelle nous ajoutons un coefficient de sélection ainsi qu'une étape de suppression des doublons. Les différents résultats validant notre approche s'appuient sur l'utilisation de transformations synthétiques (vérité terrain) ou réelles. Nous proposons également une généralisation de notre approche au domaine spatiotemporel, permettant ainsi d'élargir son domaine d'utilisation. Le masque d'analyse précédemment cité est modifié et s'appuie donc sur l'utilisation d'ellipsoïdes. Les tests de validation reposent d'une part sur des séquences vidéo ayant subi des transformations synthétiques et d'autre part sur des séquences réelles issues de la plate-forme PAVIN (Plate-forme d'Auvergne pour Véhicules Intelligents).
|
28 |
Alignement d'objets mécaniques complexes par vision monoculaireBourgeois, Steve 28 November 2006 (has links) (PDF)
Ce mémoire présente un système de recalage visuel adapté aux pièces mécaniques. Il s'agit d'estimer, de manière automatique et précise, la position et l'orientation d'un objet connu, à partir de son image vidéo. Les objets considérés possèdent la particularité d'être complexes, généralement métalliques et non-texturés. La solution proposée exploite un modèle d'objet caractérisant à la fois l'apparence et la géométrie de l'objet. Afin de pouvoir estimer la pose de l'objet, nous proposons un processus de mise en correspondance exploitant conjointement les informations d'apparence et de géométrie du modèle. Cette étape exploite la capacité à estimer une pose approximative de l'objet à partir d'un seul appariement pour filtrer efficacement les faux appariements. Un processus d'estimation précise de la pose est ensuite proposé. L'évaluation du processus complet sur des pièces mécaniques issues de l'industrie souligne la précision et la robustesse de ce dernier
|
29 |
Modélisation probabiliste et exploration visuelle autonome pour la reconstruction de scènes inconnuesFlandin, Grégory 29 November 2001 (has links) (PDF)
inconnues. Il s'agit d'interpréter des informations visuelles et de générer les points de vue qui permettent de construire progressivement une carte de l'environnement. Le problème est décomposé, de façon hiérarchique, en trois fonctionnalités. Dans un premier temps, le système détermine la suite des actions aboutissantàuninventaire de tous les objets de la scène. Cette problématique s'inscrit dans le contexte très général de la recherche d'objets. L'approche que nous présentons est basée sur une description probabiliste de l'occupation de la scène par des objets. La recherche consiste alors à générer une suite d'observations aboutissant à des probabilités proches de 1 aux endroits où se trouve un objet et proches de 0 ailleurs. Nous développons plusieurs stratégies allant dans ce sens. Dans un second temps, l'exploration est focalisée sur chaque objet a˝n d'en améliorer la description. Nous présentons un modèle d'objet basé sur un mélange de modèles stochastique et à erreur bornée permettant de représenter l'enveloppe approchée de l'objet tout en tenant compte des incertitudes de localisation. Nous développons un algorithme d'estimation en ligne de ce modèle et élaborons un processus d'exploration optimale en temps réel basé sur la minimisation de l'incertitude de localisation de l'objet observé. En˝n, la dernière fonction-nalité concerne le suivi des consignes permettant de déplacer la caméra tout en suivant l'objet d'intérêt. Ce problème est résolu par asservissement visuel dont nous étudions les potentialités du point de vue de la coopération caméra globale/caméra locale.
|
30 |
Détection et analyse de mouvements dans des séquences d'images par une approche probabiliste a contrarioVeit, Thomas Cao, Frédéric. January 2005 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommunications : Rennes 1 : 2005. / Bibliogr. p. 125-129.
|
Page generated in 0.0952 seconds