• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 56
  • 12
  • 11
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 206
  • 59
  • 59
  • 57
  • 53
  • 35
  • 35
  • 34
  • 32
  • 31
  • 30
  • 26
  • 22
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Hierarchical motion-based video analysis with applications to video post-production / Analyse de vidéo par décomposition hiérarchique du mouvement appliquée à la post-production vidéo

Pérez Rúa, Juan Manuel 04 December 2017 (has links)
Nous présentons dans ce manuscrit les méthodes développées et les résultats obtenus dans notre travail de thèse sur l'analyse du contenu dynamique de scène visuelle. Nous avons considéré la configuration la plus fréquente de vision par ordinateur, à savoir caméra monoculaire et vidéos naturelles de scène extérieure. Nous nous concentrons sur des problèmes importants généraux pour la vision par ordinateur et d'un intérêt particulier pour l'industrie cinématographique, dans le cadre de la post-production vidéo. Les problèmes abordés peuvent être regroupés en deux catégories principales, en fonction d'une interaction ou non avec les utilisateurs : l'analyse interactive du contenu vidéo et l'analyse vidéo entièrement automatique. Cette division est un peu schématique, mais elle est en fait liée aux façons dont les méthodes proposées sont utilisées en post-production vidéo. Ces deux grandes approches correspondent aux deux parties principales qui forment ce manuscrit, qui sont ensuite subdivisées en chapitres présentant les différentes méthodes que nous avons proposées. Néanmoins, un fil conducteur fort relie toutes nos contributions. Il s'agit d'une analyse hiérarchique compositionnelle du mouvement dans les scènes dynamiques. Nous motivons et expliquons nos travaux selon l'organisation du manuscrit résumée ci-dessous. Nous partons de l'hypothèse fondamentale de la présence d'une structure hiérarchique de mouvement dans la scène observée, avec un objectif de compréhension de la scène dynamique. Cette hypothèse s'inspire d'un grand nombre de recherches scientifiques sur la vision biologique et cognitive. Plus précisément, nous nous référons à la recherche sur la vision biologique qui a établi la présence d'unités sensorielles liées au mouvement dans le cortex visuel. La découverte de ces unités cérébrales spécialisées a motivé les chercheurs en vision cognitive à étudier comment la locomotion des animaux (évitement des obstacles, planification des chemins, localisation automatique) et d'autres tâches de niveau supérieur sont directement influencées par les perceptions liées aux mouvements. Fait intéressant, les réponses perceptuelles qui se déroulent dans le cortex visuel sont activées non seulement par le mouvement lui-même, mais par des occlusions, des désocclusions, une composition des mouvements et des contours mobiles. En outre, la vision cognitive a relié la capacité du cerveau à appréhender la nature compositionnelle du mouvement dans l'information visuelle à une compréhension de la scène de haut niveau, comme la segmentation et la reconnaissance d'objets. / The manuscript that is presented here contains all the findings and conclusions of the carried research in dynamic visual scene analysis. To be precise, we consider the ubiquitous monocular camera computer vision set-up, and the natural unconstrained videos that can be produced by it. In particular, we focus on important problems that are of general interest for the computer vision literature, and of special interest for the film industry, in the context of the video post-production pipeline. The tackled problems can be grouped in two main categories, according to the whether they are driven user interaction or not : user-assisted video processing tools and unsupervised tools for video analysis. This division is rather synthetic but it is in fact related to the ways the proposed methods are used inside the video post-production pipeline. These groups correspond to the main parts that form this manuscript, which are subsequently formed by chapters that explain our proposed methods. However, a single thread ties together all of our findings. This is, a hierarchical analysis of motion composition in dynamic scenes. We explain our exact contributions, together with our main motivations, and results in the following sections. We depart from a hypothesis that links the ability to consider a hierarchical structure of scene motion, with a deeper level of dynamic scene understanding. This hypothesis is inspired by plethora of scientific research in biological and psychological vision. More specifically, we refer to the biological vision research that established the presence of motion-related sensory units in the visual cortex. The discovery of these specialized brain units motivated psychological vision researchers to investigate how animal locomotion (obstacle avoidance, path planning, self-localization) and other higher-level tasks are directly influenced by motion-related percepts. Interestingly, the perceptual responses that take place in the visual cortex are activated not only by motion itself, but by occlusions, dis-occlusions, motion composition, and moving edges. Furthermore, psychological vision have linked the brain's ability to understand motion composition from visual information to high level scene understanding like object segmentation and recognition.
92

Contribution à la classification d'images satellitaires par approche variationnelle et équations aux dérivées partielles.

Samson, Christophe 26 September 2000 (has links) (PDF)
Ce travail est consacré au développement ainsi qu'à l'implantation de deux modèles variationnels pour la classification d'images. La classification d'images, consistant à attribuer une étiquette à chaque pixel d'une image, concerne de nombreuses applications à partir du moment où cette opération intervient très souvent à la base des chaînes de traitement et d'interprétation d'images. De nombreux modèles de classification ont déjà été développés dans un cadre stochastique ou à travers des approches structurales, mais rarement dans un contexte variationnel qui a déjà montré son efficacité dans divers domaines tels que la reconstruction ou la restauration d'images. Le premier modèle que nous proposons repose sur la minimisation d'une famille de critères dont la suite de solutions converge vers une partition des données composée de classes homogènes séparées par des contours réguliers. Cette approche entre dans le cadre des problèmes à discontinuité libre (free discontinuity problems) et fait appel à des notions de convergence variationnelle telle que la théorie de la ì-convergence. La famille de fonctionnelles que nous proposons de minimiser contient un terme de régularisation, ainsi qu'un terme de classification. Lors de la convergence de cette suite de critères, le modèle change progressivement de comportement en commençant par restaurer l'image avant d'entamer le processus d'étiquetage des pixels. Parallèlement à cette approche, nous avons développé un second modèle de classification mettant en jeu un ensemble de régions et contours actifs. Nous utilisons une approche par ensembles de niveaux pour définir le critère à minimiser, cette approche ayant déjà suscité de nombreux travaux dans le cadre de la segmentation d'images. Chaque classe, et son ensemble de régions et contours associé, est défini à travers une fonction d'ensemble de niveaux. Le critère contient des termes reliés à l'information sur les régions ainsi qu'à l'information sur les contours. Nous aboutissons à la résolution d'un système d'équations aux dérivées partielles couplées et plongées dans un schéma dynamique. L'évolution de chaque région est guidée par un jeu de forces permettant d'obtenir une partition de l'image composée de classes homogènes et dont les frontières sont lisses. Nous avons mené des expériences sur de nombreuses données synthétiques ainsi que sur des images satellitaires SPOT. Nous avons également étendu ces deux modèles au cas de données multispectrales et obtenu des résultats sur des données SPOT XS que nous avons comparé à ceux obtenus par différents modèles.
93

Traitements d'Images Omnidirectionnelles

Jacquey, Florence 21 December 2007 (has links) (PDF)
Ce manuscrit présente une approche novatrice au problème du traitement d'images omnidirectionnelles. Elle se démarque des autres approches par le fait que les traitements sont adaptés à la géométrie de l'image et effectués directement dans l'espace de l'image afin d'interpoler le moins possible les données originales de l'image. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial de l'image. Ces techniques s'appuient sur une représentation par partition floue de l'image. Afin de traiter les images issues de capteurs omnidirectionnels catadioptriques, nous proposons une approche basée sur l'utilisation d'un espace projectif virtuel appelé le cylindre englobant. Ce cylindre nous permet de définir les différents opérateurs de convolution dans un espace quasi identique à celui de l'image perspective. Les opérateurs ainsi définis sont ensuite projetés sur l'image omnidirectionnelle pour tenir compte de la géométrie du capteur. Dans un premier temps, nous avons proposé une adaptation des masques de convolution aux images omnidirectionnelles prenant en compte les imprécisions sur la localisation du niveau de gris des pixels. Dans un second temps, nous nous sommes intéressés plus précisément aux détecteurs de contours. Nous avons développé une nouvelle approche d'estimation de gradient utilisant des noyaux possibilistes. L'estimation du gradient est fournie sous la forme d'un intervalle de valeurs. Cet intervalle permet de seuiller naturellement les valeurs de gradient obtenues. La validité de nos approches est établie par des expérimentations sur des images omnidirectionnelles synthétiques et réelles. Les images synthétiques sont utilisées afin de tester la robustesse de nos détecteurs de contours en présence de bruit et d'étudier la bonne détection, bonne localisation et réponse unique du contour. Les images réelles permettent d'observer le comportement de nos méthodes vis à vis des variations d'illumination et des bruits d'acquisition.
94

Quelques extensions des level sets et des graph cuts et leurs applications à la segmentation d'images et de vidéos

Juan, Olivier 05 1900 (has links) (PDF)
Les techniques de traitement d'image sont maintenant largement répandues dans une grande quantité de domaines: comme l'imagerie médicale, la post-production de films, les jeux... La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image, d'un volume ou d'une vidéo est réel challenge puisqu'il représente un point de départ pour un grand nombre d'applications en traitement d'image. Cependant beaucoup de techniques développées pendant ces dernières années et les méthodes de l'état de l'art souffrent de quelques inconvénients: la méthode des ensembles de niveaux fournit seulement un minimum local tandis que la méthode de coupes de graphe vient de la communauté combinatoire et pourrait tirer profit de la spécificité des problèmes de traitement d'image. Dans cette thèse, nous proposons deux prolongements des méthodes précédemment citées afin de réduire ou enlever ces inconvénients. Nous discutons d'abord les méthodes existantes et montrons comment elles sont liées au problème de segmentation via une formulation énergétique. Nous présentons ensuite des perturbations stochastiques a la méthode des ensembles de niveaux et nous établissons un cadre plus générique: les ensembles de niveaux stochastiques (SLS). Plus tard nous fournissons une application directe du SLS à la segmentation d'image et montrons qu'elle fournit une meilleure minimisation des énergies. Fondamentalement, il permet aux contours de s'échapper des minima locaux. Nous proposons ensuite une nouvelle formulation d'un algorithme existant des coupes de graphe afin d'introduire de nouveaux concepts intéressant pour la communauté de traitement d'image: comme l'initialisation de l'algorithme pour l'amélioration de vitesse. Nous fournissons également une nouvelle approche pour l'extraction de couches d'une vidéo par segmentation du mouvement et qui extrait à la fois les couches visibles et cachées présentes.
95

Segmentation par contours actifs en imagerie médicale dynamique : application en cardiologie nucléaire

Debreuve, Eric 27 October 2000 (has links) (PDF)
En imagerie d'émission, la médecine nucléaire fournit une information fonctionnelle sur l'organe étudié. En imagerie de transmission, elle fournit une information anatomique, destinée par exemple à corriger certains facteurs de dégradation des images d'émission. Qu'il s'agisse d'une image d'émission ou de transmission, il est utile de savoir extraire de façon automatique ou semi-automatique les éléments pertinents : le ou les organes d'intérêt et le pourtour du patient lorsque le champ d'acquisition est large. Voilà le but des méthodes de segmentation. Nous avons développé deux méthodes de segmentation par contours actifs, le point crucial étant la définition de leur vitesse d'évolution. Elles ont été mises en œuvre par les ensembles de niveaux. En premier lieu, nous nous sommes intéressés à l'imagerie statique de transmission de la région thoracique. La vitesse d'évolution, définie heuristiquement, fait directement intervenir les projections acquises. La carte de transmission segmentée, obtenue ainsi sans reconstruction, doit servir à améliorer la correction de l'atténuation photonique subie par les images cardiaques d'émission. Puis nous avons étudié la segmentation des séquences cardiaques -- d'émission -- synchronisées par électrocardiogramme. La méthode de segmentation spatio-temporelle développée résulte de la minimisation d'un critère variationnel exploitant d'un bloc l'ensemble de la séquence. La segmentation obtenue doit servir au calcul de paramètres physiologiques. Nous l'avons illustré en calculant la fraction d'éjection. Pour terminer, nous avons exploité les propriétés des ensembles de niveaux afin de développer une méthode géométrique de recalage, non rigide et non paramétrique. Nous l'avons appliquée à la compensation cinétique des images des séquences cardiaques synchronisées. Les images recalées ont alors été ajoutées de sorte à produire une image dont le niveau de bruit est comparable à celui d'une image cardiaque statique sans toutefois souffrir de flou cinétique.
96

Automatiserad inlärning av detaljer för igenkänning och robotplockning / Autonomous learning of parts for recognition and robot picking

Wernersson, Björn, Södergren, Mikael January 2005 (has links)
<p>Just how far is it possible to make learning of new parts for recognition and robot picking autonomous? This thesis initially gives the prerequisites for the steps in learning and calibration that are to be automated. Among these tasks are to select a suitable part model from numerous candidates with the help of a new part segmenter, as well as computing the spatial extent of this part, facilitating robotic collision handling. Other tasks are to analyze the part model in order to highlight correct and suitable edge segments for increasing pattern matching certainty, and to choose appropriate acceptance levels for pattern matching. Furthermore, tasks deal with simplifying camera calibration by analyzing the calibration pattern, as well as compensating for differences in perspective at great depth variations, by calculating the centre of perspective of the image. The image processing algorithms created in order to solve the tasks are described and evaluated thoroughly. This thesis shows that simplification of steps of learning and calibration, by the help of advanced image processing, really is possible.</p>
97

Physique des membranes actives : Mesure de spectres de fluctuations.

El Alaoui Faris, Moulay Driss 31 January 2008 (has links) (PDF)
Les bicouches lipidiques sont souvent utilisées comme modèle simplifié des membranes biologiques. Leurs propriétés à l'équilibre sont actuellement bien comprises. Cependant, pour se rapprocher d'une modélisation réaliste des membranes cellulaires, il faut prendre en compte les aspects hors-équilibre de ce type de membrane. L'objectif du travail de recherche, que nous présentons dans ce manuscrit, s'inscrit dans cette direction. Nous avons utilisé, comme membranes modèles actives, des bicouches lipidiques, se présentant sous la forme de vésicules géantes (GUV), contenant la bactériorhodopsine. Cette protéine est une pompe à protons activée par la lumière. Pour caractériser l'effet de l'activité protéique sur les propriétés physiques de ces membranes, nous avons mesuré leurs spectres de fluctuations. Nous avons d'abord visualisé les vésicules géantes par microscopie à contraste de phase. Nous avons ensuite utilisé une méthode de détection et d'analyse des contours des vésicules pour mesurer leurs spectres de fluctuations. En conduisant une étude comparative entre les spectres acquis en activant la protéine, et ceux acquis dans des conditions d'équilibre, nous avons découvert que la présence de l'azide de sodium est nécessaire à l'émergence d'effets actifs mesurables par nos techniques expérimentales. Nous avons aussi montré qu'en présence d'1 mM d'azide de sodium, l'amplitude des fluctuations est amplifiée de manière active. Cette amplification est particulièrement marquée aux petits vecteurs d'onde. La comparaison de ces résultats aux prédictions théoriques montre que l'activité de la bactériorhodopsine induit une baisse de la tension membranaire.
98

Structures d'une image: De la réalité augmentée à la stylisation d'images

Chen, Jiazhou 12 July 2012 (has links) (PDF)
Dans cette thèse, nous nous intéressons aux structures d'une image en général, et plus particulièrement aux gradients et aux contours. Ces dernières se sont révélées très importantes ces dernières années pour de nombreuses applications en infographie, telles que la réalité augmentée et la stylisation d'images et de vidéos. Le but de toute analyse des structures d'une image est de décrire à un haut-niveau la compréhension que l'on peut avoir de son contenu et de fournir les bases nécessaires à l'amélioration de la qualité des applications citées au-dessus, notamment la lisibilité, la précision, la cohérence spatiale et temporelle. Dans une premier temps, nous démontrons le rôle important que ces structures jouent pour des applications de type composition ''Focus+Context''. Une telle approche est utilisée en réalité augmentée pour permettre la visualisation de parties d'une scènes qui sont normalement derrières ce que l'on peut observer dans un flux vidéo. L'utilisation d'une segmentation et de lignes caractéristiques permettent de mettre en avant et/ou de révéler les relations d'ordre entre les différents objets de la scène. Pour la synthèse d'images guidée par une fonction d'importance, de multiples styles de rendu sont combinés de manière cohérente grâce à l'utilisation d'une carte de gradients et une de saillance. Dans un deuxième temps, nous introduisons une nouvelle techniques qui permet de reconstruire de manière continue un champ de gradient, et ceci sans trop lisser les détails originaux contenus dans l'image. Pour cela, nous développons une nouvelle méthode d'approximation locale et de plus haut-degré pour des champs de gradients discrets et non-orientés. Cette méthode est basée sur le formalisme ''moving least square'' (MLS). Nous démontrons que notre approximation isotrope et linéaire est de meilleure qualité que le classique tenseur de structure~: les détails sont mieux préservés et les instabilités sont réduites de manière significative. Nous démontrons aussi que notre nouveau champ de gradients apporte des améliorations à de nombreuses techniques de stylisation. Finalement, nous démontrons que l'utilisation d'une technique d'analyse de profil caractéristique par approximation polynomiale permet de distinguer les variations douces des zones dures. Les paramètres du profil sont utilisés comme des paramètres de stylisation tels que l'orientation des coups de pinceau, leur taille et leur opacité. Cela permet la création d'une large variété de styles de ligne.
99

Adaptation de clones orofaciaux à la morphologie et aux stratégies de contrôle de locuteurs cibles pour l'articulation de la parole

Valdes, Julian 28 June 2013 (has links) (PDF)
La capacité de production de la parole est apprise et maintenue au moyen d'une boucle de perception-action qui permet aux locuteurs de corriger leur propre production en fonction du retour perceptif reçu. Ce retour est auditif et proprioceptif, mais pas visuel. Ainsi, les sons de parole peuvent être complétés par l'affichage des articulateurs sur l'écran de l'ordinateur, y compris ceux qui sont habituellement cachés tels que la langue ou le voile du palais, ce qui constitue de la parole augmentée. Ce type de système a des applications dans des domaines tels que l'orthophonie, la correction phonétique et l'acquisition du langage. Ce travail a été mené dans le cadre du développement d'un système de retour articulatoire visuel, basé sur la morphologie et les stratégies articulatoires d'un locuteur de référence, qui anime automatiquement une tête parlante 3D à partir du son de la parole. La motivation de cette recherche était d'adapter ce système à plusieurs locuteurs. Ainsi, le double objectif de cette thèse était d'acquérir des connaissances sur la variabilité inter-locuteur, et de proposer des modèles pour adapter un clone de référence, composé de modèles des articulateurs de la parole (lèvres, langue, voile du palais, etc.), à d'autres locuteurs qui peuvent avoir des morphologies et des stratégies articulatoires différentes. Afin de construire des modèles articulatoires pour différents contours du conduit vocal, nous avons d'abord acquis des données qui couvrent l'espace articulatoire dans la langue française. Des Images médio-sagittales obtenues par Résonance Magnétique (IRM) pour onze locuteurs francophones prononçant 63 articulations ont été recueillis. L'un des principaux apports de cette étude est une base de données plus détaillée et plus grande que celles disponibles dans la littérature. Cette base contient, pour plusieurs locuteurs, les tracés de tous les articulateurs du conduit vocal, pour les voyelles et les consonnes, alors que les études précédentes dans la littérature sont principalement basées sur les voyelles. Les contours du conduit vocal visibles dans l'IRM ont été tracés à la main en suivant le même protocole pour tous les locuteurs. Afin d'acquérir de la connaissance sur la variabilité inter-locuteur, nous avons caractérisé nos locuteurs en termes des stratégies articulatoires des différents articulateurs tels que la langue, les lèvres et le voile du palais. Nous avons constaté que chaque locuteur a sa propre stratégie pour produire des sons qui sont considérées comme équivalents du point de vue de la communication parlée. La variabilité de la langue, des lèvres et du voile du palais a été décomposé en une série de mouvements principaux par moyen d'une analyse en composantes principales (ACP). Nous avons remarqué que ces mouvements sont effectués dans des proportions différentes en fonction du locuteur. Par exemple, pour un déplacement donné de la mâchoire, la langue peut globalement se déplacer dans une proportion qui dépend du locuteur. Nous avons également remarqué que la protrusion, l'ouverture des lèvres, l'influence du mouvement de la mâchoire sur les lèvres, et la stratégie articulatoire du voile du palais peuvent également varier en fonction du locuteur. Par exemple, certains locuteurs replient le voile du palais contre la langue pour produire la consonne /ʁ/. Ces résultats constituent également une contribution importante à la connaissance de la variabilité inter-locuteur dans la production de la parole. Afin d'extraire un ensemble de patrons articulatoires communs à différents locuteurs dans la production de la parole (normalisation), nous avons basé notre approche sur des modèles linéaires construits à partir de données articulatoires. Des méthodes de décomposition linéaire multiple ont été appliquées aux contours de la langue, des lèvres et du voile du palais. L'évaluation de nos modèles repose sur deux critères: l'explication de la variance et l'erreur quadratique moyenne. Les modèles ont également été évalués en utilisant une procédure de validation croisée. Le but de l'utilisation de telle procédure était de vérifier la capacité de généralisation des modèles en évaluant leurs performances sur des données qui n'ont pas été utilisées pour leur construction. Afin de modéliser la langue, les lèvres et le voile du palais avec un ensemble commun de composantes pour tous les locuteurs, plusieurs méthodes de décomposition linéaires multiple ont été utilisées et comparées. L'ACP conjointe a donné les meilleurs résultats. En conclusion, nous avons constaté une réduction considérable en termes de nombre de composantes nécessaires lors de l'utilisation d'ACP conjointe, par rapport au nombre total de composantes nécessaires par les modèles ACP individuels de tous les locuteurs. Ces résultats de modélisation constituent une extension importante des études disponibles dans la littérature, à des locuteurs plus nombreux, incluant de plus nombreuses articulations (en particulier les consonnes) et de plus nombreux articulateurs (lèvres, voile du palais).
100

Development of Convective Solder Reflow and Projection Moire System and FEA Model for PWBA Warpage Prediction

Powell, Reinhard Edison 11 April 2006 (has links)
Over the past 50 years, electronics manufacturing industry has undergone revolutionary changes, which have provided consumers with a plethora of electronic products. The increase in functionality of electronic products and decrease in cost due to continuous miniaturization and lower manufacturing costs have evolved over time. As electronics manufacturing technology becomes more advanced, reliability of electronic products and devices have become more of a concern. Thermomechanical reliability in electronics is studied in this research. Thermomechanical failures are failures due to temperature loading conditions electronic products and devices experience during manufacturing and service. The thermomechanical issue studied in this research is the effect of convective solder reflow on the warpage of packaged electronic devices, bare boards and chip packages. A convective reflow-projection moir warpage measurement system is designed and implemented in this research. The system is the first available system capable of measuring warpage of printed wiring boards (PWBs) with and without electronic components during simulated convective reflow process. A finite element prediction tool is also developed to predict the warpage of PWBs populated with plastic ball grid array (PBGA) packages. The developed warpage measurement system as well as the developed finite element model is used to study various PWB assembly (PWBA) configurations during simulated convective reflow processes.

Page generated in 0.0377 seconds