Spelling suggestions: "subject:"lot dyptique"" "subject:"lot doptique""
1 |
Contrôle adaptatif, techniques de régularisation et applications en analyse d'images / Adaptive control, regularization techniques and their applications in imageAmur, Khua Bux 19 September 2011 (has links)
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik / An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
|
2 |
Utilisation des déformations spatiales en assimilation de données / Use of spatial deformation in data assimilationLegrand, Raphaël 10 December 2015 (has links)
L'assimilation de données permet de construire un état initial du modèle (l'analyse) à partir de deux sources d'information : les observations disponibles et une prévision récente (l'ébauche). L'importance relative de chacune des sources dépend du modèle d'erreurs qui leur est attribué. Le modèle le plus commun en prévision numérique du temps (PNT) consiste à formuler l'erreur d'ébauche comme un incrément additif en amplitude et, avec une approche probabiliste, de spécifier sa fonction de densité de probabilité (PDF) par une Gaussienne spécifiée avec une moyenne nulle et une matrice de covariance B. Le premier problème abordé durant cette thèse est le manque de dépendance au flux des modélisations de B. Le deuxième est l'écartement à l'hypothèse Gaussienne notamment en présence d'erreurs de déplacement. La démarche suivie est d'utiliser des déformations spatiales dans un cadre ensembliste pour raffiner la modélisation des corrélations d'erreurs d'ébauche, et de corriger les erreurs de déplacement pour tenter de se rapprocher de l'hypothèse Gaussienne. La première partie du travail de thèse consiste à améliorer la modélisation de B, en prenant en compte objectivement l'anisotropie des corrélations d'erreurs d'ébauche à l'aide de déformations spatiales estimées statistiquement à partir d'un ensemble de prévisions générées avec un ensemble d'assimilation (EDA). Cette méthode statistique (ST) est appliquée à une simulation réelle du modèle global de Météo-France ARPEGE, et son efficacité est comparée à celle de la transformée géostrophique (GT) à l'aide de diagnostics d'anisotropie. Les résultats montrent que la ST est plus efficace que la GT avec une prise en compte plus systématique de l'anisotropie des corrélations spatiales. Dans une deuxième partie, une documentation de la non-Gaussianité (NG) des erreurs d'ébauche d'AROME, le modèle à échelle convective de Météo-France, est proposée. La NG des distributions d'erreurs d'ébauche, diagnostiquées à partir d'un EDA, est quantifiée par un indice uniquement basé sur leur asymétrie et leur aplatissement. La NG diagnostiquée a une forte dépendance spatiale et temporelle, avec des structures spatiales qui suivent les structures météorologiques. Le lien avec certains processus non-linéaires , liés par exemple à la présence de nuages, est notamment observé. Les diagnostics montrent également que le processus d'analyse réduit fortement la NG observée dans l'ébauche, et que la vorticité et la divergence sont les variables de contrôle de l'assimilation les moins Gaussiennes. Une des causes possibles de la NG étant la présence d'erreurs de déplacement, la troisième partie de ce travail de thèse s'attache à documenter les apports de ce modèle d'erreurs alternatif. Un algorithme d'estimation des erreurs de déplacements a tout d'abord été mis en place. Cet algorithme, qui s'inspire des méthodes d'estimation du flot optique, se base sur une approche variationnelle quasi-linéaire, quasi Gaussienne et multi-échelles. Le comportement de la méthode a été testé sur des cas idéalisés, puis sur des cas réels basés sur des prévisions AROME. Ceci permet d'envisager à l'avenir l'estimation statistique des principaux paramètres caractérisants ce type d' erreurs, ainsi que leur exploitation dans des algorithmes visant à corriger ces erreurs en amont de la correction d'amplitude. / Data assimilation provides initial conditions (the analysis) for the model from two sources of information: the available observations and a short term forecast (the background). The relative weights of both sources depend on the chosen error model. Usually, background errors are modeled as additive amplitude errors and, following a probabilistic approach, their probability density function (PDF) are modeled as Gaussians, specified with a zero mean and a covariance matrix B. For this PhD, the tackled issue are the lack of flow dependency of B and the non-Gaussianity (NG) frequently arising in numerical weather prediction (NWP), especially in case of displacement error. Using spatial deformation methods and ensemble of forecasts generated from an ensemble of data (EDA), the aim of this work is to refine the model of background error correlations, and to correct displacement errors as a possible way to get closer to the Gaussian hypothesis. A first part of this work is to improve the B modeling, by accounting objectively for the anisotropy of the background error correlations thanks to spatial deformation, which is statistically estimated from an EDA. This statistical method (ST) is applied to a real dataset of ARPEGE, the global model at Météo-France. The ST is compared to an other spatial warping method, the geostrophic transform (GT), and their efficiency are quantified by an anisotropy index. Results show a better efficiency of the ST than the GT, with a more systematic accounting of the anisotropy of the spatial background correlations. The second part of this work is a documentation of the NG for the background errors of AROME, the convective scale model at Météo-France. Distributions are diagnosed from an EDA, and their Gaussianity is quantified with a statistical index only based on two shape parameters, skewness and kurtosis. The diagnosed NG is spatially and temporally dependent, with large similarities between meteorological and NG structures. Links with nonlinear processes, linked for example to cloud covering, are observed. Diagnostics also show that the analysis step is largely decreasing the observed NG of the background, and that the most non-Gaussian variables in control space are vorticity and divergence. Since, a possible reason of the NG is the displacement errors, the third part of this PhD work aims at getting insight in the documentation of this alternative error model. First, a quasi-linear, quasi-Gaussian and multi-scale method, inspired from optical flow estimation methods, is derived. It has been tested on ideal case and on real cases based on AROME forecast fields. Future works may be, first, a statistical estimation of the main parameters characterizing this kind of error, and second, the use of this algorithm to correct displacement error upstream of the additive error correction.
|
3 |
La réalité virtuelle pour initier et contrôler la démarche chez des patients atteints de la maladie de ParkinsonLaberge, Philippe-Armand January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Recalage non rigide en imagerie cérébrale : méthodes et validationHellier, Pierre 22 December 2000 (has links) (PDF)
Dans le contexte de la fusion de données en imagerie médicale, cette thèse s'intéresse aux problèmes de recalage non-rigide en imagerie cérébrale, monomodalité et multimodalité. Dans un premier temps, nous avons développé une approche originale pour estimer une transformation $3D$ dense entre deux volumes IRM de deux sujets différents. Cette méthode est basée sur une estimation du flot optique, exprimé dans un cadre statistique robuste. Nous avons également proposé un schéma de minimisation efficace, à la fois multirésolution et multigrille, s'appuyant sur des contraintes anatomiques. Nous avons validé cette méthode sur des données synthétiques, puis sur une base de donnée de 18 sujets. Dans un deuxième temps, nous nous sommes intéressés au problème du recalage non-rigide multimodalité. Les images fonctionnelles IRMf, en acquisition EPI, présentent des déformations géométriques qui gênent l'interprétation des données fonctionnelles. Nous avons proposé un algorithme de recalage non-rigide multimodalité à l'aide d'une mesure de similarité adaptée, dans un cadre de minimisation multigrille. Dans un troisième temps, nous avons proposé un cadre de validation de méthodes de recalage non-rigides. 5 méthodes différentes, parmi lesquelles des approches classiques et des approches plus récentes, ont été évaluées sur la base de critères globaux (volume moyen, corrélation des Lvv, recouvrement des tissus anatomiques) et de critères locaux (recalage des sillons corticaux). Enfin, nous avons étudié des approches coopératives utilisant les processus de segmentation et de recalage. Basée sur une méthode de type ``ensemble de niveaux'', la segmentation de structures anatomiques peut être guidée par un champ grossier de déformation. Le recalage permet d'initialiser correctement les modèles déformables, entraînant une segmentation automatique, plus robuste, plus précise et considérablement plus rapide. D'autre part, la segmentation de structures anatomiques d'intérêt comme les sillons corticaux permet de contraindre le processus de recalage présenté dans la première partie. En particulier, le cadre statistique permet d'intégrer cette contrainte locale et éparse de manière naturelle. Sur la base de 18 sujets, nous avons montré l'apport de cette contrainte anatomique.
|
5 |
Architecture et Conception de Rétines Silicium CMOS : Application à la mesure du flot optiqueNavarro, David 17 October 2003 (has links) (PDF)
Le développement des technologies sub-microniques a permis un regain d'intérêt pour les capteurs d'images CMOS, qui inondent aujourd'hui le marché des capteurs. Les approches conventionnelles pour la conception de machines de vision sont en général basées sur des architectures connectées à une caméra. L'approche proposée dans ce travail consiste à associer, dans un même circuit – une rétine CMOS -, les photocapteurs et des fonctions de pré-traitement de l'image, permettant ainsi de répartir et d'optimiser le traitement. Ces rétines ont des performances en vitesse, en intégration et en consommation meilleures que les solutions classiques (capteurs puis traitements logiciels et/ou matériels). Cette thèse porte plus précisément sur l'intégration d'un algorithme d'estimation du mouvement en transposant le calcul numérique fortement itératif en une structure de calcul électronique. Après avoir réalisé un circuit permettant d'acquérir des connaissances dans le domaine des capteurs d'images CMOS, nous avons conçu un circuit de vision estimant le mouvement. Cette estimation de mouvement est basée sur une méthode robuste de mise en correspondance de blocs de pixels, comprenant une phase de pré-codage des pixels suivi<br />d'une recherche de ce codage dans une fenêtre de destination potentielle. Cette approche est novatrice car elle propose une rétine CMOS pouvant traiter (électroniquement) des scènes fortement texturées, et à luminosité changeante, en s'appuyant sur une méthode jusqu'alors réservée aux approches numériques (FPGA, DSP) ou logicielles.
|
6 |
Estimation d'un mouvement de caméra et problèmes connexesJonchery, Claire 06 November 2006 (has links) (PDF)
Cette thèse aborde le problème de l'estimation du mouvement d'une caméra filmant une scène fixe, à partir de la séquence d'images obtenue.<br />La méthode proposée s'applique à l'estimation du mouvement entre deux images consécutives et repose sur la détermination d'une déformation 2D quadratique. <br />A partir du mouvement estimé, nous étudions ensuite le problème de l'estimation de la structure de la scène filmée. Pour cela, nous appliquons une méthode de Belief Propagation directement sur un couple d'images, sans rectification, en utilisant l'estimation du mouvement.<br />Enfin, nous examinons l'injectivité de la fonction associant un flot optique au mouvement d'une caméra et à la structure de la scène filmée. Deux mouvements de caméra étant donnés, nous décrivons le domaine d'observation où les flots générés sont susceptibles d'être identiques, et les surfaces filmées qui, associées aux deux mouvements, produiront ces flots ambigus.
|
7 |
Contrôle réactif d'écoulements décollés à l'aide de PIV temps réel / Closed-loop control separated flows using real-time PIVVaron, Eliott 13 October 2017 (has links)
Les écoulements décollés sont omniprésents dans la nature comme dans les écoulements industriels (aérodynamique externe des véhicules, des bâtiments, écoulements autour d’aubes de turbines, aérodynamique interne dans des tuyaux...) où ils sont en général sources de nuisances (vibrations, bruit aéroacousitque, forces de traînée ou de portance). Les enjeux associés à la compréhension et à la maîtrise de tels écoulements, caractérisés par une bulle de recirculation, sont donc considérables.Un capteur "visuel" non invasif développé au laboratoire PMMH est d'abord amélioré afin d'accéder en temps réel aux champs de vitesses - et à leurs grandeurs dérivées - des écoulements rencontrés en soufflerie industrielle. Basé sur un algorithme de flot optique issu de la vision par ordinateur, cette approche expérimentale novatrice permet de faciliter les études paramétriques et peut être implémenté dans des boucles de contrôle réactif.Ensuite, les mesures obtenues pour un écoulement sur une plaque plane sont analysées dans le cadre de l'identification de système. Un modèle d’ordre réduit est alors construit par apprentissage, permettant de prédire la dynamique de la transition de la couche limite laminaire vers la turbulence.Enfin, le sillage pleinement turbulent derrière une géométrie modélisant une voiture simplifiée est caractérisé, de façon classique et en tant que système dynamique. Différentes modifications de l'écoulement à l'aide de micro-jets sont testées. Une loi de contrôle réactif consistant à suivre et forcer la recirculation est mise en œuvre avec succès. / Separated flows are ubiquitous in nature and industrial systems, such as diffusers, airfoils, air conditioning plants, moving vehicles... As the separation can strongly influence the performances of such devices, investigating their dynamics and their control is of great interest.A visual sensor developed at PMMH laboratory is first improved to measure in real time the velocity fields and its derived values for flows available in wind tunnels. Based on an optical flow algorithm from the computer vision domain, this new experimental approach makes easier parametric studies and may be used in closed-loop controls.The dynamics of the flow over a flat plate are then investigated. A system identification method - the dynamic observer - is successfully implemented to build a reduced-order model of the transient flow, which captures and predicts well the instabilities generated.Finally, the fully turbulent wake of the square-back Ahmed body is described. Dynamical system tools are applied to characterize it. Using continuous and pulsed micro-jets, different forcing strategies are analyzed. An opposition closed-loop control is implemented, tracking and driving the recirculation.
|
8 |
Spatio-temporal descriptors for human action recognition / Reconnaissance d’action à partir de descripteurs spatio-temporelsMegrhi, Sameh 15 December 2014 (has links)
L'analyse et l’interprétation de contenus visuels et plus particulièrement la vidéo est un domaine de recherche de plus en plus attractif en raison du nombre important d'applications telles que la vidéo-surveillance, le résumé de films, l'indexation, les jeux vidéo, la robotique et la domotique. Dans cette thèse nous nous intéressons à la détection et à la reconnaissance d'actions humaines dans des séquences vidéo. Pour la partie détection des actions, nous avons introduit deux approches basées sur les points d'intérêts locaux. La première proposition est une méthode simple et efficace qui vise à détecter les mouvements humains ensuite contribuer à extraire des séquences vidéo décrivant des actions importantes. Afin d'atteindre cet objectif, les premières séquences vidéo sont segmentées en volumes de trames et groupes de points d’intérêts. Dans cette méthode, nous nous basons sur le suivi du mouvement des points d'intérêts. Nous avons utilisé, dans un premier lieu, des vidéos simples puis nous avons progressivement augmenté la complexité des vidéos en optant pour des scènes réalistes. Les jeux de données simples présentent généralement un arrière-plan statique avec un Seul acteur qui effectue une seule action unique ou bien la même action mais d'une manière répétitive. Nous avons ensuite testé la robustesse de la détection d'action proposée dans des jeux de données plus complexes réalistes recueillis à partir des réseaux sociaux. Nous avons introduit une approche de détection d'actions efficace pour résoudre le problème de la reconnaissance d'actions humaines dans les vidéos réalistes contenant des mouvements de caméra. Le mouvement humain est donc segmenté d'une manière spatio-temporelle afin de détecter le nombre optimal de trames suffisant pour effectuer une description vidéo. Les séquences sont décrites au moyen de descripteurs spatio-temporels. Nous avons proposé dans cette thèse deux nouveaux descripteurs spatio-temporels basés sur le suivi de la trajectoire des points d'intérêts. Les suivis et la description vidéo sont effectués sur les patchs vidéo qui contiennent un mouvement ou une partie d'un mouvement détecté par la segmentation réalisée lors de l'étape précédente. Nous nous sommes basés sur le descripteur SURF non seulement pour sa précision et mais surtout pour la rapidité. Le premier descripteur proposé est appelé ST-SURF basé sur une nouvelle combinaison du (SURF) et du flot optique. Le ST-SURF permet le suivi de la trajectoire des points d'intérêts tout en gardant les informations spatiales, pertinentes, provenant du SURF. Le deuxième descripteur proposé dans le cadre de cette thèse est un histogramme du mouvement de la trajectoire (HMTO). HMTO est basé sur la position ainsi que l'échelle relative à un SURF. Ainsi, pour chaque SURF détecté, nous définissons une région du voisinage du point d'intérêt en nous basant sur l'échelle. Pour le patch détecté, nous extrayons le flot optique d'une manière dense. Les trajectoires de mouvement sont ensuite générées pour chaque pixel en exploitant les composantes horizontale et verticale de flot optique (u, v). La précision de la description de la vidéo proposée est testée sur un ensemble de données complexes et un plus grand ensemble de données réalistes. Les descripteurs de vidéo proposés sont testés d'une manière simple puis en les fusionnants avec d'autres descripteurs. Les descripteurs vidéo ont été introduits dans un processus de classification basé sur le sac de mots et ont démontré une amélioration des taux de reconnaissance par rapport aux approches précédemment proposés dans l'état-de-l ‘art. / Due to increasing demand for video analysis systems in recent years, human action de-tection/recognition is being targeted by the research community in order to make video description more accurate and faster, especially for big datasets. The ultimate purpose of human action recognition is to discern automatically what is happening in any given video. This thesis aims to achieve this purpose by contributing to both action detection and recognition tasks. We thus have developed new description methods for human action recognition.For the action detection component we introduce two novel approaches for human action detection. The first proposition is a simple yet effective method that aims at detecting human movements. First, video sequences are segmented into Frame Packets (FPs) and Group of Interest Points (GIP). In this method we track the movements of Interest Points in simple controlled video datasets and then in videos of gradually increasing complexity. The controlled datasets generally contain videos with a static background and simple ac-tions performed by one actor. The more complex realistic datasets are collected from social networks.The second approach for action detection attempts to address the problem of human ac-tion recognition in realistic videos captured by moving cameras. This approach works by segmenting human motion, thus investigating the optimal sufficient frame number to per-form action recognition. Using this approach, we detect object edges using the canny edge detector. Next, we apply all the steps of the motion segmentation process to each frame. Densely distributed interest points are detected and extracted based on dense SURF points with a temporal step of N frames. Then, optical flows of the detected key points between two frames are computed by the iterative Lucas and Kanade optical flow technique, using pyramids. Since we are dealing with scenes captured by moving cameras, the motion of objects necessarily involves the background and/or the camera motion. Hence, we propose to compensate for the camera motion. To do so, we must first assume that camera motion exists if most points move in the same direction. Then, we cluster optical flow vectors using a KNN clustering algorithm in order to determine if the camera motion exists. If it does, we compensate for it by applying the affine transformation to each frame in which camera motion is detected, using as input parameters the camera flow magnitude and deviation. Finally, after camera motion compensation, moving objects are segmented using temporal differencing and a bounding box is drawn around each detected moving object. The action recognition framework is applied to moving persons in the bounding box. Our goal is to reduce the amount of data involved in motion analysis while preserving the most important structural features. We believe that we have performed action detection in the spatial and temporal domain in order to obtain better action detection and recognition while at the same time considerably reducing the processing time...
|
9 |
Mise en oeuvre d'un système Java en imagerie : application à l'ophtalmologieTremblay, Miguel 08 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Les images numériques et analogues de rétine ont depuis le début du siècle contribuées
au diagnostic des maladies affectant l'oeil. Les découvertes reliant les images aux
différentes maladies sont très dépendantes de la technologie utilisées pour l'acquisition
et le traitement des images.
Dans ce mémoire, nous proposons une méthode, pouvant être utilisée via internet,
faisant l'appariement d'une paire d'images de rétine pour déduire de l'information
sur la topographie de la papille, partie visible du nerf optique reliant les axones de la
rétine au cerveau. Tout ceci dans le but de faire le diagnostic préventif du glaucome.
La méthode utilisée pour la correspondance des images se nomme le flot optique et
est conjugué avec l'approche hiérarchique. Nous concluons que les résultats obtenues
pour un oeil sain sont en accord avec la littérature mais pourrait être plus précis pour
ce qui est de la reproductibilité.
|
10 |
Le signal monogène couleur : théorie et applicationsDemarcq, Guillaume 10 December 2010 (has links) (PDF)
Dans cette thèse, une nouvelle représentation des images couleur basée sur une généralisation du signal analytique est introduite. En utilisant l'analogie entre les conditions de Cauchy-Riemann, qui définissent le caractère holomorphe d'une fonction, et l'équation de Dirac dans l'algèbre de Clifford R_{5,0}, un système d'équations dont la solution est le signal monogène couleur est obtenu. Ce signal est notamment basé sur des noyaux de Riesz ainsi que de Poisson 2D, et une représentation polaire, basée sur un produit géométrique, peut lui être associée. Les applications envisagées reposent majoritairement sur cette représentation polaire et sur les informations de couleur et de structures locales s'y rattachant. Des problématiques liées au flot optique couleur, à la segmentation couleur multi-échelle, au suivi d'objets couleur et à la détection de points d'intérêt sont abordées. En ce qui concerne le flot optique, nous nous intéressons à l'extraction du mouvement d'objets d'une certaine couleur en remplaçant la contrainte de conservation de l'intensité par une contrainte de conservation d'angles. Pour la segmentation, une méthode de détection de contours basée sur de la géométrie différentielle et plus particulièrement sur la première forme fondamentale d'une surface, est proposée afin de déterminer les contours d'objets d'une couleur choisie. Pour le suivi d'objets, nous définissons un nouveau critère de similarité utilisant le produit géométrique que nous insérons dans un filtrage particulaire. Enfin, nous resituons la définition du détecteur de Harris dans le cadre de la géométrie différentielle en faisant le lien entre ce dernier et une version "relaxée" du discriminant du polynôme caractéristique de la première forme fondamentale. Ensuite nous proposons une nouvelle version multi-échelle de ce détecteur en traitant le paramètre d'échelle comme une variable d'une variété de dimension 3.
|
Page generated in 0.0577 seconds