• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 23
  • 17
  • 15
  • 13
  • 12
  • 5
  • 4
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 223
  • 223
  • 74
  • 63
  • 60
  • 55
  • 42
  • 37
  • 36
  • 33
  • 30
  • 28
  • 27
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Bio-inspired Optical Flow Interpretation with Fuzzy Logic for Behavior-Based Robot Control

Mai, Ngoc Anh, Janschek, Klaus 10 February 2010 (has links)
This paper presents a bio-inspired approach for optical flow data interpretation based on fuzzy inference decision making for visual mobile robot navigation. The interpretation results of regionally averaged optical flow patterns with pyramid segmentation of the optical flow field deliver fuzzy topological and topographic information of the surrounding environment (topological structure from motion). It allows a topological localization in a global map as well as controlled locomotion (obstacle avoidance, goal seeking) in a changing and dynamic environment. The topological optical flow processing is embedded in a behavior based mobile robot navigation system which uses only a mono-camera as primary navigation sensor. The paper discusses the optical flow processing approach as well as the rule based fuzzy inference algorithms used. The implemented algorithms have been tested successfully with synthetic image data for a first verification and parameter tuning as well as in a real office environment with real image data.
182

DESIGN AND ANALYSIS OF A STAGED COMBUSTOR FEATURING A PREMIXED TRANSVERSE REACTING FUEL JET INJECTED INTO A VITIATED CONFINED CROSSFLOW

Oluwatobi O Busari (9437825) 29 April 2021 (has links)
Combustion phenomena are complex in theory and expensive to test, analysis techniques<br>provide handles with which we may describe them. Just as simultaneous experimental tech-<br>niques provide complementary descriptions of flame behavior, one might assume that no<br>analysis technique for any kind of flame measurement would cover the full description of<br>the flame. To this end, the search continues for complementary descriptions of engineering<br>flames that capture enough information for the engine designer to make informed decisions.<br>The kinds of flames I have encountered are high pressure transverse jet flames issuing into a<br>vitiated crossflow which is itself generated from combustion of a gaseous fuel and oxidizer.<br>Summarizing the behavior of these flames has required my understanding of experimen-<br>tal techniques such as Planar Laser Induced Fluorescence of a reaction intermediate -OH,<br>Particle Image Velocimetry of a passive tracer in the flame and OH * chemiluminescence of<br>another reaction intermediate. The analysis tools applied to these measurements must reveal<br>as much information as is laden in these measurements.<br>In this work I have also used wavelet optical flow to track flow features in the visualization<br>of combustion intermediates using OH * chemiluminescence. There are many limitations to<br>the application of this technique to engineering flames especially due to the interpretation<br>of the data as a 2-D motion field in 3-D world. The interpretation of such motion fields<br>as generated by scalar fields is one subject matter discussed in this dissertation. Some<br>inferences from the topology of the ensuing velocity field has provided insight to the behavior<br>of reacting turbulent flows which appear attached to an injector in the mean field. It gives<br>some understanding to the robustness of the attachment mechanism when such flames are<br>located near walls.
183

Évaluation d’algorithmes stéréoscopiques de haute précision en faible B/H / Evaluation of high precision low baseline stereo vision algorithms

Dagobert, Tristan 04 December 2017 (has links)
Cette thèse étudie la précision en vision stéréo, les méthodes de détection dites a contrario et en présente une application à l'imagerie satellitaire. La première partie a été réalisée dans le cadre du projet DGA-ANR-ASTRID "STÉRÉO". Son but est de définir les limites effectives des méthodes de reconstruction stéréo quand on contrôle toute la chaîne d’acquisition à la précision maximale, que l’on acquiert des paires stéréo en rapport B/H très faible et sans bruit. Pour valider ce concept, nous créons des vérités terrains très précises en utilisant un rendeur. En gardant les rayons calculés durant le rendu, nous avons une information très dense sur la scène 3D. Ainsi nous créons des cartes d'occultations, de disparités dont l'erreur de précision est inférieure à 10e-6. Nous avons mis à la disposition de la communauté de recherche des images de synthèse avec un SNR supérieur à 500 : un ensemble de 66 paires stéréo dont le B/H varie de1/2500 à 1/50. Pour évaluer les méthodes de stéréo sur ce nouveau type de données, nous proposons des métriques calculant la qualité des cartes de disparités estimées, combinant la précision et la densité des points dont l'erreur relative est inférieure à un certain seuil. Nous évaluons plusieurs algorithmes représentatifs de l'état de l'art, sur les paires créées ainsi sur les paires de Middlebury, jusqu'à leurs limites de fonctionnement. Nous confirmons par ces analyses, que les hypothèses théoriques sur le bien-fondé du faible B/H en fort SNR sont valides, jusqu'à une certaine limite que nous caractérisons. Nous découvrons ainsi que de simples méthodes de flux optique pour l'appariement stéréo deviennent plus performantes que des méthodes variationnelles discrètes plus élaborées. Cette conclusion n'est toutefois valide que pour des forts rapports signal à bruit. L'exploitation des données denses nous permet de compléter les vérités terrain par une détection très précise des bords d'occultation. Nous proposons une méthode de calcul de contours vectoriels subpixéliens à partir d'un nuage de points très dense, basée sur des méthodes a contrario de classification de pixels. La seconde partie de la thèse est dédiée à une application du flot optique subpixélien et des méthodes a contrario pour détecter des nuages en imagerie satellitaire. Nous proposons une méthode qui n'exploite que l'information visible optique. Elle repose sur la redondance temporelle obtenue grâce au passage répété des satellites au-dessus des mêmes zones géographiques. Nous définissons quatre indices pour séparer les nuages du paysage : le mouvement apparent inter-canaux, la texture locale, l'émergence temporelle et la luminance. Ces indices sont modélisés dans le cadre statistique des méthodes a contrario qui produisent un NFA (nombre de fausses alarmes pour chacun). Nous proposons une méthode pour combiner ces indices et calculer un NFA beaucoup plus discriminant. Nous comparons les cartes de nuages estimées à des vérités terrain annotées et aux cartes nuageuses produites par les algorithmes liés aux satellites Landsat-8 etSentinel-2. Nous montrons que les scores de détection et de fausses alarmes sont supérieurs à ceux obtenus avec ces algorithmes, qui pourtant utilisent une dizaine de bandes multi-spectrales. / This thesis studies the accuracy in stereo vision, detection methods calleda contrario and presents an application to satellite imagery. The first part was carried out within the framework of the project DGA-ANR-ASTRID"STEREO". His The aim is to define the effective limits of stereo reconstruction when controlling the entire acquisition chain at the maximum precision, that one acquires stereo pairs in very low baseline and noise-free. To validate thisconcept, we create very precise ground truths using a renderer. By keeping the rays computed during rendering, we have very dense information on the 3Dscene. Thus we create occultation and disparity maps whose precision error is less than 10e-6. We have made synthetic images available to the research community with an SNR greater than 500: a set of 66 stereo pairs whoseB/H varies from 1/2500 to 1/50. To evaluate stereo methods onthis new type of data, we propose metrics computing the quality of the estimated disparity maps, combining the precision and the density of the points whose relative error is less than a certain threshold. We evaluate several algorithmsrepresentative of the state of the art, on the pairs thus created and on theMiddlebury pairs, up to their operating limits. We confirm by these analyzesthat the theoretical assumptions about the merit of the low B/H in highSNR are valid, up to a certain limit that we characterize. We thus discover that simple optical flow methods for stereo matching become more efficient than more sophisticated discrete variational methods. This conclusion, however, is only valid for high signal-to-noise ratios. The use of the dense data allows us to complete the ground truths a subpixel detection of the occlusion edges. We propose a method to compute subpixel vector contours from a very dense cloud ofpoints, based on pixel classification a contrario methods. The second part of the thesis is devoted to an application of the subpixelian optical flowand a contrario methods to detect clouds in satellite imagery. We propose a method that exploits only visible optical information. It is based onthe temporal redundancy obtained by the repeated passages of the satellites overthe same geographical zones. We define four clues to separate the clouds fromthe landscape: the apparent inter-channel movement, Local texture, temporal emergence and luminance. These indices are modeled in the statistical framework of a contrario methods which produce an NFA (number of false alarms for each). We propose a method for combining these indices and computing a much more discriminating NFA. We compare the estimated cloud maps to annotated ground truths and the cloud maps produced by the algorithms related to the Landsat-8and Sentinel-2 satellites. We show that the detection and false alarms scores are higher than those obtained with these algorithms, which however use a dozen multi-spectral bands.
184

Optical Flow-based Artificial Potential Field Generation for Gradient Tracking Sliding Mode Control for Autonomous Vehicle Navigation

Capito Ruiz, Linda J. 29 July 2019 (has links)
No description available.
185

Visual Tracking Using Deep Motion Features / Visuell följning med hjälp av djup inlärning och optiskt flöde

Gladh, Susanna January 2016 (has links)
Generic visual tracking is a challenging computer vision problem, where the position of a specified target is estimated through a sequence of frames. The only given information is the initial location of the target. Therefore, the tracker has to adapt and learn any kind of object, which it describes through visual features used to differentiate target from background. Standard appearance features only capture momentary visual information. This master’s thesis investigates the use of deep features extracted through optical flow images processed in a deep convolutional network. The optical flow is calculated using two consecutive images, and thereby captures the dynamic nature of the scene. Results show that this information is complementary to the standard appearance features, and improves performance of the tracker. Deep features are typically very high dimensional. Employing dimensionality reduction can increase both the efficiency and performance of the tracker. As a second aim in this thesis, PCA and PLS were evaluated and compared. The evaluations show that the two methods are almost equal in performance, with PLS actually receiving slightly better score than the popular PCA. The final proposed tracker was evaluated on three challenging datasets, and was shown to outperform other state-of-the-art trackers.
186

Le signal monogène couleur : théorie et applications / The Color Monogenic Signal : theory and applications

Demarcq, Guillaume 10 December 2010 (has links)
Dans cette thèse, une nouvelle représentation des images couleur basée sur une généralisation du signal analytique est introduite. En utilisant l'analogie entre les conditions de Cauchy-Riemann, qui définissent le caractère holomorphe d'une fonction, et l'équation de Dirac dans l'algèbre de Clifford R_{5,0}, un système d'équations dont la solution est le signal monogène couleur est obtenu. Ce signal est notamment basé sur des noyaux de Riesz ainsi que de Poisson 2D, et une représentation polaire, basée sur un produit géométrique, peut lui être associée. Les applications envisagées reposent majoritairement sur cette représentation polaire et sur les informations de couleur et de structures locales s'y rattachant. Des problématiques liées au flot optique couleur, à la segmentation couleur multi-échelle, au suivi d'objets couleur et à la détection de points d'intérêt sont abordées. En ce qui concerne le flot optique, nous nous intéressons à l'extraction du mouvement d'objets d'une certaine couleur en remplaçant la contrainte de conservation de l'intensité par une contrainte de conservation d'angles. Pour la segmentation, une méthode de détection de contours basée sur de la géométrie différentielle et plus particulièrement sur la première forme fondamentale d'une surface, est proposée afin de déterminer les contours d'objets d'une couleur choisie. Pour le suivi d'objets, nous définissons un nouveau critère de similarité utilisant le produit géométrique que nous insérons dans un filtrage particulaire. Enfin, nous resituons la définition du détecteur de Harris dans le cadre de la géométrie différentielle en faisant le lien entre ce dernier et une version "relaxée" du discriminant du polynôme caractéristique de la première forme fondamentale. Ensuite nous proposons une nouvelle version multi-échelle de ce détecteur en traitant le paramètre d'échelle comme une variable d'une variété de dimension 3. / In this thesis, a novel framework for color image processing is introduced based on the generalization of the analytic signal. Using the analogy between the Cauchy-Riemann conditions and the Dirac equation in the Clifford algebra R_{5,0}, a system of equations which leads to the color monogenic signal is obtained. This latter is based on the Riesz and 2D Poisson kernels, and a polar representation based on the geometric product can be associated to this signal. Some applications using color and local structure information provided by the polar representation are presented. Namely, color optical flow, color segmentation, color object tracking and points of interest are developed. Extraction of optical flow in a chosen color is obtained by replacing the brightness constancy assumption by an angle constancy. Edge detection is based on the first fundamental form from differential geometry in order to segment object in a predefined color. Object tracking application uses a new similarity criterion defined by geometric product of block of vectors. This latter is viewed as the likelyhood measure of a particle filter. Last part of the thesis is devoted to the definition of the Harris detector in the framework of differential geometry and a link between this definition and a relaxed version of the characteristic polynomial discriminant of the first fundamental form is given. In this context, a new scale-space detector is provided as the result of handling the scale parameter as a variable in a 3-manifold.
187

Table tennis event detection and classification

Oldham, Kevin M. January 2015 (has links)
It is well understood that multiple video cameras and computer vision (CV) technology can be used in sport for match officiating, statistics and player performance analysis. A review of the literature reveals a number of existing solutions, both commercial and theoretical, within this domain. However, these solutions are expensive and often complex in their installation. The hypothesis for this research states that by considering only changes in ball motion, automatic event classification is achievable with low-cost monocular video recording devices, without the need for 3-dimensional (3D) positional ball data and representation. The focus of this research is a rigorous empirical study of low cost single consumer-grade video camera solutions applied to table tennis, confirming that monocular CV based detected ball location data contains sufficient information to enable key match-play events to be recognised and measured. In total a library of 276 event-based video sequences, using a range of recording hardware, were produced for this research. The research has four key considerations: i) an investigation into an effective recording environment with minimum configuration and calibration, ii) the selection and optimisation of a CV algorithm to detect the ball from the resulting single source video data, iii) validation of the accuracy of the 2-dimensional (2D) CV data for motion change detection, and iv) the data requirements and processing techniques necessary to automatically detect changes in ball motion and match those to match-play events. Throughout the thesis, table tennis has been chosen as the example sport for observational and experimental analysis since it offers a number of specific CV challenges due to the relatively high ball speed (in excess of 100kph) and small ball size (40mm in diameter). Furthermore, the inherent rules of table tennis show potential for a monocular based event classification vision system. As the initial stage, a proposed optimum location and configuration of the single camera is defined. Next, the selection of a CV algorithm is critical in obtaining usable ball motion data. It is shown in this research that segmentation processes vary in their ball detection capabilities and location out-puts, which ultimately affects the ability of automated event detection and decision making solutions. Therefore, a comparison of CV algorithms is necessary to establish confidence in the accuracy of the derived location of the ball. As part of the research, a CV software environment has been developed to allow robust, repeatable and direct comparisons between different CV algorithms. An event based method of evaluating the success of a CV algorithm is proposed. Comparison of CV algorithms is made against the novel Efficacy Metric Set (EMS), producing a measurable Relative Efficacy Index (REI). Within the context of this low cost, single camera ball trajectory and event investigation, experimental results provided show that the Horn-Schunck Optical Flow algorithm, with a REI of 163.5 is the most successful method when compared to a discrete selection of CV detection and extraction techniques gathered from the literature review. Furthermore, evidence based data from the REI also suggests switching to the Canny edge detector (a REI of 186.4) for segmentation of the ball when in close proximity to the net. In addition to and in support of the data generated from the CV software environment, a novel method is presented for producing simultaneous data from 3D marker based recordings, reduced to 2D and compared directly to the CV output to establish comparative time-resolved data for the ball location. It is proposed here that a continuous scale factor, based on the known dimensions of the ball, is incorporated at every frame. Using this method, comparison results show a mean accuracy of 3.01mm when applied to a selection of nineteen video sequences and events. This tolerance is within 10% of the diameter of the ball and accountable by the limits of image resolution. Further experimental results demonstrate the ability to identify a number of match-play events from a monocular image sequence using a combination of the suggested optimum algorithm and ball motion analysis methods. The results show a promising application of 2D based CV processing to match-play event classification with an overall success rate of 95.9%. The majority of failures occur when the ball, during returns and services, is partially occluded by either the player or racket, due to the inherent problem of using a monocular recording device. Finally, the thesis proposes further research and extensions for developing and implementing monocular based CV processing of motion based event analysis and classification in a wider range of applications.
188

Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images / Contributions to the problems of extrinsic calibration semitransparent displays for augmented reality and dense mapping images

Braux-Zin, Jim 26 September 2014 (has links)
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives. / Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods.
189

Techniques variationnelles et calcul parallèle en imagerie : Estimation du flot optique avec luminosité variable en petits et larges déplacements / Variational techniques and parallel computing in computer vision : Optical flow estimation with varying illumination in small and large displacements

Gilliocq-Hirtz, Diane 07 July 2016 (has links)
Le travail présenté dans cette thèse porte sur l'estimation du flot optique par méthodes variationnelles en petits et en grands déplacements. Nous proposons un modèle basé sur la combinaison locale-globale à laquelle nous ajoutons la prise en compte des variations de la luminosité. La particularité de ce manuscrit réside dans l'utilisation de la méthode des éléments finis pour la résolution des équations. En effet, cette méthode se fait pour le moment très rare dans le domaine du flot optique. Grâce à ce choix de résolution, nous proposons d'implémenter un contrôle local de la régularisation ainsi qu'une adaptation de maillage permettant d'affiner la solution au niveau des arêtes de l'image. Afin de réduire les temps de calcul, nous parallélisons les programmes. La première méthode implémentée est la méthode parallèle en temps appelée pararéel. En couplant un solveur grossier et un solveur fin, cet algorithme permet d'accélérer les calculs. Pour pouvoir obtenir un gain de temps encore plus important et également traiter les séquences en haute définition, nous utilisons ensuite une méthode de décomposition de domaine. Combinée au solveur massivement parallèle MUMPS, cette méthode permet un gain de temps de calcul significatif. Enfin, nous proposons de coupler la méthode de décomposition de domaine et le pararéel afin de profiter des avantages de chacune. Dans une seconde partie, nous appliquons tous ces modèles dans le cas de l'estimation du flot optique en grands déplacements. Nous proposons de nous servir du pararéel afin de traiter la non-linéarité de ce problème. Nous terminons par un exemple concret d'application du flot optique en restauration de films. / The work presented in this thesis focuses on the estimation of the optical flow through variational methods in small and large displacements. We propose a model based on the combined local-global strategy to which we add the consideration of brightness intensity variations. The particularity of this manuscript is the use of the finite element method to solve the equations. Indeed, for now, this method is really rare in the field of the optical flow. Thanks to this choice of resolution, we implement an adaptive control of the regularization and a mesh adaptation to refine the solution on the edges of the image. To reduce computation times, we parallelize the programs. The first method implemented is a parallel in time method called parareal. By combining a coarse and a fine solver, this algorithm speeds up the computations. To save even more time and to also be able to handle high resolution sequences, we then use a domain decomposition method. Combined with the massively parallel solver MUMPS, this method allows a significant reduction of computation times. Finally, we propose to couple the domain decomposition method and the parareal to have the benefits of both methods. In the second part, we apply all these models to the case of the optical flow estimation in large displacements. We use the parareal method to cope with the non-linearity of the problem. We end by a concrete example of application of the optical flow in film restoration.
190

Total variational optical flow for robust and accurate bladder image mosaicing / Calcul du flot optique dans une approche variationnelle totale pour le mosaïquage robuste et précis d’images de la vessie

Ali, Sharib 04 January 2016 (has links)
La cystoscopie est l’examen de référence pour le diagnostic et le traitement du cancer de la vessie. Le champ de vue (CdV) réduit des endoscopes complique le diagnostic et le suivi des lésions. Les mosaïques d’images sont une solution à ce problème car elles visualisent des CdV étendus. Toutefois, pour la vessie, le mosaïque d’images est un véritable défi à cause du faible contraste dans les images, des textures peu prononcées, de la variabilité intra- et inter-patient et des changements d’illumination dans les séquences. Ce défi est également à relever dans d’autres modalités endoscopiques ou dans des scènes non médicales comme les vidéos sous-marines. Dans cette thèse, une énergie variationnelle totale a d’abord été minimisée à l’aide d’un algorithme primal-dual du premier ordre pour obtenir un flot optique fournissant une correspondance dense et précise entre les points homologues des paires d’images. Les correspondances sont ensuite utilisées pour déterminer les paramètres des transformations requises pour le placement des images dans le repère global de la mosaïque. Les méthodes proposées pour l’estimation du flot optique dense incluent un terme d’attache aux données qui minimise le nombre des vecteurs aberrants et un terme de régularisation conçu pour préserver les discontinuités du champ devecteurs. Un algorithme de flot optique qui est robuste vis-à-vis de changements d’illumination importants (et utilisable pour différentes modalités) a également été développé dans ce contexte. La précision et la robustesse des méthodes de recalage proposées ont été testées sur des jeux de données (de flot optique) publiquement accessibles et sur des fantômes de vessies et de la peau. Des résultats sur des données patients acquises avec des cystoscopes rigides et flexibles, en lumière blanche ou en fluorescence, montrent la robustesse des algorithmes proposés. Ces résultats sont complétés par ceux obtenus pour d’autres séquences endoscopiques réelles de dermatoscopie, de scène sous-marine et de données d’exploration spatiale. / Cystoscopy is the reference procedure for the diagnosis and treatment of bladder cancer. The small field of view (FOV) of endoscopes makes both the diagnosis and follow-up of lesions difficult. Image mosaics are a solution to this problem since they visualize large FOVs of the bladder scene. However, due to low contrast, weak texture, inter- and intra-patient texture variability and illumination changes in these image sequences, the task of image mosaicing becomes challenging. This is also a major concern in other endoscopic data and non-medical scenes like underwater videos. In this thesis, a total variational energy has been first minimized using a first-order primal-dual algorithm in convex optimization to obtain optical flow vector fields giving a dense and accurate correspondence between homologous points of the image pairs. The correspondences are then used to obtain transformation parameters for registering the images to one global mosaic coordinate system. The proposed methods for dense optical flow estimation include a data-term which is modeled to minimize at most the outliers and a regularizer which is designed to preserve at their best the flow field discontinuities. An optical flow algorithm, which is robust to strong illumination changes (and which suits to different modalities), has also been developed in this framework. The registration accuracy and robustness of the proposed methods are tested on both publicly available datasets for optical flow estimation and on simulated bladder and skin phantoms. Results on patient data acquired with rigid and flexible cystoscopes under the white light and the fluorescence modality show the robustness of the proposed approaches. These results are also complemented with those of other real endoscopic data, dermoscopic sequences, underwater scenes and space exploration data.

Page generated in 0.0469 seconds