• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 56
  • 12
  • 11
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 206
  • 59
  • 59
  • 57
  • 53
  • 35
  • 35
  • 34
  • 32
  • 31
  • 30
  • 26
  • 22
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Etude par imagerie de diverses instabilités sur la structure d'un jet : application au contrôle des jets / Imaging study of various instabilities on the jet structure : application to the jet control

Filali, Taoufik 10 May 2011 (has links)
L’isolation par rideaux d’air, avant d’être un confort, est actuellement un enjeu énergétique majeur. Malgré toutes les évolutions dans ce domaine, la nature du régime de l’écoulement du rideau d’air reste un facteur très influant sur les performances et la qualité de l’isolation. Il est impératif de trouver comment le stabiliser et éviter ou éloigner la région de la turbulence. Dans ce contexte, on a mis en oeuvre un ensemble d’outils de traitements d’images spécifiques aux textures présentes dans les images du jet rond basé sur des techniques de rehaussement d’images issues des méthodes d’interpolation. Plusieurs analyses de séquences d’images avec suivi spatio-temporel ont été effectuées en vue de prédire le passage à la turbulence. Une modélisation géométrique originale a été développée pour une meilleure compréhension du mouvement 3D du jet rond / Before being a comfort, the air curtain insulation is currently a major energy issue. Despite all the developments in this field, the nature of the air curtain flow regime remains a very influential factor on the performance and quality of insulation. It is imperative to find ways to stabilize it and to prevent the turbulence zone. In this context, we have implemented a set of specific processing tools for image textures present in the round jet images. Several analysis of image sequences with spatio-temporal monitoring were performed to predict the transition to turbulence. Original geometric modeling has been developed for better understanding of the 3D motion of the round jet
122

Segmentação de fronteiras em imagens médicas via contornos deformáveis através do fluxo recursivo do vetor gradiente / Edge segmentation in medical images using the recursive gradient vector flow deformable contours

Llapa Rodríguez, Eduardo Rafael 08 July 2005 (has links)
Devido à variação na qualidade e ao ruído nas imagens médicas, a aplicação de técnicas tradicionais de segmentação é geralmente ineficiente. Nesse sentido, apresenta-se um novo algoritmo a partir de duas técnicas: o modelo de contornos deformáveis por fluxo do vetor gradiente (GVF deformable contours) e a técnica de espaço de escalas utilizando o processo de difusão. Assim, foi realizada uma revisão bibliográfica dos modelos que trabalham com os contornos deformáveis, os quais foram classificados em modelos paramétricos e geométricos. Entre os modelos paramétricos foi escolhido o modelo de contornos deformáveis por fluxo do vetor gradiente (GVF). Esta aproximação oferece precisão na representação de estruturas biológicas não observada em outros modelos. Desta forma, o algoritmo apresentado mapeia as bordas (edge map) e aperfeiçoa a condução da deformação utilizando uma técnica baseada em operações recursivas. Com este cálculo apoiado no comportamento de espaço de escalas, obtem-se a localização e correção de sub-regiões do edge map que perturbam a deformação. Por outro lado, é incorporada uma nova característica que permite ao algoritmo realizar atividades de classificação. O algoritmo consegue determinar a presença ou ausência de um objeto de interesse utilizando um valor mínimo de deformação. O algoritmo é validado através do tratamento de imagens sintéticas e médicas comparando os resultados com os obtidos no modelo tradicional de contornos deformáveis GVF. / Due to the variation of the quality and noise in medical images, the classic image segmentation techniques are usually ineffective. In this work, we present a new algorithm that is composed of two techniques: the gradient vector flow deformable contours (GVF) and the scale-space technique using a diffusion process. A bibliographical revision of the models that work with deformable contours was accomplished, they were classified in parametric and geometric models. Among the parametric models the gradient vector flow deformable contours (GVF) was chosen. This approach offers precision in the representation of biological structures where other models does not. Thus, the algorithm improves the edge map to guide the deformation using recursive operations. With this estimation based on the behavior of the scale-space techniques it is realized, the localization and correction of sub-areas of the edge map that disturb the deformation. On the other hand, it was incorporated a new characteristic that allows the algorithm to accomplish classification activities. That is, the algorithm determines the presence or absence of a target object using a minimal deformation area. Our method was validated on both, simulated images and medical images making a comparison with the traditional GVF deformable contours.
123

Vérification automatique des montages d'usinage par vision : application à la sécurisation de l'usinage / Vision-based automatic verification of machining setup : application to machine tools safety

Karabagli, Bilal 06 November 2013 (has links)
Le terme "usinage à porte fermée", fréquemment employé par les PME de l’aéronautique et de l’automobile, désigne l’automatisation sécurisée du processus d’usinage des pièces mécaniques. Dans le cadre de notre travail, nous nous focalisons sur la vérification du montage d’usinage, avant de lancer la phase d’usinage proprement dite. Nous proposons une solution sans contact, basée sur la vision monoculaire (une caméra), permettant de reconnaitre automatiquement les éléments du montage (brut à usiner, pions de positionnement, tiges de fixation,etc.), de vérifier que leur implantation réelle (réalisée par l’opérateur) est conforme au modèle 3D numérique de montage souhaité (modèle CAO), afin de prévenir tout risque de collision avec l’outil d’usinage. / In High Speed Machining it is of key importance to avoid any collision between the machining tool and the machining setup. If the machining setup has not been assembled correctly by the operator and is not conform to the 3D CAD model sent to the machining unit, such collisions can occur. We have developed a vision system, that utilizes a single camera, to automatically check the conformity of the actual machining setup within the desired 3D CAD model, before launching the machining operation. First, we propose a configuration of the camera within the machining setup to ensure a best acquisition of the scene. In the aim to segmente the image in regions of interest, e.g. regions of the clamping elements and piece, based-on 3D CAD model, we realise a matching between graphes, theorical and real graphe computed from theorical image of 3D-CAD model and real image given by real camera. The graphs are constructed from a simple feature, such as circles and lines, that are manely present in the machining setup. In the aim to define the regions of interest (ROI) in real image within ROI given by 3D CAD model, we project a 3D CAD model in the real image, e.g. augmented reality. To automatically check the accordance between every region defined, we propose to compute three parametres, such as skeleton to represente the form, edges to represent a geometry and Area to represent dimension. We compute a score of accordance between three parameters that will be analyzed in fuzzy system to get a decision of conformity of the clamping element within it definition given in the CAD model. Some cases of machining setup configurations require 3D information to test the trajectory of the machine tool. To get out this situation, we have proposed a new depth from defocus based-method to compute a depth map of the scene. Finally, we present the result of our solution and we show the feasibility and robustness of the proposed solution in differents case of machining setup.
124

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
125

Efficient inference and learning in graphical models for multi-organ shape segmentation / Inférence efficace et apprentissage des modèles graphiques pour la segmentation des formes multi-organes

Boussaid, Haithem 08 January 2015 (has links)
Cette thèse explore l’utilisation des modèles de contours déformables pour la segmentation basée sur la forme des images médicales. Nous apportons des contributions sur deux fronts: dans le problème de l’apprentissage statistique, où le modèle est formé à partir d’un ensemble d’images annotées, et le problème de l’inférence, dont le but est de segmenter une image étant donnée un modèle. Nous démontrons le mérite de nos techniques sur une grande base d’images à rayons X, où nous obtenons des améliorations systématiques et des accélérations par rapport à la méthode de l’état de l’art. Concernant l’apprentissage, nous formulons la formation de la fonction de score des modèles de contours déformables en un problème de prédiction structurée à grande marge et construisons une fonction d’apprentissage qui vise à donner le plus haut score à la configuration vérité-terrain. Nous intégrons une fonction de perte adaptée à la prédiction structurée pour les modèles de contours déformables. En particulier, nous considérons l’apprentissage avec la mesure de performance consistant en la distance moyenne entre contours, comme une fonction de perte. L’utilisation de cette fonction de perte au cours de l’apprentissage revient à classer chaque contour candidat selon sa distance moyenne du contour vérité-terrain. Notre apprentissage des modèles de contours déformables en utilisant la prédiction structurée avec la fonction zéro-un de perte surpasse la méthode [Seghers et al. 2007] de référence sur la base d’images médicales considérée [Shiraishi et al. 2000, van Ginneken et al. 2006]. Nous démontrons que l’apprentissage avec la fonction de perte de distance moyenne entre contours améliore encore plus les résultats produits avec l’apprentissage utilisant la fonction zéro-un de perte et ce d’une quantité statistiquement significative.Concernant l’inférence, nous proposons des solveurs efficaces et adaptés aux problèmes combinatoires à variables spatiales discrétisées. Nos contributions sont triples: d’abord, nous considérons le problème d’inférence pour des modèles graphiques qui contiennent des boucles, ne faisant aucune hypothèse sur la topologie du graphe sous-jacent. Nous utilisons un algorithme de décomposition-coordination efficace pour résoudre le problème d’optimisation résultant: nous décomposons le graphe du modèle en un ensemble de sous-graphes en forme de chaines ouvertes. Nous employons la Méthode de direction alternée des multiplicateurs (ADMM) pour réparer les incohérences des solutions individuelles. Même si ADMM est une méthode d’inférence approximative, nous montrons empiriquement que notre implémentation fournit une solution exacte pour les exemples considérés. Deuxièmement, nous accélérons l’optimisation des modèles graphiques en forme de chaîne en utilisant l’algorithme de recherche hiérarchique A* [Felzenszwalb & Mcallester 2007] couplé avec les techniques d’élagage développés dans [Kokkinos 2011a]. Nous réalisons une accélération de 10 fois en moyenne par rapport à l’état de l’art qui est basé sur la programmation dynamique (DP) couplé avec les transformées de distances généralisées [Felzenszwalb & Huttenlocher 2004]. Troisièmement, nous intégrons A* dans le schéma d’ADMM pour garantir une optimisation efficace des sous-problèmes en forme de chaine. En outre, l’algorithme résultant est adapté pour résoudre les problèmes d’inférence augmentée par une fonction de perte qui se pose lors de l’apprentissage de prédiction des structure, et est donc utilisé lors de l’apprentissage et de l’inférence. [...] / This thesis explores the use of discriminatively trained deformable contour models (DCMs) for shape-based segmentation in medical images. We make contributions in two fronts: in the learning problem, where the model is trained from a set of annotated images, and in the inference problem, whose aim is to segment an image given a model. We demonstrate the merit of our techniques in a large X-Ray image segmentation benchmark, where we obtain systematic improvements in accuracy and speedups over the current state-of-the-art. For learning, we formulate training the DCM scoring function as large-margin structured prediction and construct a training objective that aims at giving the highest score to the ground-truth contour configuration. We incorporate a loss function adapted to DCM-based structured prediction. In particular, we consider training with the Mean Contour Distance (MCD) performance measure. Using this loss function during training amounts to scoring each candidate contour according to its Mean Contour Distance to the ground truth configuration. Training DCMs using structured prediction with the standard zero-one loss already outperforms the current state-of-the-art method [Seghers et al. 2007] on the considered medical benchmark [Shiraishi et al. 2000, van Ginneken et al. 2006]. We demonstrate that training with the MCD structured loss further improves over the generic zero-one loss results by a statistically significant amount. For inference, we propose efficient solvers adapted to combinatorial problems with discretized spatial variables. Our contributions are three-fold:first, we consider inference for loopy graphical models, making no assumption about the underlying graph topology. We use an efficient decomposition-coordination algorithm to solve the resulting optimization problem: we decompose the model’s graph into a set of open, chain-structured graphs. We employ the Alternating Direction Method of Multipliers (ADMM) to fix the potential inconsistencies of the individual solutions. Even-though ADMMis an approximate inference scheme, we show empirically that our implementation delivers the exact solution for the considered examples. Second,we accelerate optimization of chain-structured graphical models by using the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] couple dwith the pruning techniques developed in [Kokkinos 2011a]. We achieve a one order of magnitude speedup in average over the state-of-the-art technique based on Dynamic Programming (DP) coupled with Generalized DistanceTransforms (GDTs) [Felzenszwalb & Huttenlocher 2004]. Third, we incorporate the Hierarchical A∗ algorithm in the ADMM scheme to guarantee an efficient optimization of the underlying chain structured subproblems. The resulting algorithm is naturally adapted to solve the loss-augmented inference problem in structured prediction learning, and hence is used during training and inference. In Appendix A, we consider the case of 3D data and we develop an efficientmethod to find the mode of a 3D kernel density distribution. Our algorithm has guaranteed convergence to the global optimum, and scales logarithmically in the volume size by virtue of recursively subdividing the search space. We use this method to rapidly initialize 3D brain tumor segmentation where we demonstrate substantial acceleration with respect to a standard mean-shift implementation. In Appendix B, we describe in more details our extension of the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] to inference on chain-structured graphs.
126

Image processing for on-line analysis of electron microscope images : automatic Recognition of Reconstituted Membranes / Analyse automatique d'images en microscopie électronique : identification et classification des membranes artificielles

Karathanou, Argyro 25 November 2009 (has links)
Les techniques d'analyse des images présentées dans cette thèse sont élaborées dans le cadre du Projet Européen dédié au développement d'une plateforme automatique pour l'évaluation de la cristallisation des protéines membranaires. Un grand nombre d'échantillons est simultanément produit et évalué par microscopie électronique en transmission (MET). Pour rendre cette tache automatique, une analyse en ligne des images acquises est indispensable ; des régions d'intérêt essentielles pour le pilotage du microscope sont progressivement sélectionnées afin d'évaluer les cristaux de protéines a fort grossissement.L'observation de l'échantillon à moyen grossissement fournit des informations nécessaires pour la caractérisation du succès de la cristallisation 2D. Les objets résultants, et en particulier le gris. De plus, ces membranes sont pratiquement transparentes aux électrons et donc, apparaissent faiblement contrastées.Cette thèse présente un ensemble de techniques de traitement d'images pour leur analyse à moyen grossissement (5-15 nm/pixel). La contribution originale de ce travail est située sur i) une évaluation statistique des contours en mesurant la corrélation entre les niveaux de gris proche du contour et un filtre de gradient pour réduire le sur segmentation, ii) la reconnaissance des objets de l'image, iii) une étude préliminaire de classification. Cette chaîne est en cours de validation sur un prototype. / The image analysis techniques presented in the présent thesis have been developed as part of a European projeet dedicated to the development of an automatic membrane protein crystallization pipeline. A large number of samples is simultaneously produced and assessed by transmission electron microscope (TEM) screening. Automating this fast step implicates an on-fine analysis of acquired images to assure the microscope control by selecting the regions to be observed at high magnification and identify the components for specimen characterization.The observation of the sample at medium magnification provides the information that is essential to characterize the success of the 2D crystallization. The resulting objects, and especially the artificial membranes, are identifiable at this scale. These latter present only a few characteristic signatures, appearing in an extremely noisy context with gray-level fluctuations. Moreover they are practically transparent to electrons yielding low contrast. This thesis presents an ensemble of image processing techniques to analyze medium magnification images (5-15 nm/pixel). The original contribution of this work lies in: i) a statistical evaluation of contours by measuring the correlation between gray-levels of neighbouring pixels to the contour and a gradient signal for over-segmentation reduction, ii) the recognition of foreground entities of the image and iii) an initial study for their classification. This chain has been already tested on-line on a prototype and is currently evaluated.
127

Analyse et recherche d'oeuvres d'art 2D selon le contenu pictural

Hurtut, Thomas 04 March 2008 (has links) (PDF)
Les institutions culturelles mènent depuis une vingtaine année une politique de sauvegarde numérique exhaustive de leurs collections conduisant à la création de bases d'images de plus en plus grandes. Les oeuvres d'art se différencient des images naturelles car elles sont souvent stylisées. Cette caractéristique influence notre interprétation de l'image et l'impression visuelle qui nous est transmise. Nous proposons dans cette thèse des descripteurs et mesures de similarité spécifiques au contenu pictural et les testons dans le cadre de la recherche par le contenu d'images similaires. Le premier aspect du contenu pictural auquel nous nous sommes intéressés concerne l'organisation spatiale globale des couleurs. Nous modélisons le problème de la comparaison entre deux organisations spatiales des couleurs par un problème de transport optimal appliqué à des imagettes. Dans le cadre de la recherche d'images dans une base, nous proposons également un seuil adaptatif sur cette distance de transport fondé sur une approche "a contrario". Le deuxième aspect du contenu pictural que nous étudions concerne les caractéristiques du contenu géométrique lié aux lignes dans les dessins au trait. Pour cette approche nous développons un détecteur de contours de trait sans paramètre reposant sur un filtrage topologique de l'arbre des lignes de niveau significatives de Desolneux et al., ainsi qu'un ensemble de méthodes d'extraction de caractéristiques visuelles incluant les extrémités de trait, les jonctions et les coins. Nous évaluons ces deux approches en utilisant sept bases différentes totalisant environ 65000 images.
128

Évaluation du transport isentropique à travers la barrière dynamique stratosphérique subtropicale de l'hémisphère sud

Kirgis, Guillaume 09 September 2008 (has links) (PDF)
Cette thèse est consacrée à l'évaluation des échanges entre le réservoir tropical et les moyennes latitudes au travers de la barrière dynamique stratosphérique subtropicale de l'hémisphère sud. La stratégie consiste à reconstituer le transport sur des surfaces isentropes avec le modèle d'advection de contours à haute résolution MIMOSA. Ce modèle a été alimenté par les champs de vorticité potentielle calculé sur 26 années consécutives (1980-2005) à partir des champs de vents et de température du modèle européen ERA-40. L'algorithme DYBAL a calculé l'intensité des barrières dynamiques (barrière subtropicale et vortex polaire) et du mélange. Couplé à l'algorithme des k-moyennes, il a permis la détection en coordonnées géographiques de la position des barrières et donc le calcul de l'extension méridienne des réservoirs stratosphériques. Cet algorithme a également été utilisé pour reconstituer les épisodes filamentaires caractéristiques du transport isentrope. Enfin, la perméabilité de la barrière subtropicale a été évaluée par le suivi des échanges et les routes privilégiées de ces échanges ont été mises en évidence. L'implication de ces événements sur le transport de l'ozone a été estimée ainsi que l'influence de l'oscillation quasi-biennale (QBO) et du cycle solaire de 11 ans. Les résultats présentent la variabilité dynamique de la stratosphère sur l'isentrope 600 K et montrent une augmentation de la taille du réservoir tropical et des moyennes latitudes en correspondance avec le rétrécissement du vortex polaire. Une diminution de l'intensité des échanges à travers la barrière dynamique subtropicale depuis les années 1980 est également mise en évidence.
129

Modélisation du soudage MIG/MAG en mode short-arc

Planckaert, Jean-Pierre 01 July 2008 (has links) (PDF)
Il existe aujourd'hui de nombreux procédés de soudage répondant à la très grande variété d'assemblage à réaliser et aux caractéristiques des métaux utilisés. Le premier chapitre décrit les différentes sources d'énergie utilisées en soudage. Suite à cela, une explication plus détaillée du soudage à l'arc électrique est donnée. Enfin nous présentons la conception d'une plateforme d'essai de soudage.<br />Il est possible, bien sûr, d'utiliser une approche empirique pour optimiser un procédé. Néanmoins il y a des avantages à choisir une approche analytique puisqu'on peut en attendre des avancées significatives dans la compréhension des interactions dynamiques présentes dans l'arc. C'est pourquoi nous présentons dans le chapitre 2 les connaissances théoriques de la physique quant au comportement du métal liquide transféré en soudage MIG/MAG.<br />Ce travail comporte donc également un aspect expérimental nécessaire à l'élaboration des bases de données utilisées pour la construction des modèles. Les différents enregistrements ont été effectués au CTAS sur une plate forme équipée d'un système d'acquisition de données pour les mesures de tension, courant, vitesse fil et d'un système de vidéo rapide. Le chapitre 3 présente notre recherche d'une méthode de segmentation permettant d'obtenir le suivi de variables pertinentes. Nous y proposons un capteur logiciel basé sur la théorie des contours actifs et montrons de bons résultats obtenus sur des vidéos expérimentales.<br />Une étape d'ajustement de certains paramètres est indispensable. Elle est donnée dans le chapitre 4. Le simulateur créé permet d'interpréter certains phénomènes importants en soudage, de réaliser une étude de sensibilité « sans risque » et de donner les signatures théoriques de défauts.
130

Schémas de suivi d'objets vidéo dans une séquence animée : application à l'interpolation d'images intermédiaires.

Bonnaud, Laurent 20 October 1998 (has links) (PDF)
Le cadre général de cette étude est le traitement numérique du signal, appliqué<br />aux séquences d'images, pour des applications multimédia. Ce travail est<br />divisé en deux contributions principales~: un algorithme de segmentation<br />d'images en objets vidéo en mouvement, et une méthode d'interpolation<br />temporelle opérant sur ces objets.<br /><br />La segmentation de la séquence est effectuée par un algorithme de suivi<br />temporel. Un algorithme de segmentation spatio-temporelle est utilisé<br />initialement pour obtenir des régions dans la première image de la séquence.<br />Cette partition est ensuite suivie par une technique de contours actifs, qui<br />opère sur une nouvelle représentation de la segmentation, composée des<br />frontières ouvertes séparant les régions. L'algorithme estime à la fois le<br />mouvement des frontières et celui des régions. Il est capable de suivre<br />plusieurs objets simultanément et de traiter les occultations entre eux. Des<br />résultats, obtenus sur des séquences d'images réelles, montrent que cet<br />algorithme permet une bonne stabilité temporelle de la segmentation et une<br />bonne précision des frontières.<br /><br />Le but de l'algorithme d'interpolation est de reconstruire des images<br />intermédiaires entre deux images de la séquence. Il s'agit d'un algorithme de<br />faible complexité qui peut être utilisé à la fin d'une chaîne codeur/décodeur.<br />L'interpolation est compensée en mouvement et utilise le mouvement des régions,<br />estimé pendant la phase de suivi. Il est aussi basé objets, dans le sens où il<br />utilise la segmentation pour prédire correctement les zones d'occultation. Cet<br />algorithme peut être utilisé pour trois applications différentes~: le codage<br />interpolatif (où des images de la séquence sont prédites par interpolation),<br />l'adaptation de la fréquence de la séquence à la fréquence d'affichage du<br />terminal de visualisation dans une transmission multipoints et la<br />reconstruction d'images manquantes (où l'on calcule des images non observées).<br />Des résultats expérimentaux pour la première application montrent que pour une<br />qualité de reconstruction donnée, la taux de compression moyen sur un groupe<br />d'images est plus élevé en utilisant l'interpolation qu'avec une prédiction<br />causale.

Page generated in 0.1277 seconds