• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 6
  • Tagged with
  • 15
  • 6
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconnaissance dynamique de personnes dans les émissions audiovisuelles / Dynamic person recognition in audiovisual broadcasts

Auguste, Rémi 09 July 2014 (has links)
L'analyse automatique de contenu des vidéos en vue de leur annotation est un domaine de recherche en plein essor. Reconnaître les personnes apparaissant dans des émissions audiovisuelles permet une structuration automatique d'une quantité grandissante d'archives audiovisuelles. Nous présentons une approche dynamique originale de reconnaissance de personnes dans les flux vidéo. Cette approche est dynamique car elle tire avantage de la richesse des informations contenues dans la vidéo, contrairement aux approches statiques basées uniquement sur les images. L'approche proposée comprend deux volets. Le premier volet consiste à isoler toutes les occurrences de personnes d'une émission, et à les regrouper en clusters en se basant sur un descripteur original : les histogrammes spatio-temporels, ainsi que sur une mesure de similarité dédiée. L'originalité vient de l'intégration d'informations temporelles dans le descripteur, qui permet une estimation plus fiable de la similarité entre les occurrences de personnes. Le second volet propose la mise en oeuvre d'une méthode de reconnaissance faciale. Différentes stratégies sont envisagées, d'une part pour identifier les occurrences de personnes selon les trames qui composent la séquence, et d'autre part pour propager les identités au sein des groupes selon leurs membres. Ces deux aspects de notre contribution ont été évalués à l'aide de corpus de données réelles contenant des émissions issues des chaînes BFMTV et LCP. Les résultats des expérimentations menées indiquent que l'approche proposée permet d'améliorer notablement la précision de reconnaissance en prenant en compte la dimension temporelle. / The annotation of video streams by automatic content analysis is a growing field of research. The possibility of recognising persons appearing in TV shows allows to automatically structure ever-growing video archives. We present an original and dynamic approach to person recognition from video streams. This approach is dynamic as it benefits from the motion information contained in videos, whereas the static approaches are solely based on still images. The proposed approach is composed of two parts. In the first one, we extract persontracks from the shows and cluster them using a new descriptor and its associated similarity measure : space-time histograms. The originality of our approach is the integration of temporal data into the descriptor. Experiments show that it provides a better estimation of the similarity between persontracks. In the second part of our approach, we propose to use a facial recognition method which aims at "naming" the clusters. Various strategies are considered to assign an identity to a persontrack using its frames and to propagate this identity to members of the same cluster. These two aspects of our contribution have been evaluated using a corpus of real life TV shows broadcasted on BFMTV and LCP TV channels. The results of our experiments show that our approach significantly improves the precision of the recognition process thanks to the use of the temporal dimension.
2

Contrast enhancement in digital imaging using histogram equalization / Amélioration du contraste des images numériques par égalisation d'histogrammes

Gomes, David Menotti 18 June 2008 (has links)
Aujourd’hui, des appareils capables de capter et de traiter les images peuvent être trouvés dans les systèmes complexes de surveillance ou de simples téléphones mobiles. Dans certaines applications, le temps nécessaire au traitement des images n’est pas aussi important que la qualité du traitement (par exemple, l’imagerie médicale). Par contre, dans d’autres cas, la qualité peut être sacrifiée au profit du facteur temps. Cette thèse se concentre sur ce dernier cas, et propose deux types de méthodes rapides pour l’amélioration du contraste d’image. Les méthodes proposées sont fondées sur l’égalisation d’histogramme (EH), et certaines s’adressent à des images en niveaux de gris, tandis que d’autres s’adressent à des images en couleur. En ce qui concerne les méthodes EH pour des images en niveaux de gris, les méthodes actuelles tendent à changer la luminosité moyenne de l’image de départ pour le niveau moyen de l´interval de niveaux de gris. Ce n’est pas souhaitable dans le cas de l’amélioration du contraste d’image pour les produits de l’électronique grand-public, où la préservation de la luminosité de l’image de départ est nécessaire pour éviter la production de distortions dans l’image de sortie. Pour éviter cet inconvénient, des méthodes de Biégalisation d’histogrammes pour préserver la luminosité et l’amélioration du contraste ont été proposées. Bien que ces méthodes préservent la luminosité de l’image de départ tout en améliorant fortement le contraste, elles peuvent produire des images qui ne donnent pas une impression visuelle aussi naturelle que les images de départ. Afin de corriger ce problème, nous proposons une technique appelée multi-EH, qui consiste à décomposer l’image en plusieurs sous-images, et à appliquer le procédé classique de EH à chacune d’entre elles. Bien que produisant une amélioration du contraste moins marquée, cette méthode produit une image de sortie d’une apparence plus naturelle. Nous proposons deux fonctions de décalage par découpage d’histogramme, permettant ainisi de concevoir deux nouvelle méthodes de multi-EH. Une fonction de coût est également utilisé pour déterminer automatiquement en combien de sous-images l’histogramme de l’image d’entrée sera décomposée. Les expériences montrent que nos méthodes sont meilleures pour la préservation de la luminosité et produisent des images plus naturelles que d´autres méthodes de EH. Pour améliorer le contraste dans les images en couleur, nous introduisons une méthode 5 Résumé 6 générique et rapide, qui préserve la teinte. L’égalisation d’histogramme est fondée sur l’espace couleur RGB, et nous proposons deux instantiations de la méthode générique. La première instantiation utilise des histogrammes 1D R-red, G-green, et B-bleu afin d’estimer l’histogramme 3D RGB qui doit être égalisé, alors que le deuxième instantiation utilise des histogrammes 2D RG, RB, et GB. L’égalisation d’histogramme est effectué en utilisant des transformations de décalage qui préservent la teinte, en évitant l’apparition de couleurs irréalistes. Nos méthodes ont des complexités de temps et d’espace linéaire, par rapport à la taille de l’image, et n’ont pas besoin de faire la conversion d’un espace couleur à l’autre afin de réaliser l’amélioration du contraste de l’image. Des évaluations objectives comparant nos méthodes et d’autres ont été effectuées au moyen d’une mesure de contraste et de couleur afin de mesurer la qualité de l’image, où la qualité est établie comme une fonction pondérée d’un indice de “naturalité” et d’un indice de couleur. Nous analysons 300 images extraites d’une base de données de l’Université de Berkeley. Les expériences ont montré que la valeur de contraste de l’image produite par nos méthodes est en moyenne de 50% supérieure à la valeur de contraste de l’image original, tout en conservant une qualité des images produites proche de celle des images originales / Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original / Dispositivos para aquisição e processamento de imagens podem ser encontrados em sistemas complexos de monitoração de segurança ou simples aparelhos celulares. Em certas aplicações, o tempo necessário para processar uma imagem não é tão importante quanto a qualidade das imagens processadas (por exemplo, em imagens médicas), mas em alguns casos a qualidade da imagem pode ser sacrificada em favor do tempo. Essa tese se foca nesse último caso, e propõe duas metodologias eficientes para o realce de contraste de imagens. Os métodos propostos são baseados em equalização de histograma (EH), e focam em imagens em tons de cinza e em imagens coloridas. Os métodos baseados em EH atualmente utilizados para processar imagens em tons de cinza tendem a mudar o brilho médio da imagem para o tom médio do intervalo de tons de cinza. Essa mudança não é desejavél em aplicações que visam melhorar o contraste em produtos eletrônicos utilizados pelo consumidor, onde preservar o brilho da imagem original é necessário para evitar o aparecimento de artefatos não exitentes na imagem de saída. Para corrigir esse problema, métodos de bi-equalização de histogramas para preservação do brilho e contraste de imagens foram propostos. Embora esses métodos preservem o brilho da imagem original na imagem processada com um realce significante do contraste, eles podem produzir imagens que não parecem naturais. Esse novo problema foi resolvido por uma nova técnica chamada de Multi-Equalização de histogramas, que decompõe a imagem original em várias sub-imagens, e aplica o método de EH clássico em cada uma delas. Essa metodologia realiza um realce de contraste menos intenso, de forma que a imagem processada parece mais “natural”. Essa tese propõe duas novas funções de discrepância para decomposição de imagens, originando dois novos métodos de Multi-EH. Além disso, uma função de custo é utilizada para determinar em quantas sub-imagens a imagem original será dividida. Através da comparação objetiva e quantitative usando uma medida de constrate, os experimentos mostraram que os métodos propostos são melhores que outros EH estudados, uma vez que eles preservam o brilho e produzem imagens com uma aparência mais natural. Em relação aos métodos para realce de contraste em imagens coloridas, essa tese propõe um método genérico e eficiente de EH baseado no espaço de cores RGB que preserva o tom 9 Resumo 10 (a matiz), e implementa duas instâncias desse método genérico. A primeira instância utiliza os histogramas 1D R-red, G-green e B-blue para estimar um histograma 3D RGB, que é então equalizado. A segunda instância, por sua vez, utiliza os histogramas 2D RG, RB, e GB. A EH é executada utilizando transformadas de deslocamento que preservam a tonalidade da cor, evitando o aparecimento de cores não reais. Os métodos propostos tem complexidade linear no espaço e no tempo em relação ao tamanho da imagem, e não usam nenhuma conversão de um espaço de cores para outro. As imagens produzidas foram avaliadas objetivamente, comparando os métodos propostos com outros estudados. A avaliação objetiva foi feita utilizando medidas de contraste e de qualidade da cor da imagem, onde a qualidade foi definida como uma função ponderada dos índices de naturalidade e cromicidade. Um conjunto de 300 imagens extraídas da base de dados da Universidade de Berkeley foram analisadas. Os experimentos mostraram que o valor do contraste das imagens produzidas pelos métodos propostos é, em médias, 50% maior que o valor do contraste na imagem original, e ao mesmo tempo a qualidade das imagens produzidas é próxima a qualidade da imagem original / Dispositivi per l’acquisizione e lo svolgimento di immagini si possono trovare nei complessi sistemi di monitoramento di sicurezza o nei semplici cellulari. In alcune applicazioni il tempo necessario per svolgere un’immagine non è cosi importante come la qualità delle immagini svolte (es. nelle immagini mediche), ma in alcuni casi la qualità dell’immagine potrà venire daneggiata a favore del tempo. Questa tesi è basata su quest’ultimo caso e propone due metodi efficienti per evidenziare il contrasto di colore delle immagini. I metodi proposti vengono basate sull’equalizazzione d’istogramma (EI), mirati su delle immagini grigie e sulle immagini colorate. I metodi basati sull’EI attualmente utilizzati per svolgere delle immagini grigie tendono a cambiare il brillo medio dell’immagine per il tono medio dell’intervallo grigio. Questo cambiamento non è desiderato nelle applicazioni mirate al miglioramento del contrasto sui prodotti elettronici utilizzati dal consumatore, dove preservare il brillo dell’immagine originale è necessario per evitare la comparsa di artefatti inesistenti nell’immagine d’uscita. Sono stati proposti dei metodi di biequalizazzione di istogrammi per corregere questo problema della preservazione del brillo e del contrasto di colore delle immagini. Nonostante questi metodi preservino il brillo dell’immagine originale con significante rilievo del contrasto nell’immagine svolta, questi possono produrre delle immagini che non sembrino naturali. Questo nuovo problema è stato risolto con una nuova tecnica detta Multiequalizazzione di istogrammi, che decompone l’immagine originale in varie sottoimmagini, applicando su ognuna di queste il metodo EI classico. Questa metodologia realizza un contrasto di rilievo meno intenso in modo che l’immagine svolta sembri più “naturale”. Questa tesi propone due nuove funzioni di discrepanza per la decomposizione delle immagini, originandone due nuovi metodi Multi-EI. Inoltre una funzione di costo viene utilizzata per determinare in quante sottoimmagini l’immagine originale verrà divisa. Attraverso paragone obiettivo e quantitativo, usando una misura di contrasto, gli esperimenti hanno convalidato che i metodi proposti sono migliori di quegli EI studiati perché quelli preservano il brillo e producono immagini con un’apparenza più naturale. Con riferimento ai metodi utilizzati per rilevare il contrasto nelle immagini colorate questa tese propone un metodo generico ed efficiente di EI, in base negli spazi di colori 11 Risumo 12 RGB, che preserva il tono (la sfumatura) e implementa due istanze di questo metodo generico. La prima istanza utilizza gli istogrammi 1D R-Red, G-green e B-blue per stimare un istogramma 3D RGB, che viene di seguito equalizzato. La seconda istanza invece utilizza gli istogrammi 2D RG, RB e GB. La EI viene eseguita utilizzando trasformate di trasloco che preservano il tono del colore, evitando così la comparsa di colori non reali. I metodi proposti hanno complessità lineare nello spazio e nel tempo rispetto alla grandezza dell’immagine e non usano nessuna conversione da un spazio di colore all’altro. Le immagini prodotte sono state valutate in modo obiettivo, paragonando i metodi proposti con gli altri studiati. La valutazione obiettiva è stata fatta utilizzando delle misure di contrasto e qualità del colore dell’immagine, dove la qualità è stata definita come una funzione ponderata degli indici di naturalità e colorito. Si analisarano un insieme di 300 immagini tratte dalla base dei dati dell’Università di Berkeley. Gli sperimenti mostrarono che il valore del contrasto delle immagini prodotte daí metodi proposti è mediamente 50% maggiore del valore del contrasto nell’immagine originale e una volta ancora la qualità delle immagini prodotte è vicina alla qualità dell’immagine originale
3

Segmentation spatio-temporelle et indexation vidéo dans le domaine des représentations hiérarchiques

Morand, Claire 25 November 2009 (has links)
L'objectif de cette thèse est de proposer une solution d'indexation ``scalable'' et basée objet de flux vidéos HD compressés avec Motion JPEG2000. Dans ce contexte, d'une part, nous travaillons dans le domaine transformé hiérachique des ondelettes 9/7 de Daubechies et, d'autre part, la représentation ``scalable'' nécessite des méthodes en multirésolution, de basse résolution vers haute résolution. La première partie de ce manuscrit est dédiée à la définition d'une méthode d'extraction automatique des objets en mouvement. Elle repose sur la combinaison d'une estimation du mouvement global robuste et d'une segmentation morphologique couleur à basse résolution. Le résultat est ensuite affiné en suivant l'ordre des données dans le flux scalable. La deuxième partie est consacrée à la définition d'un descripteur sur les objets précédemment extraits, basé sur les histogrammes en multirésolution des coefficients d'ondelettes. Enfin, les performances de la méthode d'indexation proposée sont évaluées dans le contexte de requêtes scalables de recherche de vidéos par le contenu. / This thesis aims at proposing a solution of scalable object-based indexing of HD video flow compressed by MJPEG2000. In this context, on the one hand, we work in the hierarchical transform domain of the 9/7 Daubechies' wavelets and, on the other hand, the scalable representation implies to search for multiscale methods, from low to high resolution. The first part of this manuscript is dedicated to the definition of a method for automatic extraction of objects having their own motion. It is based on a combination of a robust global motion estimation with a morphological color segmentation at low resolution. The obtained result is then refined following the data order of the scalable flow. The second part is the definition of an object descriptor which is based on the multiscale histograms of the wavelet coefficients. Finally, the performances of the proposed method are evaluated in the context of scalable content-based queries.
4

Quelques aspects fonctionnels et non fonctionnels des grandes déviations et des déviations modérées en estimation non-paramétrique

Ould Maouloud, Sidi Mohamed 14 December 2007 (has links) (PDF)
Cette thèse traite quelques aspects fonctionnels et non fonctionnels des grandes déviations et des déviations modérées en estimation fonctionnelle. Nous avons introduit dans la première partie un processus qui nous a permis de traiter de façon unifiée l'estimation de la fonction de densité et de la fonction de régression en utilisant plusieurs méthodes d'estimation. Plus explicitement, des principes de grandes déviations fonctionnels et non fonctionnels et des résultats de type Chernoff ponctuels et uniformes ont été obtenus. Dans un premier lieu nous avons établi un principe fonctionnel de grandes déviations pour l'estimateur par la méthode du noyau de la fonction de régression indexé par une famille de fonction vérifiant les conditions du théorème d'Arzèla-Ascoli. Ces résultats ont été utilisés pour définir un critère de sélection de modèles. Par la suite, dans la deuxième partie, nous nous sommes intéressé à 'estimation de la fonction de densité et de la fonction de régression par la méthode des histogrammes et nous avons obtenu des principes de grandes déviations ponctuels, des résultats de type Chernoff ponctuels et uniformes pour ces estimateur ainsi que des résultats de type minimax. Enfin dans les deux dernières parties, nous avons établi des principes fonctionnels de grandes déviations dans l'espace $L^1$ pour les estimateurs par la méthode des delta-suites des fonctions de densité et de régression ainsi qu'un principe de déviations modérées dans $L^1$ pour l'estimateur de la fonction de densité par la méthode des histogrammes.
5

Going further with direct visual servoing / Aller plus loin avec les asservissements visuels directs

Bateux, Quentin 12 February 2018 (has links)
Dans cette thèse, nous nous concentrons sur les techniques d'asservissement visuel (AV), critiques pour de nombreuses applications de vision robotique et insistons principalement sur les AV directs. Afin d'améliorer l'état de l'art des méthodes directes, nous nous intéressons à plusieurs composantes des lois de contrôle d'AV traditionnelles. Nous proposons d'abord un cadre générique pour considérer l'histogramme comme une nouvelle caractéristique visuelle. Cela permet de définir des lois de contrôle efficaces en permettant de choisir parmi n'importe quel type d'histogramme pour décrire des images, depuis l'histogramme d'intensité à l'histogramme couleur, en passant par les histogrammes de Gradients Orientés. Une nouvelle loi d'asservissement visuel direct est ensuite proposée, basée sur un filtre particulaire pour remplacer la partie optimisation des tâches d'AV classiques, permettant d'accomplir des tâches associées à des fonctions de coûts hautement non linéaires et non convexes. L'estimation du filtre particulaire peut être calculée en temps réel à l'aide de techniques de transfert d'images permettant d'évaluer les mouvements de caméra associés aux déplacements des caractéristiques visuelles considérées dans l'image. Enfin, nous présentons une nouvelle manière de modéliser le problème de l'AV en utilisant l'apprentissage profond et les réseaux neuronaux convolutifs pour pallier à la difficulté de modélisation des problèmes non convexes via les méthodes analytiques classiques. En utilisant des techniques de transfert d'images, nous proposons une méthode permettant de générer rapidement des ensembles de données d'apprentissage de grande taille afin d'affiner des architectures de réseau pré-entraînés sur des tâches connexes, et résoudre des tâches d'AV. Nous montrons que cette méthode peut être appliquée à la fois pour modéliser des scènes connues, et plus généralement peut être utilisée pour modéliser des estimations de pose relative entre des couples de points de vue pris de scènes arbitraires. / In this thesis we focus on visual servoing (VS) techniques, critical for many robotic vision applications and we focus mainly on direct VS. In order to improve the state-of-the-art of direct methods, we tackle several components of traditional VS control laws. We first propose a method to consider histograms as a new visual servoing feature. It allows the definition of efficient control laws by allowing to choose from any type of his tograms to describe images, from intensity to color histograms, or Histograms of Oriented Gradients. A novel direct visual servoing control law is then proposed, based on a particle filter to perform the optimization part of visual servoing tasks, allowing to accomplish tasks associated with highly non-linear and non-convex cost functions. The Particle Filter estimate can be computed in real-time through the use of image transfer techniques to evaluate camera motions associated to suitable displacements of the considered visual features in the image. Lastly, we present a novel way of modeling the visual servoing problem through the use of deep learning and Convolutional Neural Networks to alleviate the difficulty to model non-convex problems through classical analytic methods. By using image transfer techniques, we propose a method to generate quickly large training datasets in order to fine-tune existing network architectures to solve VS tasks.We shows that this method can be applied both to model known static scenes, or more generally to model relative pose estimations between couples of viewpoints from arbitrary scenes.
6

Image matching using rotating filters / Mise en correspondance d'images avec des filtres tournants

Venkatrayappa, Darshan 04 December 2015 (has links)
De nos jours les algorithmes de vision par ordinateur abondent dans les applications de vidéo-surveillance, de reconstruction 3D, de véhicules autonomes, d'imagerie médicale, etc… La détection et la mise en correspondance d'objets dans les images constitue une étape clé dans ces algorithmes.Les méthodes les plus communes pour la mise en correspondance d'objets ou d'images sont basées sur des descripteurs locaux, avec tout d'abord la détection de points d'intérêt, puis l'extraction de caractéristiques de voisinages des points d'intérêt, et enfin la construction des descripteurs d'image.Dans cette thèse, nous présentons des contributions au domaine de la mise en correspondance d'images par l'utilisation de demi filtres tournants. Nous suivons ici trois approches : la première présente un nouveau descripteur à faible débit et une stratégie de mise en correspondance intégrés à une plateforme vidéo. Deuxièmement, nous construisons un nouveau descripteur local en intégrant la réponse de demi filtres tournant dans un histogramme de gradient orienté (HOG) ; enfin nous proposons une nouvelle approche pour la construction d'un descripteur utilisant des statistiques du second ordre. Toutes ces trois approches apportent des résultats intéressants et prometteurs.Mots-clés : Demi filtres tournants, descripteur local d'image, mise en correspondance, histogramme de gradient orienté (HOG), Différence de gaussiennes. / Nowadays computer vision algorithms can be found abundantly in applications relatedto video surveillance, 3D reconstruction, autonomous vehicles, medical imaging etc. Image/object matching and detection forms an integral step in many of these algorithms.The most common methods for Image/object matching and detection are based on localimage descriptors, where interest points in the image are initially detected, followed byextracting the image features from the neighbourhood of the interest point and finally,constructing the image descriptor. In this thesis, contributions to the field of the imagefeature matching using rotating half filters are presented. Here we follow three approaches:first, by presenting a new low bit-rate descriptor and a cascade matching strategy whichare integrated on a video platform. Secondly, we construct a new local image patch descriptorby embedding the response of rotating half filters in the Histogram of Orientedgradient (HoG) framework and finally by proposing a new approach for descriptor constructionby using second order image statistics. All the three approaches provides aninteresting and promising results by outperforming the state of art descriptors.Key-words: Rotating half filters, local image descriptor, image matching, Histogram of Orientated Gradients (HoG), Difference of Gaussian (DoG).
7

Etude de relaxations en traitement d'images. Application à la segmentation et autres problèmes multi-étiquettes. / Relaxations in image processing, application to segmentation and others multi-label problems

Yildizoglu, Romain 08 July 2014 (has links)
Cette thèse étudie différentes relaxations pour minimiser des fonctionnelles non convexes qui apparaissent en traitement d’images. Des problèmes comme la segmentation d’image peuvent en effet s’écrire comme un problème de minimisation d’une certaine fonctionnelle, le minimiseur représentant la segmentation recherchée. Différentes méthodes ont été proposées pour trouver des minima locaux ou globaux de la fonctionnelle non convexe du modèle de Mumford-Shah constant par morceaux à deux phases. Certaines approches utilisent une relaxation convexe qui permet d’obtenir des minima globaux de la fonctionnelle non convexe. On rappelle et compare certaines de ces méthodes et on propose un nouveau modèle par bande étroite, qui permet d’obtenir des minima locaux tout en utilisant des algorithmes robustes qui proviennent de l’optimisation convexe. Ensuite, on construit une relaxation convexe d’un modèle de segmentation à deux phases qui repose sur la comparaison entre deux histogrammes donnés et les histogrammes estimés globalement sur les deux régions de la segmentation. Des relaxations pour des problèmes multi-étiquettes à plusieurs dimensions comme le flot optique sont également étudiées. On propose une relaxation convexe avec un algorithme itératif qui ne comprend que des projections qui se calculent exactement, ainsi qu’un nouvel algorithme pour une relaxation convexe sur chaque variable mais non convexe globalement. On étudie la manière d’estimer une solution du problème non convexe original à partir d’une solution d’un problème relaxé en comparant des méthodes existantes avec des nouvelles / In this thesis we study different relaxations of non-convex functionals that can be found in image processing. Some problems, such as image segmentation, can indeed be written as the minimization of a functional. The minimizer of the functional represents the segmentation. Different methods have been proposed in order to find local or global minima of the non-convex functional of the two-phase piecewise constant Mumford-Shah model. With a convex relaxation of this model we can find a global minimum of the nonconvex functional. We present and compare some of these methods and we propose a new model with a narrow band. This model finds local minima while using robust convex optimization algorithms. Then a convex relaxation of a two-phase segmentation model is built that compares two given histograms with those of the two segmented regions. We also study some relaxations of high-dimension multi-label problems such as optical flow computation. A convex relaxation with a new algorithm is proposed. The algorithm is iterative with exact projections. A new algorithm is given for a relaxationthat is convex in each variable but that is not convex globally. We study the problem of constructing a solution of the original non-convex problem with a solution of the relaxed problem. We compare existing methods with new ones.
8

Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia

Coq, Guilhem 05 December 2008 (has links) (PDF)
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l'image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d'une quantité réelle à minimiser appelée critère d'information ou critère entropique pénalisé.<br /><br />La principale motivation de ce travail de thèse est de justifier l'utilisation d'un tel critère face à un problème de sélection de modèles typiquement issu d'un contexte de traitement du signal. La justification attendue se doit, elle, d'avoir un solide fondement mathématique. <br /><br />Nous abordons ainsi le problème classique de la détermination de l'ordre d'une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d'un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l'utilisation est justifiée par la minimisation du coût résultant de l'estimation obtenue. Les chaînes de Markov multiples modélisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d'une image. Nous nous intéressons au problème de la détermination de l'ordre d'une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l'estimation d'une densité par un histogramme. Dans ces deux domaines, nous justifions l'utilisation d'un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de Minimum Description Length.<br /><br />Nous nous efforçons également, à travers ces différents domaines d'application, de présenter des méthodes alternatives d'utilisation des critères d'information. Ces méthodes, dites comparatives, présentent une complexité d'utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle.
9

Analyse d'image geometrique et morphometrique par diagrammes de forme et voisinages adaptatifs generaux

Rivollier, Séverine 05 July 2010 (has links) (PDF)
Les fonctionnelles de Minkowski définissent des mesures topologiques et géométriques d'ensembles, insuffisantes pour la caractérisation, des ensembles différents pouvant avoir les mêmes fonctionnelles. D'autres fonctionnelles de forme, géométriques et morphométriques, sont donc utilisées. Un diagramme de forme, défini grâce à deux fonctionnelles morphométriques, donne une représentation permettant d'étudier les formes d'ensembles. En analyse d'image, ces fonctionnelles et diagrammes sont souvent limités aux images binaires et déterminés de manière globale et mono-échelle. Les Voisinages Adaptatifs Généraux (VAG) simultanément adaptatifs avec les échelles d'analyse, structures spatiales et intensités des images, permettent de pallier ces limites. Une analyse locale, adaptative et multi-échelle des images à tons de gris est proposée sous forme de cartographies des fonctionnelles de forme à VAG.Les VAG, définis en tout point du support spatial d'une image à tons de gris, sont homogènes par rapport à un critère d'analyse représenté dans un modèle vectoriel, suivant une tolérance d'homogénéité. Les fonctionnelles de forme calculées pour chaque VAG de l'image définissent les cartographies des fonctionnelles de forme à VAG. Les histogrammes et diagrammes de ces cartographies donnent des distributions statistiques des formes des structures locales de l'image contrairement aux histogrammes classiques qui donnent une distribution globale des intensités de l'image. L'impact de la variation des critères axiomatiques des VAG est analysé à travers ces cartographies, histogrammes et diagrammes. Des cartographies multi-échelles sont construites, définissant des fonctions de forme à VAG.
10

Experimental investigation of corner stall in a linear compressor cascade / Etude expérimentale et numérique du décollement de coin dans une grille d'aubes de compresseur

Ma, Wei 15 February 2012 (has links)
Dans le domaine de la recherche appliquée, les turbomachinistes sont confrontés à un manque de compréhension de la physique du décollement de coin. Ce décollement tridimensionnel (3D) à la jonction de l’extrados des aubages et du moyeu limite l’efficacité et la stabilité des compresseurs. Les simulations numériques utilisant les deux types de modélisations, « Reynolds-Averaged-Navier-Stokes » (RANS) et « Large Eddy Simulation » (LES), doivent encore être étalonnées pour des applications turbomachines. Dans la recherche fondamentale concernant la couche limite turbulente (TBL), il existe beaucoup d’études sur les effets de courbure et de gradients de pression qui jouent également un rôle important dans la physique du décollement de coin. Le but de cette thèse est de réaliser une expérience dans une grille d’aubes de compresseur pour acquérir une base de données qui pourrait être utilisée non seulement pour calibrer à la fois les approches RANS et LES, mais aussi pour donner quelques explications fondamentales sur le décollement de coin. Cette expérience permet aussi une étude de la TBL se développant sur l’extrados à mi-envergure des aubages, qui est plus complexe que les TBL rencontrées dans des configurations plus fondamentales, mais plus simples que celles existant d’un turboréacteur. Une expérience précise et détaillée de l’écoulement 3D au passage d’une grille d’aubes de compresseur a été mis en place. Les mesures ont été réalisées pour un nombre de Reynolds basé sur les conditions d’entrée et la corde de l’aubage de 3,82×105. Des mesures ont été réalisées par anémométrie à fil chaud, par des prises de pression sur la paroi latérale et sur l’aubage, par une sonde de pression à cinq trous, par de la visualisation d’huile, par la Vélocimétrie par Images de Particules (PIV) 2D, ainsi que par Anémométrie Laser Doppler (LDA) à deux composants. Une base de données originale et complète a ainsi été obtenue. Concernant l’étude de la TBL sur l’extrados à mi-envergure , le gradient négatif de pression normal à la paroi retarde le décollement, ce qui est paradoxal avec son influence sur le décollement de coin tel que présentée dans la littérature. Le gradient de pression adverse dans la direction de l’écoulement est responsable de l’accroissement des tensions de Reynolds. Un phénomène remarquable proche du bord de fuite de l’aubage est qu’il existe un point d’inflexion dans le profil de la vitesse moyenne de l’écoulement. A ce point d’inflexion, les grandeurs des tensions de Reynolds atteignent leurs valeurs maximales et la direction de diffusion de l’énergie est inversée. Le champ de vitesse dans le décollement de coin a été présenté. L’expérience met en évidence l’existence d’histogrammes bimodaux de vitesse. Les points de mesures faisant apparaitre ce caractère bimodal sont essentiellement localisés dans la région de l’interface du décollement de l’écoulement moyenné en temps. Deux modes ont été proposés pour interpréter la physique du comportement bimodal. Pour un point bimodal, les deux composantes de vitesse sont localement non-indépendantes, en raison de l’interaction apériodique de ces deux modes. / In applied research, a lack of understanding of corner stall, i.e. the three-dimensional (3D) separation in the juncture of the endwall and blade corner region, which has limited the efficiency and the stability of compressors. Both Reynolds-averaged Navier-Stokes (RANS) and large eddy simulation (LES) still need to be calibrated for turbomachinery applications. In the fundamental research of the turbulent boundary layer (TBL), there are a lot of findings of the effects of curvature and pressure gradients, which also play an important role in physics of corner stall. The purpose of this thesis is (i) to carry out an experiment in a cascade, (ii) to gain a database that could be used to calibrate both RANS and LES, and (iii) to give some basic explanations of corner stall through investigating the TBL on the suction side at the mid-span which is more complex than those in the basic investigations but simpler than those in a real engine. A detailed and accurate experiment of 3D flow field through a linear compressor cascade has been set up. Experimental data were acquired for a Reynolds number of 3.82×10 ^5 based on blade chord and inlet flow conditions. Measurements have been achieved by hot-wire anemometry, pressure taps on blade and endwall, five-hole pressure probe, oil visualization, 2D particle image velocimetry (PIV),and two-component laser Doppler anemometry (LDA). An original and complete database was thus obtained. The TBL on the suction side at mid-span was investigated. The wall-normal negative pressure gradient restrains the separation, on the contrary to its influence in the corner stall. The streamwise adverse pressure gradient can be responsible for the development of Reynolds stresses. The remarkable phenomenon at measurement stations near the trailing edge of blade is that an inflection point occurs in each profile of the mean streamwise velocity. At this inflection point, the magnitudes of the Reynolds stresses reach their maximum values, and the direction of energy diffusion also changes. The velocity field in the corner stall was presented. Bimodal histograms of velocity exist in the experiment. The bimodal points mainly appear in the region around the mean interface of separated flow and non-separated flow. At a bimodal point the local two velocity components are non-independent from each other, due to the aperiodic interplay of two basic modes in the flow field. Two modes were proposed to interpret the physics of bimodal behaviour.

Page generated in 0.0476 seconds