• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

ETUDE DE LIGNES D'INTERET NATURELLES POUR LA REPRESENTATION D'OBJETS EN VISION PAR ORDINATEUR

Tran, Thi-Thanh-Hai 31 March 2006 (has links) (PDF)
Extraction de caractéristiques est une étape essentielle dans tous les systèmes visuels. Depuis quelques années, les recherches se focalisent sur un type de caractéristique visuelle appelé “point d'intérêt” avec grande richesse de résultats. Cependant, les points d'intérêt se prêtent mal à une modélisation structurelle.<br />Cette thèse consiste à étudier un type de caractéristiques qui permet de représenter la topologie des structures dans l'images : les crêtes. Les points de crêtes sont les extrema directionels sur les surfaces des images lissées dans l'espace d'échelle. Ils sont détectés par un opérateur de Laplacien. Ces points discrets sont étiquetés pour former des lignes de crêtes à l'aide d'un algorithme d'analyse de composantes connexes. Les lignes de crêtes obtenues caractérisent l'axe central des structures ainsi que leurs tailles.<br />Les crêtes, par leur nature “ligne”, sont très utiles pour représenter les objets structurés comme par<br />exemple la silhouette de l'être humain ou la ligne de texte. Nous montrons l'utilisation de crête dans deux<br />applications : la modélisation de personnes et la détection de textes. Chaque silhouette de l'être humain est représenté par des crêtes significatives correspondant aux torse et jambes. Cette représentation aide à caractériser la configuration de la personne en mouvement à chaque instant donné. Chaque texte est modélisé par une crête longue à une échelle grande et nombreuses crêtes courtes non-parallélisme à une petite échelle. La modélisation structurelle du texte est générique pour plusieurs types de texte et indépendant de l'orientation du texte.
2

Historical document image analysis : a structural approach based on texture / Analyse d'images de documents patrimoniaux : une approche structurelle à base de texture

Mehri, Maroua 28 May 2015 (has links)
Les récents progrès dans la numérisation des collections de documents patrimoniaux ont ravivé de nouveaux défis afin de garantir une conservation durable et de fournir un accès plus large aux documents anciens. En parallèle de la recherche d'information dans les bibliothèques numériques ou l'analyse du contenu des pages numérisées dans les ouvrages anciens, la caractérisation et la catégorisation des pages d'ouvrages anciens a connu récemment un regain d'intérêt. Les efforts se concentrent autant sur le développement d'outils rapides et automatiques de caractérisation et catégorisation des pages d'ouvrages anciens, capables de classer les pages d'un ouvrage numérisé en fonction de plusieurs critères, notamment la structure des mises en page et/ou les caractéristiques typographiques/graphiques du contenu de ces pages. Ainsi, dans le cadre de cette thèse, nous proposons une approche permettant la caractérisation et la catégorisation automatiques des pages d'un ouvrage ancien. L'approche proposée se veut indépendante de la structure et du contenu de l'ouvrage analysé. Le principal avantage de ce travail réside dans le fait que l'approche s'affranchit des connaissances préalables, que ce soit concernant le contenu du document ou sa structure. Elle est basée sur une analyse des descripteurs de texture et une représentation structurelle en graphe afin de fournir une description riche permettant une catégorisation à partir du contenu graphique (capturé par la texture) et des mises en page (représentées par des graphes). En effet, cette catégorisation s'appuie sur la caractérisation du contenu de la page numérisée à l'aide d'une analyse des descripteurs de texture, de forme, géométriques et topologiques. Cette caractérisation est définie à l'aide d'une représentation structurelle. Dans le détail, l'approche de catégorisation se décompose en deux étapes principales successives. La première consiste à extraire des régions homogènes. La seconde vise à proposer une signature structurelle à base de texture, sous la forme d'un graphe, construite à partir des régions homogènes extraites et reflétant la structure de la page analysée. Cette signature assure la mise en œuvre de nombreuses applications pour gérer efficacement un corpus ou des collections de livres patrimoniaux (par exemple, la recherche d'information dans les bibliothèques numériques en fonction de plusieurs critères, ou la catégorisation des pages d'un même ouvrage). En comparant les différentes signatures structurelles par le biais de la distance d'édition entre graphes, les similitudes entre les pages d'un même ouvrage en termes de leurs mises en page et/ou contenus peuvent être déduites. Ainsi de suite, les pages ayant des mises en page et/ou contenus similaires peuvent être catégorisées, et un résumé/une table des matières de l'ouvrage analysé peut être alors généré automatiquement. Pour illustrer l'efficacité de la signature proposée, une étude expérimentale détaillée a été menée dans ce travail pour évaluer deux applications possibles de catégorisation de pages d'un même ouvrage, la classification non supervisée de pages et la segmentation de flux de pages d'un même ouvrage. En outre, les différentes étapes de l'approche proposée ont donné lieu à des évaluations par le biais d'expérimentations menées sur un large corpus de documents patrimoniaux. / Over the last few years, there has been tremendous growth in digitizing collections of cultural heritage documents. Thus, many challenges and open issues have been raised, such as information retrieval in digital libraries or analyzing page content of historical books. Recently, an important need has emerged which consists in designing a computer-aided characterization and categorization tool, able to index or group historical digitized book pages according to several criteria, mainly the layout structure and/or typographic/graphical characteristics of the historical document image content. Thus, the work conducted in this thesis presents an automatic approach for characterization and categorization of historical book pages. The proposed approach is applicable to a large variety of ancient books. In addition, it does not assume a priori knowledge regarding document image layout and content. It is based on the use of texture and graph algorithms to provide a rich and holistic description of the layout and content of the analyzed book pages to characterize and categorize historical book pages. The categorization is based on the characterization of the digitized page content by texture, shape, geometric and topological descriptors. This characterization is represented by a structural signature. More precisely, the signature-based characterization approach consists of two main stages. The first stage is extracting homogeneous regions. Then, the second one is proposing a graph-based page signature which is based on the extracted homogeneous regions, reflecting its layout and content. Afterwards, by comparing the different obtained graph-based signatures using a graph-matching paradigm, the similarities of digitized historical book page layout and/or content can be deduced. Subsequently, book pages with similar layout and/or content can be categorized and grouped, and a table of contents/summary of the analyzed digitized historical book can be provided automatically. As a consequence, numerous signature-based applications (e.g. information retrieval in digital libraries according to several criteria, page categorization) can be implemented for managing effectively a corpus or collections of books. To illustrate the effectiveness of the proposed page signature, a detailed experimental evaluation has been conducted in this work for assessing two possible categorization applications, unsupervised page classification and page stream segmentation. In addition, the different steps of the proposed approach have been evaluated on a large variety of historical document images.
3

Estimation, validation et identification des modèles ARMA faibles multivariés

Boubacar Mainassara, Yacouba 28 November 2009 (has links) (PDF)
Dans cette thèse nous élargissons le champ d'application des modèles ARMA (AutoRegressive Moving-Average) vectoriels en considérant des termes d'erreur non corrélés mais qui peuvent contenir des dépendances non linéaires. Ces modèles sont appelés des ARMA faibles vectoriels et permettent de traiter des processus qui peuvent avoir des dynamiques non linéaires très générales. Par opposition, nous appelons ARMA forts les modèles utilisés habituellement dans la littérature dans lesquels le terme d'erreur est supposé être un bruit iid. Les modèles ARMA faibles étant en particulier denses dans l'ensemble des processus stationnaires réguliers, ils sont bien plus généraux que les modèles ARMA forts. Le problème qui nous préoccupera sera l'analyse statistique des modèles ARMA faibles vectoriels. Plus précisément, nous étudions les problèmes d'estimation et de validation. Dans un premier temps, nous étudions les propriétés asymptotiques de l'estimateur du quasi-maximum de vraisemblance et de l'estimateur des moindres carrés. La matrice de variance asymptotique de ces estimateurs est d'une forme "sandwich", et peut être très différente de la variance asymptotique obtenue dans le cas fort. Ensuite, nous accordons une attention particulière aux problèmes de validation. Dans un premier temps, en proposant des versions modifiées des tests de Wald, du multiplicateur de Lagrange et du rapport de vraisemblance pour tester des restrictions linéaires sur les paramètres de modèles ARMA faibles vectoriels. En second, nous nous intéressons aux tests fondés sur les résidus, qui ont pour objet de vérifier que les résidus des modèles estimés sont bien des estimations de bruits blancs. Plus particulièrement, nous nous intéressons aux tests portmanteau, aussi appelés tests d'autocorrélation. Nous montrons que la distribution asymptotique des autocorrelations résiduelles est normalement distribuée avec une matrice de covariance différente du cas fort (c'est-à-dire sous les hypothèses iid sur le bruit). Nous en déduisons le comportement asymptotique des statistiques portmanteau. Dans le cadre standard d'un ARMA fort, il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un chi-deux. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de chi-deux. Cette distribution peut être très différente de l'approximation chi-deux usuelle du cas fort. Nous proposons donc des tests portmanteau modifiés pour tester l'adéquation de modèles ARMA faibles vectoriels. Enfin, nous nous sommes intéressés aux choix des modèles ARMA faibles vectoriels fondé sur la minimisation d'un critère d'information, notamment celui introduit par Akaike (AIC). Avec ce critère, on tente de donner une approximation de la distance (souvent appelée information de Kullback-Leibler) entre la vraie loi des observations (inconnue) et la loi du modèle estimé. Nous verrons que le critère corrigé (AICc) dans le cadre des modèles ARMA faibles vectoriels peut, là aussi, être très différent du cas fort.

Page generated in 0.1179 seconds