• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 24
  • 5
  • Tagged with
  • 58
  • 58
  • 34
  • 27
  • 14
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Une Approche vers la Description et l'Identification d'une Classe de Champs Aléatoires

Dachian, Serguei 21 January 1999 (has links) (PDF)
Une nouvelle approche de la description des champs aléatoires sur le réseau entier $\nu$-dimensionnel $Z^\nu$ est présentée. Les champs al'eatoires sont décrits en terme de certaines fonctions de sous-ensembles de $Z^\nu$ , à savoir les $P$-fonctions, les $Q$-fonctions, les $H$-fonctions, les $Q$-systèmes, les $H$-systèmes et les systèmes ponctuels. La corrélation avec la description Gibbsienne classique est montrée. Une attention particulière est portée au cas quasilocal. Les champs aléatoires non-Gibbsiens sont aussi considérés. Un procédé général pour construire des champs aléatoires non-Gibbsiens est donné. La solution du problème de Dobrushin concernant la description d'un champ aléatoire par ses distributions conditionnelles ponctuelles est déduite de notre approche. Ensuite, le problème de l'estimation paramétrique pour les champs aléatoires de Gibbs est considéré. Le champ est supposé spécifié en terme d'un système ponctuel local invariant par translation. Un estimateur du système ponctuel est construit comme un rapport de certaines fréquences conditionnelles empiriques. Ses consistances exponentielle et $L^p$ uniformes sont démontrées. Finalement, le problème nonparamétrique de l'estimation d'un système ponctuel quasilocal est considéré. Un estimateur du système ponctuel est construit par la méthode de "sieves". Ses consistances exponentielle et $L^p$ sont prouvées dans des cadres différents. Les résultats sont valides indépendamment de la non-unicité et de la perte de l'invariance par translation.
22

Quelques Contributions à la Statistique des Processus, à la Théorie des Champs Aléatoires et à la Statistique des Champs Aléatoires

Dachian, Serguei 12 December 2012 (has links) (PDF)
Ce mémoire d'Habilitation à Diriger des Recherches est organisé en deux tomes. Le Tome I a pour but de présenter les travaux de recherche effectués durant ma carrière d'enseignant-chercheur (quatorze articles publiés dans des revues internationales avec comité de lecture). Les textes intégraux de ces articles sont réunis dans le Tome II.
23

Extraction et caractérisation du mouvement cardiaque en imagerie scanner multibarrette.

Simon, Antoine 12 December 2005 (has links) (PDF)
L'analyse de la cinétique cardiaque est d'un grand intérêt diagnostique dans la lutte contre les pathologies cardio-vasculaires. Deux méthodes sont proposées afin de réaliser une estimation du mouvement du cœur à partir de séquences dynamiques de volumes tridimensionnels acquises en imagerie scanner multibarrette. Ces méthodes reposent toutes deux sur une mise en correspondance, réalisée dans un cadre markovien et suivant un schéma multirésolution. La première méthode, estimant les correspondances entre des surfaces pré-segmentées, est dépendante de la cohérence temporelle de cette segmentation. La seconde méthode estime les correspondances entre, d'une part, la surface segmentée et, d'autre part, le volume de données original correspondant à l'instant suivant. L'estimation du mouvement et la segmentation sont alors réalisés, sur toute la séquence, au cours d'un unique processus. Les deux méthodes proposées sont validées sur données simulées et sur données réelles.
24

Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis / Segmentation d'images hétérogènes de documents : une approche basée sur l'apprentissage automatique de données, l'analyse en composantes connexes et l'analyse de texture

Bonakdar Sakhi, Omid 06 December 2012 (has links)
La segmentation de page est l'une des étapes les plus importantes de l'analyse d'images de documents. Idéalement, une méthode de segmentation doit être capable de reconstituer la structure complète de toute page de document, en distinguant les zones de textes, les parties graphiques, les photographies, les croquis, les figures, les tables, etc. En dépit de nombreuses méthodes proposées à ce jour pour produire une segmentation de page correcte, les difficultés sont toujours nombreuses. Le chef de file du projet qui a rendu possible le financement de ce travail de thèse (*) utilise une chaîne de traitement complète dans laquelle les erreurs de segmentation sont corrigées manuellement. Hormis les coûts que cela représente, le résultat est subordonné au réglage de nombreux paramètres. En outre, certaines erreurs échappent parfois à la vigilance des opérateurs humains. Les résultats des méthodes de segmentation de page sont généralement acceptables sur des documents propres et bien imprimés; mais l'échec est souvent à constater lorsqu'il s'agit de segmenter des documents manuscrits, lorsque la structure de ces derniers est vague, ou lorsqu'ils contiennent des notes de marge. En outre, les tables et les publicités présentent autant de défis supplémentaires à relever pour les algorithmes de segmentation. Notre méthode traite ces problèmes. La méthode est divisée en quatre parties : - A contrario de ce qui est fait dans la plupart des méthodes de segmentation de page classiques, nous commençons par séparer les parties textuelles et graphiques de la page en utilisant un arbre de décision boosté. - Les parties textuelles et graphiques sont utilisées, avec d'autres fonctions caractéristiques, par un champ conditionnel aléatoire bidimensionnel pour séparer les colonnes de texte. - Une méthode de détection de lignes, basée sur les profils partiels de projection, est alors lancée pour détecter les lignes de texte par rapport aux frontières des zones de texte. - Enfin, une nouvelle méthode de détection de paragraphes, entraînée sur les modèles de paragraphes les plus courants, est appliquée sur les lignes de texte pour extraire les paragraphes, en s'appuyant sur l'apparence géométrique des lignes de texte et leur indentation. Notre contribution sur l'existant réside essentiellement dans l'utilisation, ou l'adaptation, d'algorithmes empruntés aux méthodes d'apprentissage automatique de données, pour résoudre les cas les plus difficiles. Nous démontrons en effet un certain nombre d'améliorations : sur la séparation des colonnes de texte lorsqu'elles sont proches l'une de l'autre~; sur le risque de fusion d'au moins deux cellules adjacentes d'une même table~; sur le risque qu'une région encadrée fusionne avec d'autres régions textuelles, en particulier les notes de marge, même lorsque ces dernières sont écrites avec une fonte proche de celle du corps du texte. L'évaluation quantitative, et la comparaison des performances de notre méthode avec des algorithmes concurrents par des métriques et des méthodologies d'évaluation reconnues, sont également fournies dans une large mesure.(*) Cette thèse a été financée par le Conseil Général de Seine-Saint-Denis, par l'intermédiaire du projet Demat-Factory, initié et conduit par SAFIG SA / Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
25

Unconstrained Gaze Estimation Using RGB-D Camera. / Estimation du regard avec une caméra RGB-D dans des environnements utilisateur non-contraints

Kacete, Amine 15 December 2016 (has links)
Dans ce travail, nous avons abordé le problème d’estimation automatique du regard dans des environnements utilisateur sans contraintes. Ce travail s’inscrit dans la vision par ordinateur appliquée à l’analyse automatique du comportement humain. Plusieurs solutions industrielles sont aujourd’hui commercialisées et donnent des estimations précises du regard. Certaines ont des spécifications matérielles très complexes (des caméras embarquées sur un casque ou sur des lunettes qui filment le mouvement des yeux) et présentent un niveau d’intrusivité important, ces solutions sont souvent non accessible au grand public. Cette thèse vise à produire un système d’estimation automatique du regard capable d’augmenter la liberté du mouvement de l’utilisateur par rapport à la caméra (mouvement de la tête, distance utilisateur-capteur), et de réduire la complexité du système en utilisant des capteurs relativement simples et accessibles au grand public. Dans ce travail, nous avons exploré plusieurs paradigmes utilisés par les systèmes d’estimation automatique du regard. Dans un premier temps, Nous avons mis au point deux systèmes basés sur deux approches classiques: le premier basé caractéristiques et le deuxième basé semi apparence. L’inconvénient majeur de ces paradigmes réside dans la conception des systèmes d'estimation du regard qui supposent une indépendance totale entre l'image d'apparence des yeux et la pose de la tête. Pour corriger cette limitation, Nous avons convergé vers un nouveau paradigme qui unifie les deux blocs précédents en construisant un espace regard global, nous avons exploré deux directions en utilisant des données réelles et synthétiques respectivement. / In this thesis, we tackled the automatic gaze estimation problem in unconstrained user environments. This work takes place in the computer vision research field applied to the perception of humans and their behaviors. Many existing industrial solutions are commercialized and provide an acceptable accuracy in gaze estimation. These solutions often use a complex hardware such as range of infrared cameras (embedded on a head mounted or in a remote system) making them intrusive, very constrained by the user's environment and inappropriate for a large scale public use. We focus on estimating gaze using cheap low-resolution and non-intrusive devices like the Kinect sensor. We develop new methods to address some challenging conditions such as head pose changes, illumination conditions and user-sensor large distance. In this work we investigated different gaze estimation paradigms. We first developed two automatic gaze estimation systems following two classical approaches: feature and semi appearance-based approaches. The major limitation of such paradigms lies in their way of designing gaze systems which assume a total independence between eye appearance and head pose blocks. To overcome this limitation, we converged to a novel paradigm which aims at unifying the two previous components and building a global gaze manifold, we explored two global approaches across the experiments by using synthetic and real RGB-D gaze samples.
26

Modélisation et simulation d'un réseau de neurones formels : implantation sur machine parallèle "hypercube FPS T-40

Benaouda, Djamel 29 January 1992 (has links) (PDF)
Cette thèse consiste a modéliser un réseau neuronal situe en aval de la cochlee, qui constitue les premières couches de traitement des signaux de la parole issus du système auditif périphérique. Le cadre général du travail présente concerne la modélisation mathématique du réseau de neurones en question, la description de la machine massivement parallèle hypercube FPS T-40 utilisée comme outil de nos simulations, l'implantation du modèle neuronal sur cette machine parallèle et enfin les réalisations et interprétations de résultats de simulation. Ces travaux sont présentés en quatre chapitres comme suit: le premier chapitre s'inscrit dans le cadre général des réseaux de neurones, en commençant par les premiers modèles fondes sur des réseaux dits d'automates a seuil conçus par W. S. Mcculloch et W. Pitts des 1943, des réseaux d'automates cellulaires conçus par J. Von Neumann des 1948, etc... Le deuxième chapitre introduit la mesure de Gibbs, champs aléatoires et modèles de réseaux (déterministes et stochastiques). Puis, il présente l'étude du probleme d'ergodicité des réseaux de neurones probabilistes. Le troisième chapitre concerne l'environnement technique ou nos simulations de réseaux de neurones ont été effectuées. Il consiste en une description générale du principe du parallélisme et en une présentation détaillée de la machine massivement parallèle hypercube FPS T-40. Enfin, le quatrième chapitre comprend l'implantation de l'algorithme du réseau de neurones sur la machine massivement parallèle hypercube FPS T-40, l'expérimentation numérique et l'interprétation des résultats numériques. Ensuite, on a représente graphiquement ces résultats, a l'aide de mesures statistiques adéquates résumant le comportement dynamique du réseau, sur station de travail vinix (ordinateur spécialisé dans le traitement d'images)
27

Etude méthodologique de l'analyse en composantes principales de processus bidimensionnels : effets des approximations numériques et de l'échantillonnage et utilisation pour la simulation de champs aléatoires : application au traitement des températures mensuelles de surface de la mer sur l'Atlantique intertropical

Braud, Isabelle 10 April 1990 (has links) (PDF)
Le point de départ de ce mémoire est la technique d'Analyse en Composantes Principales de Processus (ACPP), extension à des champs spatialement et/ou temporellement continus de l'Analyse en Composantes Principales (ACP) classique. Elle conduit à rechercher les fonctions propres d'un noyau de covariance, solutions d'une équation intégrale de Fredholm et permet ainsi de tenir compte explicitement de la forme et de la taille du domaine d'étude. Dans le chapitre l, après un rappel de la méthode et la présentation de l'approximation numérique utilisée lorsqu'on travaille avec un échantillon de taille fInie et un processus discrétisé spatialement, on s'attache à montrer les liens de cette technique avec la recherche de modes normaux de systèmes dynamiques puis avec les techniques d'interpolation optimale et la géostatistique. On montre ainsi que l'ACPP peut s'interpréter comme un cas particulier de krigeage s'appuyant sur un modèle de covariance spécifique, non nécessairement stationnaire. Dans le chapitre 2, afIn de quantifIer les erreurs sur l'estimation des fonctions propres, dues à l'échantillonnage statistique et à la discrétisation spatiale, une solution analytique, pour un modèle particulier de covariance et un domaine circulaire, est proposée puis comparée aux solutions numériques. Le chapitre 3 pose ensuite les principes de l'utilisation de l'ACPP pour la simulation de champs bidimensionnels et analyse la sensibilité de la méthode au choix des paramètres en terme de restitution d'une covariance cible. La technique est aussi comparée à d'autres méthodes (Bandes tournantes, méthodes matricielles), puis utilisée pour la simulation de champs non stationnaires. Enfin, le chapitre 4 illustre tous ces développements méthodologiques sur des données de température mensuelle de surface de la mer sur l'Atlantique intertropical entre 1964 et 1987.
28

Quelques notions d'irrégularité uniforme et ponctuelle : le point de vue ondelettes

Clausel, Marianne 27 November 2008 (has links) (PDF)
Le but de cette thèse est de définir puis d'étudier différentes notions d'irrégularité uniforme ou ponctuelle permettant de traduire le fait qu'une fonction peut avoir des 'grands accroissements' à toutes les échelles. Pour cela on 'inverse' les notions de régularité Höldérienne usuelles. L'objectif principal du travail est ensuite de relier ces différentes notions à la théorie des ondelettes. Les critères ondelettes établis vont ainsi permettre de définir des fonctions ou des champs aléatoires dont le comportement est différent suivant la gamme d'échelles considérée. Par ailleurs, si on se place du point de vue ponctuel, une question naturelle est celle de la définition d'une analyse multifractale -dite faible- liée à la notion d'irrégularité ponctuelle. Les ondelettes vont alors permettre de définir des séries d'ondelettes multifractales pour l'irrégularité ponctuelle. Enfin, nous étudions des exemples de champs aléatoires où des propriétés de régularité directionelle apparaissent. Nous nous sommes ainsi centré sur l'étude d'un modèle de champ aléatoire gaussien particulier vérifiant une relation d'autosimilarité matricielle. Nous avons ensuite généralisé ce modèle et introduit des champs gaussiens autosimilaires par rapport à un groupe
29

Champs aléatoires de Markov cachés pour la cartographie du risque en épidémiologie

Azizi, Lamiae 13 December 2011 (has links) (PDF)
La cartographie du risque en épidémiologie permet de mettre en évidence des régionshomogènes en terme du risque afin de mieux comprendre l'étiologie des maladies. Nousabordons la cartographie automatique d'unités géographiques en classes de risque commeun problème de classification à l'aide de modèles de Markov cachés discrets et de modèlesde mélange de Poisson. Le modèle de Markov caché proposé est une variante du modèle dePotts, où le paramètre d'interaction dépend des classes de risque.Afin d'estimer les paramètres du modèle, nous utilisons l'algorithme EM combiné à une approche variationnelle champ-moyen. Cette approche nous permet d'appliquer l'algorithmeEM dans un cadre spatial et présente une alternative efficace aux méthodes d'estimation deMonte Carlo par chaîne de Markov (MCMC).Nous abordons également les problèmes d'initialisation, spécialement quand les taux de risquesont petits (cas des maladies animales). Nous proposons une nouvelle stratégie d'initialisationappropriée aux modèles de mélange de Poisson quand les classes sont mal séparées. Pourillustrer ces solutions proposées, nous présentons des résultats d'application sur des jeux dedonnées épidémiologiques animales fournis par l'INRA.
30

La structuration dans les entités nommées / Structuration in named entities

Dupont, Yoann 23 November 2017 (has links)
La reconnaissance des entités nommées et une discipline cruciale du domaine du TAL. Elle sert à l'extraction de relations entre entités nommées, ce qui permet la construction d'une base de connaissance (Surdeanu and Ji, 2014), le résumé automatique (Nobata et al., 2002), etc... Nous nous intéressons ici aux phénomènes de structurations qui les entourent.Nous distinguons ici deux types d'éléments structurels dans une entité nommée. Les premiers sont des sous-chaînes récurrentes, que nous appelerons les affixes caractéristiques d'une entité nommée. Le second type d'éléments est les tokens ayant un fort pouvoir discriminant, appelés des tokens déclencheurs. Nous détaillerons l'algorithme que nous avons mis en place pour extraire les affixes caractéristiques, que nous comparerons à Morfessor (Creutz and Lagus, 2005b). Nous appliquerons ensuite notre méthode pour extraire les tokens déclencheurs, utilisés pour l'extraction d'entités nommées du Français et d'adresses postales.Une autre forme de structuration pour les entités nommées est de nature syntaxique, qui suit généralement une structure d'imbrications ou arborée. Nous proposons un type de cascade d'étiqueteurs linéaires qui n'avait jusqu'à présent jamais été utilisé pour la reconnaissance d'entités nommées, généralisant les approches précédentes qui ne sont capables de reconnaître des entités de profondeur finie ou ne pouvant modéliser certaines particularités des entités nommées structurées.Tout au long de cette thèse, nous comparons deux méthodes par apprentissage automatique, à savoir les CRF et les réseaux de neurones, dont nous présenterons les avantages et inconvénients de chacune des méthodes. / Named entity recognition is a crucial discipline of NLP. It is used to extract relations between named entities, which allows the construction of knowledge bases (Surdeanu and Ji, 2014), automatic summary (Nobata et al., 2002) and so on. Our interest in this thesis revolves around structuration phenomena that surround them.We distinguish here two kinds of structural elements in named entities. The first one are recurrent substrings, that we will call the caracteristic affixes of a named entity. The second type of element is tokens with a good discriminative power, which we call trigger tokens of named entities. We will explain here the algorithm we provided to extract such affixes, which we will compare to Morfessor (Creutz and Lagus, 2005b). We will then apply the same algorithm to extract trigger tokens, which we will use for French named entity recognition and postal address extraction.Another form of structuration for named entities is of a syntactic nature. It follows an overlapping or tree structure. We propose a novel kind of linear tagger cascade which have not been used before for structured named entity recognition, generalising other previous methods that are only able to recognise named entities of a fixed depth or being unable to model certain characteristics of the structure. Ours, however, can do both.Throughout this thesis, we compare two machine learning methods, CRFs and neural networks, for which we will compare respective advantages and drawbacks.

Page generated in 0.0499 seconds