• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 65
  • 27
  • 1
  • Tagged with
  • 199
  • 199
  • 122
  • 99
  • 98
  • 92
  • 91
  • 76
  • 75
  • 71
  • 62
  • 56
  • 53
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Extraction d'attributs et mesures de similarité basées sur la forme

Yang, Mingqiang 03 July 2008 (has links) (PDF)
Dans le contexte de la reconnaissance de forme et de l'observation de similarité d'un objet parmi d'autres, les caractéristiques de forme extraites de son image sont des outils puissants. En effet la forme de l'objet est habituellement et fortement liée à sa fonctionnalité et son identité. S'appuyant sur cette forme, un éventail de méthodes par extraction de caractéristiques et mesures de similarité a été proposé dans la littérature. De nombreuses et diverses applications sont susceptibles d'utiliser ces caractéristiques de forme. L'invariance géométrique et la résistance aux déformations sont des propriétés importantes que doivent posséder ces caractéristiques et mesures de similarité. Dans cette thèse, trois nouveaux descripteurs de forme sont développés. Les deux premiers, celui par différence de surfaces et contrôlée par l'échelle (SCAD) et celui correspondant au vecteur de surfaces partielles normalisées (NPAV), sont fondés sur une normalisation "iso-surface" (IAN). SCAD est un vecteur dont les éléments sont les différences de surface entre les principaux segments du contour original et contour filtré. Ces segments sont définis par des ensembles de points entre chaque paire de points de courbure nulle, relative au contour filtré et au contour original. En nous appuyant sur deux théorèmes que nous proposons et en prenant en considération surface partielle, transformée affine et filtrage linéaire, nous avons défini le second descripteur, NPAV. Nous prouvons alors, que pour tout contour filtré linéairement, la surface d'un triangle, dont les sommets sont le barycentre du contour et une paire de points successifs sur le contour normalisé, reste linéaire sous toutes les transformations affines. Ainsi est établie une relation entre filtrage et transformation affine. Les deux descripteurs SCAD et NPAV ont la propriété d'invariance aux transformations affines. Comparant les deux approches SCAD et NPAV, SCAD s'avère plus compact que NPAV mais les performances de NPAV sont meilleures que celles de SCAD. La dernière approche proposée est la représentation par "contexte des cordes". Cette représentation décrit une distribution des longueurs de cordes selon une orientation. L'histogramme représentant ce contexte des cordes est compacté et normalisé dans une matrice caractéristique. Une mesure de similarité est alors définie sur cette matrice. La méthode proposée est insensible à la translation, à la rotation et au changement d'échelle; de plus, elle s'avère robuste aux faibles occultations, aux déformations élastiques et au bruit. En outre, son évaluation sur des objets réels souligne tous ses atouts dans le contexte des applications de la vision. Ces nouveaux descripteurs de forme proposés sont issus d'une recherche et d'études menées sur une quarantaine de techniques de la littérature. Contrairement à la classification traditionnelle, ici, les approches de descripteurs de forme sont classées selon leurs approches de traitement: ceci facilite ainsi le choix du traitement approprié. Une description et une étude de ces approches est ici fournie, et nous reprenons certaines d'entre elles dans une évaluation comparative avec les nôtres et ce sur différentes bases de données
192

Modélisation stochastique pour l'analyse d'images texturées : Approches Bayésiennes pour la caractérisation dans le domaine des transformées

Lasmar, Nour-Eddine 07 December 2012 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le cadre de la modélisation d'images texturées à l'aide des représentations multi-échelles et multi-orientations. Partant des résultats d'études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l'éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu'il est pertinent d'associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s'agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l'aide de la copule Gaussienne. L'ensemble des modèles proposés est comparé quantitativement en terme de qualité d'ajustement à l'aide de tests statistiques d'adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d'images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l'état de l'art.
193

Méthode de discrétisation adaptée à une logique événementielle pour l'utra-faible consommation : application à la reconnaissance de signaux physiologiques / Discretization method adapted to an event-logic architecture for ultra-low power consumption : a physiological pattern recognition application

Le Pelleter, Tugdual 13 May 2015 (has links)
Les systèmes embarqués mobiles font partis intégrante de notre quotidien. Afin de les rendre plus adaptésaux usages, ils ont été miniaturisés et leur autonomie a été augmentée, parfois de façon très considérable.Toutefois, les propositions d’amélioration butent désormais sur les possibilités de la technologie des circuitsintégrés. Pour aller plus loin, il faut donc envisager de repenser la chaîne de traitement du signal afin deréduire la consommation de ces dispositifs. Cette thèse développe une approche originale pour exploiterefficacement l’échantillonnage par traversée de niveaux d’une part et, d’autre part, associe cet échantillonnageà une logique évènementielle afin de réduire drastiquement la consommation d’énergie des systèmesintégrés autonomes. Une méthode de discrétisation adaptée à une application de reconnaissance de signauxphysiologiques, utilisée comme exemple dans cette thèse, y est présentée. Un premier prototype en logiqueévènementielle (asynchrone) sur circuit FPGA a permis de valider cette stratégie et de démontrer les bénéficesde cet échantillonnage dédié en termes de réduction de l’activité par rapport à un échantillonnage uniforme.Un second prototype en logique asynchrone et conçu en technologie CMOS AMS 0.35 μm a permis de validerpar simulation électrique un gain extrêmement important sur la consommation électrique du dispositif. / Our everyday life is highly dependent on mobile embedded systems. In order to make them suitable to differentapplications, they have underwent size reduction and lifetime extension. However, these improvementsare currently limited by the possibilities of the integrated circuits technologies. In order to push back theboundaries, it is necessary to reconsider the whole digital signal processing chain from scratch to sustain thepower consumption reduction in this kind of system. This work develops on the first hand a strategy thatsmartly uses the level-crossing sampling scheme and on the other combines this sampling method with eventlogicto highly reduce the power consumption in mobile embedded systems. A discretisation method adaptedto the recognition of physiological patterns application is described. A first event-logic (asynchronous) prototypeimplemented on FPGA proved the potential benefits that an adapted sampling scheme could offersto reduce activity compared to a uniform sampling scheme. Electrical simulations performed on a secondprototype, also designed in asynchronous logic, with CMOS AMS 0.35 μm technology, validated a high gainin power consumption.
194

Fouille de graphes et classification de graphes : application à l’analyse de plans cadastraux / Graph Mining and Graph Classification : application to cadastral map analysis

Raveaux, Romain 25 November 2010 (has links)
Les travaux présentés dans ce mémoire de thèse abordent sous différents angles très intéressants, un sujet vaste et ambitieux : l’interprétation de plans cadastraux couleurs.Dans ce contexte, notre approche se trouve à la confluence de différentes thématiques de recherche telles que le traitement du signal et des images, la reconnaissance de formes, l’intelligence artificielle et l’ingénierie des connaissances. En effet, si ces domaines scientifiques diffèrent dans leurs fondements, ils sont complémentaires et leurs apports respectifs sont indispensables pour la conception d’un système d’interprétation. Le centre du travail est le traitement automatique de documents cadastraux du 19e siècle. La problématique est traitée dans le cadre d'un projet réunissant des historiens, des géomaticiens et des informaticiens. D'une part nous avons considéré le problème sous un angle systémique, s'intéressant à toutes les étapes de la chaîne de traitements mais aussi avec un souci évident de développer des méthodologies applicables dans d'autres contextes. Les documents cadastraux ont été l'objet de nombreuses études mais nous avons su faire preuve d'une originalité certaine, mettant l'accent sur l'interprétation des documents et basant notre étude sur des modèles à base de graphes. Des propositions de traitements appropriés et de méthodologies ont été formulées. Le souci de comblé le gap sémantique entre l’image et l’interprétation a reçu dans le cas des plans cadastraux étudiés une réponse. / This thesis tackles the problem of technical document interpretationapplied to ancient and colored cadastral maps. This subject is on the crossroadof different fields like signal or image processing, pattern recognition, artificial intelligence,man-machine interaction and knowledge engineering. Indeed, each of thesedifferent fields can contribute to build a reliable and efficient document interpretationdevice. This thesis points out the necessities and importance of dedicatedservices oriented to historical documents and a related project named ALPAGE.Subsequently, the main focus of this work: Content-Based Map Retrieval within anancient collection of color cadastral maps is introduced.
195

Contribution au traitement du signal pour le contrôle de santé in situ de structures composites : application au suivi de température et à l’analyse des signaux d’émission acoustique / Signal processing for in situ Structural Health Monitoring of composite structures : application to the estimation of the temperature dynamics and to the study of acoustic emission

Hamdi, Seif Eddine 12 October 2012 (has links)
Le contrôle de santé structural ou Structural Health Monitoring (SHM) des matériaux constitue une démarche fondamentale pour la maîtrise de la durabilité et de la fiabilité des structures en service. Au-delà des enjeux industriels et humains qui ne cessent de s’accroître en termes de sécurité et de fiabilité, le contrôle de santé doit faire face à des exigences de plus en plus élaborées. Les nouvelles stratégies de contrôle de santé doivent non seulement détecter et identifier l’endommagement mais aussi quantifier les différents phénomènes qui en sont responsables. Pour atteindre cet objectif, il est nécessaire d’accéder à une meilleure connaissance des processus d’endommagement. Par ailleurs, ceux-ci surviennent fréquemment sous l’effet de sollicitations mécaniques et environnementales. Ainsi, il est indispensable, d’une part, d’élaborer des méthodes de traitement des signaux permettant d’estimer les effets des conditions environnementales et opérationnelles, dans un contexte de l’analyse des événements précurseurs des mécanismes d’endommagement, et, d’autre part, de définir les descripteurs d’endommagement les plus adaptés à cette analyse. Cette étude propose donc des méthodes de traitement du signal permettant d’atteindre cet objectif, dans un premier temps, pour l’estimation des effets externes sur les ondes multidiffusées dans un contexte de contrôle de santé actif et, dans un second temps, pour l’extraction d’un indicateur d’endommagement à partir de l’analyse des signaux d’émission acoustique dans un contexte de contrôle de santé passif. Dans la première partie de ce travail, quatre méthodes de traitement du signal sont proposées. Celles-ci permettent de prendre en compte les variations des conditions environnementales dans la structure, qui dans le cadre de cette thèse, se sont limitées au cas particulier du changement de la température. En effet, les variations de température ont pour effet de modifier les propriétés mécaniques du matériau et par conséquent la vitesse de propagation des ondes ultrasonores. Ce phénomène entraîne alors une dilatation temporelle des signaux acoustiques qu’il convient d’estimer afin de suivre les variations de température. Quatre estimateurs de coefficients de dilatation sont alors étudiés : Il s’agit de l’intercorrélation à fenêtre glissante, utilisée comme méthode de référence, la méthode du stretching, l’estimateur à variance minimale et la transformée exponentielle. Les deux premières méthodes ont été déjà validées dans la littérature alors que les deux dernières ont été développées spécifiquement dans le cadre de cette étude. Par la suite, une évaluation statistique de la qualité des estimations est menée grâce à des simulations de Monte-Carlo utilisant des signaux de synthèse. Ces signaux sont basés sur un modèle de signal multidiffusé prenant en compte l’influence de la température. Une estimation sommaire de la complexité algorithmique des méthodes de traitement du signal complète également cette phase d’évaluation. Enfin, la validation expérimentale des méthodes d’estimation est réalisée sur deux types de matériaux : Tout d’abord, dans une plaque d’aluminium, milieu homogène dont les caractéristiques sont connues, puis, dans un second temps dans un milieu fortement hétérogène prenant la forme d’une plaque composite en verre/epoxy. Dans ces expériences, les plaques sont soumises à différentes températures dans un environnement thermique contrôlé. Les estimations de température sont alors confrontées à un modèle analytique décrivant le comportement du matériau. La seconde partie de ce travail concerne la caractérisation in situ des mécanismes d’endommagement par émission acoustique dans des matériaux hétérogènes. Les sources d’émission acoustique génèrent des signaux non stationnaires... / Structural health monitoring (SHM) of materials is a fundamental measure to master thedurability and the reliability of structures in service. Beyond the industrial and human issuesever increasing in terms of safety and reliability, health monitoring must cope with demandsincreasingly sophisticated. New health monitoring strategies must not only detect and identifydamage but also quantify the various phenomena involved in it. To achieve this objective, itis necessary to reach a better understanding of the damage process. Moreover, they frequentlyoccur as a result of mechanical and environmental stresses. Thus, it is essential, first, to developsignal processing methods for estimating the effects of environmental and operational conditions,in the context of the analysis of precursor events of damage mechanisms, and on theother hand, to define the damage descriptors that are the most suitable to this analysis. Thisstudy proposes signal processing methods to achieve this goal. At first, to the estimation ofexternal effects on the scattered waves in an active health control context, in a second step, tothe extraction of a damage indicator from the signals analysis of acoustic emission in a passivehealth monitoring context.In the first part of this work, four signal processing methods are proposed. These allow takinginto account the variation of environmental conditions in the structure, which in this thesis,were limited to the particular case of temperature change. Indeed, temperature changes have theeffect of altering the mechanical properties of the material and therefore the propagation velocityof ultrasonic waves. This phenomenon then causes a dilation of the acoustic signals that shouldbe estimated in order to monitor changes in temperature. Four estimators of dilation coefficientsare then studied: the intercorrelation sliding window, used as reference method, the stretchingmethod, the minimum variance estimator and the exponential transform. The first two methodshave already been validated in the literature while the latter two were developed specificallyin the context of this study. Thereafter, a statistical evaluation of the quality of estimates isconducted through Monte Carlo simulations using synthetic signals. These signals are basedon a scattered signal model taking into account the influence of temperature. A raw estimateof the computational complexity of signal processing methods also completes this evaluationphase. Finally, the experimental validation of estimation methods is performed on two types ofmaterial: First, in an aluminum plate, homogeneous medium whose characteristics are known,then, in a second step in a highly heterogeneous environment in the form of a compositeglass/epoxy plate. In these experiments, the plates are subjected to different temperatures in acontrolled thermal environment. The temperature estimates are then faced with an analyticalmodel describing the material behavior.The second part of this work concerns in situ characterization of damage mechanisms byacoustic emission in heterogeneous materials. Acoustic emission sources generate non-stationarysignals. The Hilbert-Huang transform is thus proposed for the discrimination of signals representativeof four typical sources of acoustic emission in composites: matrix cracking, debondingfiber/matrix, fiber breakage and delamination. A new time-frequency descriptor is then definedfrom the Hilbert-Huang transform and is introduced into an online classification algorithm. Amethod of unsupervised classification, based on the k-means method, is then used to discriminatethe sources of acoustic emission and the data segmentation quality is evaluated. Thesignals are recorded from blank samples, using piezoelectric sensors stuck to the surface of thematerial and sensitive samples (sensors integrated within the material)...
196

Ondelettes et Estimation de Mouvements de Fluide

Dérian, Pierre 07 November 2012 (has links) (PDF)
Ces travaux se situent dans la problématique d'élaboration d'outils de mesure adaptés aux caractéristiques des écoulements fluides. Le développement de l'imagerie digitale, associée à l'utilisation de techniques de visualisation d'écoulements en mécanique des fluides, permet d'envisager l'extraction, à l'aide de méthodes de vision par ordinateur, du mouvement d'écoulements perçu dans des séquences d'images. L'objectif consiste ici à proposer une nouvelle approche de type " flux optique " pour l'estimation multiéchelle de mouvements de fluides, en s'appuyant sur une représentation en ondelettes du mouvement recherché. Cette formulation en ondelettes introduit un formalisme multiéchelle, intéressant tant du point de vue de l'estimation du flux optique que de la représentation de champs de vitesse turbulents. Elle permet en outre la construction de bases à divergence nulle, respectant ainsi une contrainte issue de la physique des fluides. Plusieurs types de régularisation sont présentés; la plus simple procède par troncature de la base aux petites échelles, la plus complexe utilise les coefficients de connexion de la base d'ondelette pour construire des schémas d'ordre élevé. Les approches proposées sont évaluées sur des images synthétiques dans un premier temps, puis sur des images expérimentales d'écoulements caractéristiques. Les résultats obtenus sont comparés à ceux fournis par la méthode usuelle des " corrélations croisées ", mettant en avant les intérêts et les limites de l'estimateur.
197

Quantification de la qualité d'un geste chirurgical à partir de connaissances a priori

Wolf, Rémi 17 June 2013 (has links) (PDF)
Le développement de la chirurgie laparoscopique entraîne de nouveaux défis pour le chirurgien, sa perception visuelle et tactile du site opératoire étant modifiée par rapport à son expérience antérieure. De nombreux dispositifs ont été développés autour de la procédure chirurgicale afin d'aider le chirurgien à réaliser le geste avec la meilleure qualité possible. Ces dispositifs visent à permettre au chirurgien de mieux percevoir le contexte dans lequel il intervient, à planifier de façon optimale la stratégie opératoire et à l'assister lors de la réalisation de son geste. La conception d'un système d'analyse de la procédure chirurgicale, permettant d'identifier des situations à risque et d'améliorer la qualité du geste, est un enjeu majeur du domaine des Gestes Médico-Chirurgicaux Assistés par Ordinateur. L'évaluation de la qualité du geste explore plusieurs composantes de sa réalisation : les habiletés techniques du chirurgien, ainsi que ses connaissances théoriques et sa capacité de jugement. L'objectif de cette thèse était de développer une méthode d'évaluation de la qualité technique des gestes du chirurgien à partir de connaissances à priori, qui soit adaptée aux contraintes spécifiques du bloc opératoire sans modifier l'environnement du chirurgien. Cette évaluation s'appuie sur la définition de métriques prédictives de la qualité du geste chirurgical, dérivées des trajectoires des instruments au cours de la procédure. La première étape de ce travail a donc consisté en la mise au point d'une méthode de suivi de la position des instruments laparoscopiques dans la cavité abdominale au cours de la chirurgie, à partir des images endoscopiques et sans ajout de marqueurs. Ce suivi combine des modèles géométriques de la caméra, de l'instrument et de son orientation, ainsi que des modèles statistiques décrivant les évolutions de cette dernière. Cette méthode permet le suivi de plusieurs instruments de laparoscopie dans des conditions de banc d'entraînement, en temps différé pour le moment. La seconde étape a consisté à extraire des trajectoires des paramètres prédictifs de la qualité du geste chirurgical, à partir de régressions aux moindres carrés partiels et de classifieurs k-means. Plusieurs nouvelles métriques ont été identifiées, se rapportant à la coordination des mains du chirurgien ainsi qu'à l'optimisation de son espace de travail. Ce dispositif est destiné à s'intégrer dans un système plus large, permettant d'apporter au chirurgien, en temps réel, des informations contextualisées concernant son geste, en fusionnant par exemple les données issues de la trajectoire à des données multi-modales d'imagerie per-opératoire.
198

Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicale

Prevost, Raphaël 21 October 2013 (has links) (PDF)
La segmentation d'images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d'utilisation d'informations a priori sur l'organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d'une grande variété d'informations extérieures telles que des bases de données annotées (via l'apprentissage statistique), d'autres images du même patient (via la co-segmentation) et des interactions de l'utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d'apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l'efficacité de nos contributions.
199

Quantitative Analysis of Open Curves in Brain Imaging: Applications to White Matter Fibers and Sulci

Mani, Meenakshi 31 January 2011 (has links) (PDF)
Il y a dans le cerveau humain environ 100 sillons corticaux, et plus de 100 milliards de faisceaux de matière blanche. Si le nombre, la configuration et la fonction de ces deux structures anatomiques diffèrent, elles possèdent toutefois une propriété géométrique commune: ce sont des courbes ouvertes continues. Cette thèse se propose d'étudier comment les caractéristiques des courbes ouvertes peuvent être exploitées afin d'analyser quantitativement les sillons corticaux et les faisceaux de matière blanche. Les quatre caractéristiques d'une courbe ouverte-forme, taille, orientation et position- ont des propriétés différentes, si bien que l'approche usuelle est de traiter chacune séparément à l'aide d'une métrique ad hoc. Nous introduisons un cadre riemannien adapté dans lequel il est possible de fusionner les espaces de caractéristiques afin d'analyser conjointement plusieurs caractéristiques. Cette approche permet d'apparier et de comparer des courbes suivant des distances géodésiques. Les correspondances entre courbes sont établies automatiquement en utilisant une métrique élastique. Dans cette thèse, nous validerons les métriques introduites et nous montrerons leurs applications pratiques, entre autres dans le cadre de plusieurs problèmes cliniques importants. Dans un premier temps, nous étudierons spécifiquement les fibres du corps calleux, afin de montrer comment le choix de la métrique influe sur le résultat du clustering. Nous proposons ensuite des outils permettant de calculer des statistiques sommaires sur les courbes, ce qui est un premier pas vers leur analyse statistique. Nous représentons les groupes de faisceaux par la moyenne et la variance de leurs principales caractéristiques, ce qui permet de réduire le volume des données dans l'analyse des faisceaux de matière blanche. Ensuite, nous présentons des méthodes permettant de détecter les changements morphologiques et les atteintes de la matière blanche. Quant aux sillons corticaux, nous nous intéressons au problème de leur labellisation.

Page generated in 0.2085 seconds