• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Traitement des signaux parcimonieux et applications

AZIZ SBAI, Si Mohamed 20 November 2012 (has links) (PDF)
Quel que soit le domaine d'application, il est nécessaire de tirer profit de toute l'information a priori dans le but d'optimiser les résultats ou parfois même de manière à rendre un problème soluble. Dans ce contexte, la notion de parcimonie a émergé comme un a priori fondamental ces dernières années. On dit qu'un signal est parcimonieux dans une base s'il peut être décrit par un faible nombre de coefficients non nuls dans cette base. L'objet de cette thèse est l'étude de nouveaux apports de l'hypothèse de parcimonie au traitement du signal. Deux domaines d'applications sont considérés. Outre l'utilisation de la parcimonie, ces deux domaines ont en commun la résolution de problèmes inverses sous-déterminés. Le premier concerne la séparation de sources. Dans ce domaine, la parcimonie a conduit au développement de différentes méthodes de séparation de sources. Les performances de ces méthodes sont sensibles au choix de certains paramètres, habituellement choisis de manière empirique. Dans cette thèse, on propose un formalisme statistique qui permet de réduire le nombre de ces paramètres, tout en préservant la qualité de la séparation. Le second domaine d'application étudié est l'acquisition compressée des signaux à alphabet fini. Une telle acquisition compressée permet de réduire la dimension des signaux à alphabet fini, tout en gardant l'information nécessaire à leur reconstruction. Une formalisation du problème permet de le relier à celui de la reconstruction des signaux parcimonieux à partir de mesures incomplètes. Cette thèse est donc une exploration de nouvelles problématiques où l'intégration de la parcimonie conduit à de bonnes performances.
122

Apport de l'imagerie multi et hyperspectrale pour l'évaluation de la pigmentation de la peau

Prigent, Sylvain 30 November 2012 (has links) (PDF)
L'objectif principal de ce travail de thèse est de développer un score mesurant la pigmentation de la peau à partir d'images spectrales. L'objectif final est de construire un outil plus objectif et au moins aussi performant que les outils cliniques, dans l'évaluation de l'effet des traitements agissant sur l'hyper-pigmentation de la peau. Cet outil a pour vocation à être utilisé dans des essais cliniques. Le travail se focalise sur le mélasma qui est une pathologie pigmentaire symétrique due principalement à des troubles hormonaux et à l'exposition au soleil. Pour évaluer la sévérité de cette pathologie et son évolution sous traitements, deux types de classification sont proposés. Le premier concerne une classification binaire entre tissu sain et tissu pathologique. Le second consiste à définir différents niveaux de sévérité pour les tissus pathologiques. La première classification s'inscrit dans le cadre de la classification dans des espaces de grande dimension. Un outil de réduction de dimension associé à un algorithme de classification par séparateurs à vaste marge a été développé. Cet outil est issu d'une comparaison des techniques de poursuite de projection et de séparation de sources, ainsi que des méthodes d'automatisation pour estimer la dimension de l'espace d'arrivée, et l'estimation des différents groupes de bandes spectrales dans le cas de la poursuite de projection. La seconde classification vise à mesurer un critère clinique de sévérité de l'hyperpigmentation. Ce critère clinique comprend trois composantes : surface, contraste et homogénéïté. La composante de surface découle de la classification entre tissus sains et tissus pathologiques. Une méthodologie d'estimation de combinaison de bandes spectrales tenant conjointement compte de la signature spectrale et de la cinétique de l'effet d'un traitement sur toute une étude clinique est proposée afin d'obtenir un critère de contraste. Pour obtenir un critère d'homogénéïté spatiale, une approche fondée sur l'analyse multi-échelles de champs gaussiens et issue de la méthodologie du "statistical parametric mapping" est employée entre deux dates d'acquisition.
123

Une stratégie pour l'interprétation en analyse spectrale. Détection et caractérisation des composantes d'un spectre.

Durnerin, Matthieu 21 September 1999 (has links) (PDF)
L'objectif de cette thèse est de proposer une démarche originale d'analyse spectrale de signaux stationnaires. L'originalité réside dans le concept de décision fondé, non pas sur le choix d'une méthode pour un signal analysé, mais sur une confrontation de méthodes. Cette confrontation a pour but d'estimer les structures spectrales du signal. Nous utilisons une interprétation itérative des spectres fondée sur les propriétés des méthodes d'analyse. Une étude théorique complète et approfondie de chaque méthode de Fourier retenue est présentée. Dans certains cas complexes, des techniques d'optimisation des paramètres par une procédure itérative sont développées. Les avantages et inconvénients de chaque méthode sont mis en évidence, ainsi que leur comparaison. Des critères d'interprétations ont été développés. D'un part des critères de pré-analyse cherchent à émettre des hypothèses sur la nature du signal et à émettre des alarmes : un test d'échantillonnage Shannon, deux mesures de la périodicité du signal et une détection de non-stationnarités. D'autre part, des critères d'interprétation des spectres ont pour but de caractériser chaque fréquence du spectre : une extraction de la ligne de fond du spectre, une détection de pics et un critère de validation de l'hypothèse fréquence pure. Enfin, une démarche générale d'analyse et d'interprétation spectrale a été mise au point. Cette démarche et les critères ont été validés sur les signaux réels de la base ASPECT. Les signaux ont été fournis par nos partenaires industriels, EDF et le Centre Technique des Systèmes Navals et issus des domaines vibratoire et acoustique.
124

Concepts et outils fractals pour l'analyse et la synthèse en imagerie couleur

Chauveau, Julien 11 February 2011 (has links) (PDF)
Les images naturelles sont des structures complexes. Leur modélisation est essentielle à de nombreuses tâches en traitement d'images, et des progrès restent encore à réaliser dans ce sens. Des propriétés d'autosimilarité en échelle ont été observées dans l'organisation spatiale des images naturelles. Au-delà de leur organisation spatiale, nous abordons ici leur organisation colorimétrique. Différents outils de caractérisation fractale sont identifiés et mis en oeuvre. L'application de ces outils sur les histogrammes tridimensionnels des images couleur nous permet de mettre en évidence, et de caractériser, des propriétés fractales dans leur organisation colorimétrique. Par ailleurs, nous abordons aussi, en synthèse d'images, de nouvelles applications des concepts fractals pour les images couleur, le contrôle de leurs propriétés et la génération automatique de motifs décoratifs. Des collaborations applicatives ont été développées durant la thèse en vue de valoriser ces travaux, notamment dans le cadre du dispositif de doctorant-conseil, et en direction de l'industrie du textile-habillement.
125

Conception conjointe optique/traitement pour un imageur compact à capacité 3D

Trouvé, Pauline 10 December 2012 (has links) (PDF)
Cette thèse traite de la conception d'un imageur monovoie passif capable de produire une carte de profondeur de la scène observée. Cet imageur est conçu en optimisant conjointement les paramètres de l'optique et des traitements, méthode désignée par le terme de co-conception ou de conception conjointe. La capacité 3D de cet imageur repose sur le concept de depth from defocus (DFD) qui consiste à estimer la profondeur à l'aide d'une estimation locale du flou de défocalisation. Ces travaux portent en premier lieu sur le développement d'un algorithme d'estimation locale de profondeur non supervisé et applicable à une famille étendue d'imageurs passifs monovoies. Puis deux concepts d'optique favorisant l'estimation de profondeur sont étudiés, du point de vue théorique et expérimental: l'utilisation d'une pupille codée ou d'une optique avec une aberration chromatique longitudinale non corrigée. La réalisation d'un imageur chromatique à capacité 3D est innovante et permet d'illustrer les avantages de cette solution en termes de précision et de région de l'espace où l'estimation de profondeur est possible. Un modèle de performance est ensuite proposé pour prédire la précision des imageurs utilisant la DFD en fonction des paramètres de l'optique, du capteur et des traitements. Ce modèle est utilisé pour la conception du premier imageur chromatique à capacité 3D co-conçu dont la réalisation a permis d'illustrer l'intérêt de la co-conception.
126

IDADIGE : Procédé de traitement des images de gels d'électrophorèse bidimensionnelle différentielle dans le contexte de la recherche de marqueurs protéiques.

Fabien, Bernard 26 September 2008 (has links) (PDF)
Le sujet de cette thèse s'inscrit dans le cadre du projet NODDICCAP initié par l'entreprise bioMérieux et visant le développement de Nouveaux Outils pour le Dépistage, le DIagnostic, l'évaluation du pronostic et le suivi du Cancer Colorectal par une Approche Protéomique. Le développement de ces nouveaux outils passe nécessairement par l'identification de marqueurs tumoraux discriminants et spécifiques du cancer colorectal. L'objectif de la thèse a été d'optimiser l'analyse des images et des données issues de la technologie DIGE (Differential In-Gel Electrophoresis), afin de permettre la découverte de marqueurs potentiels du cancer colorectal. Après avoir identifié les maillons faibles de la chaîne de traitement classique des images de gel d'électrophorèse 2D, nous avons été amenés à reconsidérer les approches utilisées et à rechercher des méthodes de traitement d'image et de données innovantes, ou bien existantes mais issues de domaines voisins. Le choix des méthodes a été guidé par l'évaluation de leur efficacité en comparaison aux méthodes classiquement employées, et également par les contraintes liées au contexte biologique et technologique. Les principales avancées issues de ce travail sont la définition du schéma expérimental, l'approche stratégique de l'analyse d'images ainsi que l'analyse statistique des données. En ce qui concerne le schéma expérimental, le choix d'une lignée cellulaire comme standard commun a permis un meilleur recoupement des données entre différentes expériences. L'analyse stratégique de l'analyse d'image a été améliorée grâce à l'utilisation d'un patron de détection unique. Ce patron unique a été réalisé à l'aide d'une méthode de fusion d'images originale permettant une juste représentativité de chacune des tâches protéiques de l'ensemble des images considérées. Enfin, les méthodes pour l'analyse statistique des données ont tenu compte de l'intensité des tâches protéiques grâce à une régulation de la variance lors de la comparaison des ratios. Par ailleurs, la spécification par le biologiste d'un profil de risque a permis, par exemple, de porter une plus grande attention aux protéines fortement exprimées. L'ensemble des méthodes mises en place depuis l'acquisition des images jusqu'à la découverte et la visualisation des marqueurs protéiques potentiels constitue le workflow IDADIGE (Image and Data Analysis for Differential In Gel Electrophoresis). Ce workflow exploite différents logiciels ainsi que plusieurs fonctions implémentées sous Matlab et regroupées sous le nom ProDIGE. L'exploitation par le laboratoire de protéomique de bioMérieux du workflow IDADIGE a été utilisée en routine et a permis la découverte de marqueurs protéiques du cancer colorectal qui doivent maintenant être validés biologiquement.
127

Saillance de la signalisation verticale dans les images routières : étude de la faisabilité d'un outil de diagnostic

Simon, Ludovic 07 December 2009 (has links) (PDF)
La signalisation routière a un rôle dans la sécurité et l'exploitation des infrastructures. Les panneaux de signalisation doivent être suffisamment saillants pour attirer l'attention du conducteur. Nous proposons dans le cadre de cette thèse, d'étudier la faisabilité d'un algorithme d'estimation automatique de la saillance de la signalisation verticale dans les images routières pour le diagnostic des réseaux routiers, via une caméra embarquée dans un véhicule.Notre paradigme est de s'appuyer sur les valeurs de confiance d'un algorithme d'apprentissage, nommé << Support Vector Machines >>, pour modéliser la saillance de recherche d'un objet défini : un (ensemble de) panneau(x) de police. Nous avons réalisé une étude statistique sur des données issues d'une expérimentation d'oculométrie cognitive. La corrélation du modèle avec les performances visuelles humaines en situation proche de la conduite prouve ses qualités afin de mesurer la saillance de la signalisation verticale.
128

Analyse et modélisation de l'utilisation de signaux GNSS en environnement marin

Tay, Sarab 06 February 2012 (has links) (PDF)
L'observation passive de la surface marine, utilisant notamment comme source d'opportunité des signaux émis par les systèmes de positionnement par satellites (GNSS), constitue depuis quelques années un axe de recherche et de développement très dynamique. Plusieurs équipes de recherche ont déjà mis en évidence la pertinence de telles approches pour des observations aéroportées. Le travail de cette thèse s'inscrit dans le cadre général de la mesure passive utilisant les signaux de positionnement par satellites (GPS). Toutefois, le contexte précis de notre étude se focalisera sur les observations côtières réalisées à proximité de la surface (quelques mètres). La surface de mer ne peut plus, dans ce cas, se résumer à une surface immobile rugueuse. La diffraction des signaux GPS doit alors prendre en compte la déformation spatio-temporelle de la surface et le déplacement des vagues. L'analyse de ces signaux permet de mettre en évidence la variation temporelle de la surface, en identifiant le déplacement des principaux diffuseurs (crête de vague, objet flottant à la surface,...). Les mouvements auxquels il est fait référence sont très lents (de l'ordre du Hz) par rapport aux fréquences des ondes observantes (ordre du GHz). L'amplitude des déplacements reste limitée, ce qui induit des différences de retard très faibles. Toutefois, dans ce contexte délicat, nous avons mis en oeuvre des techniques de traitement de signal adaptées, qui mettent en évidence ces mouvements à partir des signaux d'opportunité diffractés. L'étude s'appuie, en particulier, fortement sur la théorie du filtrage de Kalman dans le plan Doppler-retard des signaux diffractés.
129

Deformation-based morphometry of the brain for the development of surrogate markers in Alzheimer's disease

Lorenzi, Marco 20 December 2012 (has links) (PDF)
The aim of the present thesis is to provide an e ffective computational framework for the analysis and quantifi cation of the longitudinal structural changes in Alzheimer's disease (AD). The framework is based on the diffeomorphic non-rigid registration parameterized by stationary velocity fields (SVFs), and is hierachically developed to account for the diff erent levels of variability which characterize the longitudinal observations of T1 brain magnetic resonance images (MRIs). We developed an effi cient and robust method for the quantifi cation of the structural changes observed between pairs of MRIs. For this purpose, we propose the LCC-Demons registration framework which implements the local correlation coeffi cient as similarity metric, and we derived consistent and numerically stable measures of volume change and boundary shift for the regional assessment of the brain atrophy. In order to consistently analyze group-wise longitudinal evolutions, we then investigated the parallel transport of subject-specifi c deformation trajectories across di fferent anatomical references. Based on the SVF parametrization of diffeomorphisms, we relied on the Lie group theory to propose new and effective strategies for the parallel transport of SVFs, with particular interest into the practical application to the registration setting. These contributions are the basis for the defi nition of qualitative and quantitative analysis for the pathological evolution of AD. We proposed several analysis frameworks which addressed the di fferentiation of pathological evolutions between clinical populations, the statistically powered evaluation of regional volume changes, and the clinical diagnosis at the early/prodromal disease stages.
130

Contribution à l'analyse de connectivité effective en épilepsie

Yang, Chufeng 10 July 2012 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans la problématique de l'identification de la connectivité effective, et, de ce fait, de graphes de propagation, pour détecter et quantifier les relations entre structures cérébrales impliquées lors de l'initiation et de la diffusion de crises d'épilepsie. Définie comme la possibilité de connexion offerte par une entité à des entités voisines et/ou distantes, la connectivité se décline au niveau cérébral suivant trois modes : la connectivité anatomique ou structurelle fait référence aux liens physiques qui existent entre différentes régions anatomiques du cerveau, la connectivité fonctionnelle permet de caractériser l'activité en réseau du cerveau et la connectivité effective complète les notions de connectivités structurelle et fonctionnelle en introduisant le concept d'influence causale exercée par un système neuronal sur un autre, soit directement soit indirectement. Dans cette optique, différentes approches ont été envisagées afin d'apporter des éléments de réponse à deux questions essentielles, à savoir l'identification de liaisons unilatérales et/ou bilatérales entre structures et la mise en évidence de liens directs et/ou indirects. Après avoir recensé les principales techniques de la littérature, nous nous sommes intéressés à l'indice de causalité de Granger ainsi qu'à des extensions fréquentielles et/ou conditionnées, avant d'explorer un indice de pente de phase, l'idée sous-jacente étant l'estimation de retard. Un nouvel indice construit sur la cohérence dirigée partielle a été proposé permettant non seulement de détecter des flux réciproques mais également de discriminer relations directes et indirectes entre signaux. Dans un troisième temps, nous nous sommes orientés vers des techniques plus complexes non paramétriques (à des horizons de prédiction près) relevant de la théorie de l'information et plus spécifiquement vers l'entropie de transfert. De par la subordination et la sensibilité de cette technique au choix de paramètres de calibration comme l'ordre des modèles de Markov, nous avons proposé une optimisation de l'estimation de l'ordre de ces modèles à partir du critère d'information bayésien avant de considérer une mesure d'entropie de transfert conditionnelle dans un souci d'analyse multivariée. Les différentes approches proposées ont été évaluées et comparées sur des signaux simulés suivant des processus vectoriels autorégressifs linéaires et non linéaires ainsi que sur des modèles physiologiques réalistes avant d'être appliquées sur des signaux réels enregistrés sur un modèle animal (cochon d'inde). En simulation, les résultats obtenus permettent d'établir des graphes de propagation cohérents et conformes aux modèles et, dans le cas réel, d'apprécier les variations de cette connectivité au cours du temps.

Page generated in 0.1506 seconds