• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Vers une méthode de restauration aveugle d’images hyperspectrales / Towards a blind restoration method of hyperspectral images

Zhang, Mo 06 December 2018 (has links)
Nous proposons dans cette thèse de développer une méthode de restauration aveugle d'images flouées et bruitées où aucune connaissance a priori n'est exigée. Ce manuscrit est composé de trois chapitres : le 1er chapitre est consacré aux travaux de l'état de l'art. Les approches d'optimisation pour la résolution du problème de restauration y sont d'abord discutées. Ensuite les principales méthodes de restauration, dites semi-aveugles car nécessitant un minimum de connaissance a priori sont analysées. Parmi ces méthodes, cinq sont retenues pour évaluation. Le 2ème chapitre est dédié à la comparaison des performances des méthodes retenues dans le chapitre précédent. Les principaux critères objectifs d'évaluation de la qualité des images restaurées sont présentés. Parmi ces critères, la norme L1 de l'erreur d'estimation est sélectionnée. L'étude comparative menée sur une banque d'images monochromes, dégradées artificiellement par deux fonctions floues de supports différents et trois niveaux de bruit a permis de mettre en évidence les deux méthodes les plus pertinentes. La première repose sur une approche alternée mono-échelle où la PSF et l'image sont estimées dans une seule étape. La seconde utilise une approche hybride multi-échelle qui consiste tout d'abord à estimer de manière alternée la PSF et une image latente, puis dans une étape suivante séquentielle, à restaurer l'image. Dans l'étude comparative conduite, l'avantage revient à cette dernière. Les performances de ces méthodes serviront de référence pour comparer ensuite la méthode développée. Le 3ème chapitre porte sur la méthode développée. Nous avons cherché à rendre aveugle l'approche hybride retenue dans le chapitre précédent tout en améliorant la qualité d'estimation de la PSF et de l'image restaurée. Les contributions ont porté sur plusieurs points. Une première série d'améliorations concerne la redéfinition des échelles, celle de l'initialisation de l'image latente à chaque niveau d'échelle, l'évolution des paramètres pour la sélection des contours pertinents servant de support à l'estimation de la PSF et enfin, la définition d'un critère d'arrêt aveugle. Une seconde série de contributions a porté sur l'estimation aveugle des deux paramètres de régularisation impliqués pour éviter d'avoir à les fixer empiriquement. Chaque paramètre est associé à une fonction coût distincte l'une pour l'estimation de la PSF et la seconde pour l'estimation d'une image latente. Dans l'étape séquentielle qui suit, nous avons cherché à affiner le support de la PSF estimée dans l'étape alternée, avant de l'exploiter dans le processus de restauration de l'image. A ce niveau, la seule connaissance a priori nécessaire est une borne supérieure du support de la PSF. Les différentes évaluations conduites sur des images monochromes et hyperspectrales dégradées artificiellement par plusieurs flous de type mouvement, de supports différents, montrent une nette amélioration de la qualité de restauration obtenue par l'approche développée par rapport aux deux meilleures approches de l'état de l'art retenues. / We propose in this thesis manuscript to develop a blind restoration method of single component blurred and noisy images where no prior knowledge is required. This manuscript is composed of three chapters: the first chapter focuses on state-of-art works. The optimization approaches for resolving the restoration problem are discussed first. Then, the main methods of restoration, so-called semi-blind ones because requiring a minimum of a priori knowledge are analysed. Five of these methods are selected for evaluation. The second chapter is devoted to comparing the performance of the methods selected in the previous chapter. The main objective criteria for evaluating the quality of the restored images are presented. Of these criteria, the l1 norm for the estimation error is selected. The comparative study conducted on a database of monochromatic images, artificially degraded by two blurred functions with different support size and three levels of noise, revealed the most two relevant methods. The first one is based on a single-scale alternating approach where both the PSF and the image are estimated alternatively. The second one uses a multi-scale hybrid approach, which consists first of alternatingly estimating the PSF and a latent image, then in a sequential next step, restoring the image. In the comparative study performed, the benefit goes to the latter. The performance of both these methods will be used as references to then compare the newly designed method. The third chapter deals with the developed method. We have sought to make the hybrid approach retained in the previous chapter as blind as possible while improving the quality of estimation of both the PSF and the restored image. The contributions covers a number of points. A first series concerns the redefinition of the scales that of the initialization of the latent image at each scale level, the evolution of the parameters for the selection of the relevant contours supporting the estimation of the PSF and finally the definition of a blind stop criterion. A second series of contributions concentrates on the blind estimation of the two regularization parameters involved in order to avoid having to fix them empirically. Each parameter is associated with a separate cost function either for the PSF estimation or for the estimation of a latent image. In the sequential step that follows, we refine the estimation of the support of the PSF estimated in the previous alternated step, before exploiting it in the process of restoring the image. At this level, the only a priori knowledge necessary is a higher bound of the support of the PSF. The different evaluations performed on monochromatic and hyperspectral images artificially degraded by several motion-type blurs with different support sizes, show a clear improvement in the quality of restoration obtained by the newly designed method in comparison to the best two state-of-the-art methods retained.
142

Partial differential equations methods and regularization techniques for image inpainting / Restauration d'images par des méthodes d'équations aux dérivées partielles et des techniques de régularisation

Theljani, Anis 30 November 2015 (has links)
Cette thèse concerne le problème de désocclusion d'images, au moyen des équations aux dérivées partielles. Dans la première partie de la thèse, la désocclusion est modélisée par un problème de Cauchy qui consiste à déterminer une solution d'une équation aux dérivées partielles avec des données aux bords accessibles seulement sur une partie du bord de la partie à recouvrir. Ensuite, on a utilisé des algorithmes de minimisation issus de la théorie des jeux, pour résoudre ce problème de Cauchy. La deuxième partie de la thèse est consacrée au choix des paramètres de régularisation pour des EDP d'ordre deux et d'ordre quatre. L'approche développée consiste à construire une famille de problèmes d'optimisation bien posés où les paramètres sont choisis comme étant une fonction variable en espace. Ceci permet de prendre en compte les différents détails, à différents échelles dans l'image. L'apport de la méthode est de résoudre de façon satisfaisante et objective, le choix du paramètre de régularisation en se basant sur des indicateurs d'erreur et donc le caractère à posteriori de la méthode (i.e. indépendant de la solution exacte, en générale inconnue). En outre, elle fait appel à des techniques classiques d'adaptation de maillage, qui rendent peu coûteuses les calculs numériques. En plus, un des aspects attractif de cette méthode, en traitement d'images est la récupération et la détection de contours et de structures fines. / Image inpainting refers to the process of restoring a damaged image with missing information. Different mathematical approaches were suggested to deal with this problem. In particular, partial differential diffusion equations are extensively used. The underlying idea of PDE-based approaches is to fill-in damaged regions with available information from their surroundings. The first purpose of this Thesis is to treat the case where this information is not available in a part of the boundary of the damaged region. We formulate the inpainting problem as a nonlinear boundary inverse problem for incomplete images. Then, we give a Nash-game formulation of this Cauchy problem and we present different numerical which show the efficiency of the proposed approach as an inpainting method.Typically, inpainting is an ill-posed inverse problem for it most of PDEs approaches are obtained from minimization of regularized energies, in the context of Tikhonov regularization. The second part of the thesis is devoted to the choice of regularization parameters in second-and fourth-order energy-based models with the aim of obtaining as far as possible fine features of the initial image, e.g., (corners, edges, … ) in the inpainted region. We introduce a family of regularized functionals with regularization parameters to be selected locally, adaptively and in a posteriori way allowing to change locally the initial model. We also draw connections between the proposed method and the Mumford-Shah functional. An important feature of the proposed method is that the investigated PDEs are easy to discretize and the overall adaptive approach is easy to implement numerically.
143

Statistical modeling of protein sequences beyond structural prediction : high dimensional inference with correlated data / Modélisation statistique des séquences de protéines au-delà de la prédiction structurelle : inférence en haute dimension avec des données corrélées

Coucke, Alice 10 October 2016 (has links)
Grâce aux progrès des techniques de séquençage, les bases de données génomiques ont connu une croissance exponentielle depuis la fin des années 1990. Un grand nombre d'outils statistiques ont été développés à l'interface entre bioinformatique, apprentissage automatique et physique statistique, dans le but d'extraire de l'information de ce déluge de données. Plusieurs approches de physique statistique ont été récemment introduites dans le contexte précis de la modélisation de séquences de protéines, dont l'analyse en couplages directs. Cette méthode d'inférence statistique globale fondée sur le principe d'entropie maximale, s'est récemment montrée d'une efficacité redoutable pour prédire la structure tridimensionnelle de protéines, à partir de considérations purement statistiques.Dans cette thèse, nous présentons les méthodes d'inférence en question, et encouragés par leur succès, explorons d'autres domaines complexes dans lesquels elles pourraient être appliquées, comme la détection d'homologies. Contrairement à la prédiction des contacts entre résidus qui se limite à une information topologique sur le réseau d'interactions, ces nouveaux champs d'application exigent des considérations énergétiques globales et donc un modèle plus quantitatif et détaillé. À travers une étude approfondie sur des donnéesartificielles et biologiques, nous proposons une meilleure interpretation des paramètres centraux de ces méthodes d'inférence, jusqu'ici mal compris, notamment dans le cas d'un échantillonnage limité. Enfin, nous présentons une nouvelle procédure plus précise d'inférence de modèles génératifs, qui mène à des avancées importantes pour des données réelles en quantité limitée. / Over the last decades, genomic databases have grown exponentially in size thanks to the constant progress of modern DNA sequencing. A large variety of statistical tools have been developed, at the interface between bioinformatics, machine learning, and statistical physics, to extract information from these ever increasing datasets. In the specific context of protein sequence data, several approaches have been recently introduced by statistical physicists, such as direct-coupling analysis, a global statistical inference method based on the maximum-entropy principle, that has proven to be extremely effective in predicting the three-dimensional structure of proteins from purely statistical considerations.In this dissertation, we review the relevant inference methods and, encouraged by their success, discuss their extension to other challenging fields, such as sequence folding prediction and homology detection. Contrary to residue-residue contact prediction, which relies on an intrinsically topological information about the network of interactions, these fields require global energetic considerations and therefore a more quantitative and detailed model. Through an extensive study on both artificial and biological data, we provide a better interpretation of the central inferred parameters, up to now poorly understood, especially in the limited sampling regime. Finally, we present a new and more precise procedure for the inference of generative models, which leads to further improvements on real, finitely sampled data.
144

Dynamique cérébrale en neuroimagerie fonctionnelle

Ciuciu, Philippe 10 July 2008 (has links) (PDF)
Mes travaux portent sur l'analyse de la dynamique cérébrale à partir de données de neuro-imagerie fonctionnelle issues d'examens d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ils concernent aussi bien l'étude de la dynamique évoquée par un paradigme d'activation cérébrale et celle issue de l'activité spontanée ou de « fond » lorsque le sujet est au repos (resting state). Les algorithmes que j'ai développés s'appuient pour une large partie sur une connaissance explicite du paradigme expérimental mis au point par l'expérimentateur mais aussi prennent place dans une moindre part au sein des méthodes exploratoires, qui n'exploitant pas ces informations issues du paradigme.<br /><br />Ce thème de recherche embrasse à la fois des problèmes bas niveau relatifs à la reconstruction d'images en IRM mais aussi des aspects plus haut niveau qui concernent l'estimation et la sélection de modèles hémodynamiques régionaux non-paramétriques, capables de prendre en compte la variabilité inter-individuelle de la réponse impulsionnelle du système neuro-vasculaire. Les problèmes de reconstruction sont traités à l'aide de méthodes classiques de régularisation dans l'espace image ou des méthodes plus évoluées opérant dans l'espace transformé des coefficients d'ondelette. Les aspects inférentiels haut niveau sont majoritairement abordés dans le cadre des statistiques bayésiennes.
145

Calcul des corrections radiatives à la diffusion compton virtuelle. Mesure absolue de l'énergie du faisceau d'électrons de Jefferson Lab. (Hall A) par une méthode magnétique : projet ARC

Marchand, Dominique 17 April 1998 (has links) (PDF)
Cette thèse, articulée en deux parties, présente le calcul des corrections radiatives à la diffusion Compton virtuelle (VCS) et décrit la méthode magnétique (projet ARC) adoptée dans le Hall A à Jefferson Lab. pour mesurer l'énergie absolue du faisceau d'électrons avec une précision de 10-4.<br /><br />Les expériences de diffusion Compton virtuelle nous permettent d'accéder à de nouvelles observables du proton : les polarisabilités généralisées. L'extraction de ces polarisabilités s'effectuant par comparaison des sections efficaces expérimentale et théorique, il est indispensable de contrôler avec une grande précision les erreurs systématiques et les effets radiatifs liés à l'expérience. Un calcul complet des corrections radiatives internes a donc été mené dans le cadre de l'électrodynamique quantique. Ce calcul inédit tient compte de tous les graphes contribuant à l'ordre alpha^4 au niveau de la section efficace à l'exception de ceux mettant en jeu l'échange de deux photons entre les bras leptonique et hadronique ainsi que ceux relatifs au rayonnement du proton. La méthode de régularisation dimensionnelle a été employée pour le traitement des divergences ultraviolettes et infrarouges. Après utilisation d'une procédure d'addition-soustraction, la compensation infrarouge est vérifiée. Nous avons privilégié le calcul analytique pour les intégrales les plus internes et avons eu ensuite recours à un traitement numérique spécifique. Les résultats présentés correspondent aux différentes cinématiques de l'expérience VCS qui s'est déroulée à TJNAF en 1998. <br /><br />La méthode de mesure absolue d'énergie que nous avons développée s'appuie sur la déviation magnétique, constituée de huit dipôles identiques, conduisant le faisceau de l'accélérateur au hall A expérimental. L'énergie est déterminée à partir de la mesure absolue de l'angle de déviation du faisceau dans le plan horizontal et de la mesure absolue de l'intégrale de champ magnétique le long de la déviation magnétique. La mesure de l'angle de déviation se décompose en une mesure ponctuelle d'un angle de référence (par une méthode optique d'autocollimation) et en une mesure « en ligne » des déviations angulaires du faisceau par rapport à cet angle de référence (utilisation de quatre profileurs à fil : une paire en amont et une paire en aval de l'arc). L'intégrale de champ absolue le long de la déviation résulte, elle, de la mesure ponctuelle de la somme des intégrales de champ relatives des huit dipôles de l'arc par rapport à un aimant de référence et de la mesure « en ligne » de l'intégrale de champ de cet aimant de référence alimenté en série avec les huit autres de l'arc.
146

PERFORMANCES STATISTIQUES D'ALGORITHMES D'APPRENTISSAGE : ``KERNEL PROJECTION<br /> MACHINE'' ET ANALYSE EN COMPOSANTES PRINCIPALES A NOYAU.

Zwald, Laurent 23 November 2005 (has links) (PDF)
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte<br />des contributions à la communauté du machine learning en utilisant des<br />techniques de statistiques modernes basées sur des avancées dans l'étude<br />des processus empiriques. Dans une première partie, les propriétés statistiques de<br />l'analyse en composantes principales à noyau (KPCA) sont explorées. Le<br />comportement de l'erreur de reconstruction est étudié avec un point de vue<br />non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de<br />Gram sont données. Tous ces résultats impliquent des vitesses de<br />convergence rapides. Des propriétés <br />non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également<br />proposées. Dans une deuxième partie, un nouvel <br />algorithme de classification a été<br />conçu : la Kernel Projection Machine (KPM). <br />Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de<br />réduction de la dimension telle que la KPCA régularise <br />convenablement. Le choix de l'espace vectoriel utilisé par la KPM est guidé par des études statistiques de sélection de modéle par minimisation pénalisée de la perte empirique. Ce<br />principe de régularisation est étroitement relié à la projection fini-dimensionnelle étudiée dans les travaux statistiques de <br />Birgé et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème abordé dans cette thèse soulève de nouvelles questions d'ordre théorique et pratique.
147

Méthodes de Traitement d'Image Appliquées au Problème Inverse en Magnéto-Electro-Encéphalographie

Adde, Geoffray January 2005 (has links) (PDF)
Ce travail de Thèse traite des problèmes directs et inverses de la magnétoencéphalographie (MEG) et de l'électroencéphalographie (EEG). Trois thématiques y sont abordées. Le problème direct est traité à l'aide des méthodes d'éléments frontière. Une nouvelle formulation, dite formulation symétrique, est proposée. Cette nouvelle formulation est ensuite appliquée au problème de la tomographie par impédance électrique pour lequel deux algorithmes d'estimation de conductivité sont proposés. Le problème inverse est traité dans le cadre des méthodes image. Des techniques de régularisation d'image par processus de diffusion sont transposées au problème inverse pour contraindre la reconstruction de sources distribuées. Plusieurs algorithmes sont proposés dont un calculant la solution inverse de variation totale minimale.
148

Estimation et analyse de champs denses de vitesses d'écoulements fluides

Corpetti, Thomas 09 July 2002 (has links) (PDF)
Cette étude a pour cadre l'analyse de mouvements fluides dans des séquences d'images et s'articule autour de deux axes. Nous traitons en premier lieu le problème de l'estimation du mouvement. Dans un contexte d'imagerie fluide, la luminance des images fait parfois apparaître de fortes distorsions spatiales et temporelles, rendant délicate l'utilisation de techniques standard issues de la Vision par Ordinateur, originalement conçues pour des mouvements rigides et reposant sur une hypothèse d'invariance de la fonction de luminance. Nous proposons un estimateur de mouvement modélisé au moyen d'une formulation énergétique et spécialement dédié à l'estimation du mouvement fluide. La fonctionnelle considérée est composée d'un terme d'attache aux données original issu de l'équation de continuité de la mécanique des fluides. Ce nouveau modèle de données, spécifié pour être aisément intégré dans un schéma multirésolution, est associé à une régularisation de type ``div-curl''. Les performances de cet estimateur sont expérimentalement démontrées sur des images synthétiques et réelles météorologiques. Une validation de la méthode sur un écoulement expérimental représentant une ``couche de mélange'' est par ailleurs présentée. L'intérêt de l'étude est en second lieu porté sur l'analyse d'un champ de déplacement préalablement estimé, relatif à un mouvement fluide. Nous proposons une méthode visant à extraire les vortex et puits/sources de l'écoulement en s'appuyant sur le modèle de Rankine. Ce problème est essentiel dans de nombreuses applications comme par exemple la détection d'importants événements météorologiques (dépressions, cellules convectives, ...) ou la caractérisation d'écoulements expérimentaux. La connaissance de telles structures autorise par ailleurs une représentation paramétrique de l'écoulement. La méthode que nous proposons s'appuie sur une représentation analytique du champ des vitesses e permet d'extraire d'autres informations pertinentes relatives à l'écoulement (fonctions de potentiels, décomposition selon Helmholtz de l'écoulement, points singuliers, ...). L'approche présentée sera expérimentalement étudiée sur des écoulement représentant divers phénomènes physiques.
149

Géométrie différentielle des fibrés vectoriels et algèbres de Clifford appliquées au traitement d'images multicanaux

Batard, Thomas 07 December 2009 (has links) (PDF)
Le sujet de cette thèse est l'apport d'applications du formalisme des algèbres de Clifford au traitement d'images multicanaux. Nous y introduisons également l'utilisation du cadre des fibrés vectoriels en traitement d'image. La Partie 1 est consacrée à la segmentation d'images multicanaux. Nous généralisons l'approche de Di Zenzo pour la détection de contours en construisant des tenseurs métriques adaptés au choix de la segmentation. En utilisant le cadre des fibrés en algèbres de Clifford, nous montrons que le choix d'une segmentation d'une image est directement lié au choix d'une métrique, d'une connexion et d'une section sur un tel fibré. La Partie 2 est consacrée à la régularisation. Nous utilisons le cadre des équations de la chaleur associées à des Laplaciens généralisés sur des fibrés vectoriels. Le résultat principal que nous obtenons est qu'en considérant l'équation de la chaleur associée à l'opérateur de Hodge sur le fibré de Clifford d'une variété Riemannienne bien choisie, nous obtenons un cadre global pour régulariser de manière anisotrope des images (vidéos) multicanaux, et des champs s'y rapportant tels des champs de vecteurs ou des champs de repères orthonormés. Enfin, dans la Partie 3, nous nous intéressons à l'analyse spectrale via la définition d'une transformée de Fourier d'une image multicanaux. Cette définition repose sur une théorie abstraite de la transformée de Fourier basée sur la notion de représentation de groupe. De ce point de vue, la transformée de Fourier usuelle pour les images en niveau de gris est basée sur les représentations irréductibles du groupe des translations du plan. Nous l'étendons aux images multicanaux en lui associant les représentations réductibles de ce groupe.
150

Améliorer la compréhension du cortex visuel à l'aide de techniques de classification

Michel, Vincent 15 December 2010 (has links) (PDF)
Dans ce mémoire, nous présentons différentes méthodes d'apprentissage statistique qui peuvent être utilisées pour comprendre le code neuronal des fonctions cognitives, en se basant sur des données d'Imagerie par Résonance Magnétique fonctionnelle du cerveau. Plus particulièrement, nous nous intéressons à l'´etude de la localisation spatiale des entités impliquées dans le codage, et leur influence respective dans le processus cognitif. Dans cette étude, nous nous focalisons principalement sur l'étude du cortex visuel. Dans la première partie de ce mémoire, nous introduisons les notions d'architecture fonctionnelle cérébrale, de codage neuronal et d'imagerie fonctionnelle. Nous étudions ensuite les limites de l'approche classique d'analyse des données d'IRMf pour l'étude du codage neuronal, et les différents avantages apportées par une méthode d'analyse récente, l'inférence inverse. Enfin, nous détaillons les méthodes d'apprentissage statistique utilisées dans le cadre de l'inférence inverse, et nous les évaluons sur un jeu de données réelles. Cette étude permet de mettre en évidence certaines limitations des approches classiquement utilisées, que cette thèse vise à résoudre. En particulier, nous nous intéressons à l'intégration de l'information sur la structure spatiale des données, au sein d'approches d'apprentissage statistique. Dans la seconde partie de ce mémoire, nous décrivons les trois principales contributions de cette thèse. Tout d'abord, nous introduisons une approche Bayésienne pour la régularisation parcimonieuse, qui généralise au sein d'un même modèle plusieurs approches de références en régularisation Bayésienne. Ensuite nous proposons un algorithme de coalescence supervisé (supervised clustering) qui tient compte de l 'information spatiale contenue dans les images fonctionnelles. Les cartes de poids résultantes sont facilement interprétables, et cette approche semble être bien adaptée au cas de l'inférence entre sujets. La dernière contribution de cette thèse vise à inclure l'information spatiale au sein d'un modèle de régularisation. Cette régularisation peut alors être utilisée dans un cadre de régression et de classification, et permet d'extraire des ensembles connexes de voxels prédictifs. Cette approche est particulièrement bien adaptée à l'étude de la localisation spatiale du codage neuronal, abordée durant cette thèse.

Page generated in 0.4358 seconds