• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Analyse de texture multiéchelle par transformée par ondelettes des images RSO: application aux images ERS-1 de la forêt tropicale /

Simard, Marc, January 1998 (has links)
Thèse (Ph. D.) -- Université Laval, 1998. / Bibliogr.: f. 128-135. Publié aussi en version électronique.
52

Système avancé d'interpolation spatiale de signaux de télévision pour affichage sur écrans Haute-Définition / Advanced system for spatial and temporal interpolation of HD television signals for a super-resolution LCD display

Van Reeth, Eric 10 May 2011 (has links)
L'arrivée massive d'écrans LCD dits de haute-définition sur le marché, entraîne un besoin acru d'algorithmes d'augmentation de résolution pour l'affichage d'images ou de vidéos dont la résolution est inférieure à celle de l'écran. Nous proposons un schéma novateur d'interpolation d'images, basée sur une analyse multirésolution de la direction des contours. Le but de cette approche est de corriger les artefacts classiques d'interpolation qui apparaissent lorsque des méthodes habituelles sont utilisées (bilinéaire, bicubique), tout en évitant l'apparition des artefacts engendrés par la plupart des méthodes d'interpolation directionnelle. Notre estimation d'orientation de contours, basée sur une division de l'image originale en quadtree et une étude fréquentielle des contours est comparée à deux méthodes faisant référence dans l'état de l'art (transformée de Radon et algorithme de projection utilisé pour la création des bandelettes). Cette comparaison permet d'étudier les comportements de chaque méthode en vue d'une application à des images naturelles. Par la suite, l'interpolation en elle-même est introduite. Elle est basée sur l'utilisation d'un noyau d'interpolation isotrope (cubic-spline), qui est corrigée grâce à un filtrage Gaussien localement orienté dans la direction des contours. Les régions ne contenant pas de contour sont préservées grâce à la création d'un masque construit à partir de filtres de Gabor. Enfin, les résultats de notre interpolation sont comparés à des méthodes d'interpolation directionnelle récentes, afin d'illustrer les bonnes performances de notre algorithme sur des images naturelles de natures variées. / The recent success of high definition screens has increased the need of interpolation algorithms, to display images or videos which resolution is smaller than the screen resolution. We propose a new image interpolation process, based on a multiresolution edge orientation analysis. The goal of this technique is to correct usual artifacts that appear on edges when classical interpolation methods are used (bilinear, bicubic), without introducing new artifacts that are often produced by directional interpolations. Our orientation estimation, based on a quadtree division and a multiresolution approach is evaluated and compared to two other state-of-the-art methods (Radon transform, and the projection method used in the Bandlet transform algorithm), to study its advantages in the context of an application to natural images. Then, we introduce our interpolation technique, based on an isotropic reference interpolation (cubic-spline) that is corrected by a two-dimension Gaussian filter, locally oriented in the direction of the edge. Edge-free regions are preserved with a Gabor mask that is built to protect pixels which do not need any correction. Finally, our results are compared to recent state-of-the-art directional interpolations to illustrate the good performance of our algorithm on various contents of natural images.
53

Simulation électromagnétique utilisant une méthode modale de décomposition en ondelettes / Electromagnetic modeling using modal method and wavelet expansion

Armeanu, Ana 17 June 2011 (has links)
La scattéromètrie requiert le calcul de la réponse optique de structures périodiques. Parmi les méthodes numériques de calcul électromagnétique de la diffraction par des réseaux, la méthode la plus couramment utilisée est la Méthode Modale de Fourier (FMM). Celle cis'avère peu efficace pour la caractérisation de structures très isolées ou très denses et peut même ne pas marcher du tout. L'objectif de cette thèse est de dépasser les limitations de la FMM. Nous restons dans le cadre des méthodes modales mais nous explorons de nouvelles voies en utilisant des bases de développement différentes qui ne présentent pas les inconvénients des bases de Fourier. Tout d'abord, nous avons introduit les fonctions B-spline qui sont le premier pas vers l'analyse multi-résolution avec les ondelettes splines. Nous avons formulé le problème de la diffraction par un réseau 1D comme un problème aux valeurs propres que nous avons résolu numériquement à l'aide de la méthode de Galerkin. Nous avons étudié en détail l'importance de la discrétisation par rapport aux discontinuités de la fonction permittivité. Ensuite, nous avons introduit les ondelettes et l'analyse à plusieurs niveaux de détails pour le problème de diffraction. La thèse contient une palette variée d'exemples numériques concernant des réseaux diélectriques et métalliques. Nous avons comparé soigneusement la convergence de nos méthodes avec celle d?autres méthodes, notamment avec la FMM. Nous avons montré que l'analyse multirésolution permet de traiter des cas pour lesquels la FMM échoue. / The scatterometry requires calculating the optical response of periodic structures. Among the numerical methods for calculating electromagnetic diffraction by gratings, the most commonly used is the Fourier Modal Method (FMM). This seems to be ineffective for characterizing structures very isolated or very dense and can even fail. The objective of this thesis is to overcome the limitations of the FMM. We remain within the framework of modal methods but we are exploring new ways of using different bases of development that do not have the drawbacks of Fourier bases. First, we introduced the B-spline functions which are the first step towards multi-resolution analysis with wavelet splines. We formulated the problem of diffraction by a 1D grating as an eigenvalue problem that we solved numerically using the Galerkin method. We studied in detail the importance of the discretization compared to the discontinuities of permittivity function. Then we introduced the wavelet analysis at multiple levels of detail for the diffraction problem. The thesis contains a diversity of numerical examples concerning dielectric and metal gratings. We have carefully compared the convergence of our methods with that of other methods, especially with the FMM. We showed that multiresolution analysis can deal with cases where the FMM fails.
54

Modification de l'algorithme de la transformée en ondelettes discrète pour l'obtention d'une représentation invariante sous rotation

Gretillat, Jean-David 11 April 2018 (has links)
On présente un algorithme qui permet d'obtenir une représentation multirésolution pour des images qui soit invariante sous rotation. Cette représentation est obtenue en effectuant d'abord un échantillonnage polaire, puis en appliquant une version modifiée de l'algorithme rapide de la transformée en ondelettes à deux dimensions. La représentation est redondante dans la direction angulaire et orthogonale dans la direction radiale. Un algorithme permettant de passer de la représentation à l'image de départ est aussi présenté. On inclut un exemple de traitement d'une image. La représentation de trois orientations de cette image est comparée avec deux représentations non-invariantes sous rotations qui proviennent respectivement de l'application de la transformée en ondelettes avec et sans l'étape préalable d'échantillonnage polaire. Il a été montré que la représentation est bien invariante sous rotation pour toutes les rotations de l'image utilisée, que la reconstruction est exacte et que les coefficients de la représentation proviennent de la transformée en ondelettes des différentes orientations de l'image.
55

Contribution à l'analyse et à la recherche d'information en texte intégral : application de la transformée en ondelettes pour la recherche et l'analyse de textes

Smail, Nabila 27 January 2009 (has links) (PDF)
L'objet des systèmes de recherche d'informations est de faciliter l'accès à un ensemble de documents, afin de permettre à l'utilisateur de retrouver ceux qui sont pertinents, c'est-à-dire ceux dont le contenu correspond le mieux à son besoin en information. La qualité des résultats de la recherche se mesure en comparant les réponses du système avec les réponses idéales que l'utilisateur espère recevoir. Plus les réponses du système correspondent à celles que l'utilisateur espère, plus le système est jugé performant. Les premiers systèmes permettaient d'effectuer des recherches booléennes, c'est à dire, des recherches ou seule la présence ou l'absence d'un terme de la requête dans un texte permet de le sélectionner. Il a fallu attendre la fin des années 60, pour que l'on applique le modèle vectoriel aux problématiques de la recherche d'information. Dans ces deux modèles, seule la présence, l'absence, ou la fréquence des mots dans le texte est porteuse d'information. D'autres systèmes de recherche d'information adoptent cette approche dans la modélisation des données textuelles et dans le calcul de la similarité entre documents ou par rapport à une requête. SMART (System for the Mechanical Analysis and Retrieval of Text) [4] est l'un des premiers systèmes de recherche à avoir adopté cette approche. Plusieurs améliorations des systèmes de recherche d'information utilisent les relations sémantiques qui existent entre les termes dans un document. LSI (Latent Semantic Indexing) [5], par exemple réalise ceci à travers des méthodes d'analyse qui mesurent la cooccurrence entre deux termes dans un même contexte, tandis que Hearst et Morris [6] utilisent des thésaurus en ligne pour créer des liens sémantiques entre les termes dans un processus de chaines lexicales. Dans ces travaux nous développons un nouveau système de recherche qui permet de représenter les données textuelles par des signaux. Cette nouvelle forme de représentation nous permettra par la suite d'appliquer de nombreux outils mathématiques de la théorie du signal, tel que les Transformées en ondelettes et jusqu'a aujourd'hui inconnue dans le domaine de la recherche d'information textuelle
56

Analyse d'images par transformées en ondelettes. Application aux images sismiques

Bournay Bouchereau, Emmanuelle 26 March 1997 (has links) (PDF)
L'analyse de données sismiques pour l'étude du sous-sol est un travail long et difficile qui demande beaucoup de connaissances a priori au géophysicien qui l'effectue. L'outil informatique permet d'accélérer ce travail par une mise en valeur des zones d'intérêt, formées de continuités (horizons) et discontinuites (failles, domes de sel ...). L'analyse par ondelettes est particulièrement adaptée à l'étude des continuités et discontinuités et permet, à l'aide d'ondelettes directionnelles, de détecter des fractures, problème extrêmement difficile. Nous présentons dans ce travail un exposé succint de la théorie des ondelettes suivi des différents algorithmes de la transformée en ondelettes ainsi que les problèmes de représentation d'une telle transformée. Nous introduisons la notion d'ondelette directionnelle, sensible aux discontinuités dans une direction donnée et étudions quelques-unes de ses propriétés. Divers applications aux images sismiques sont exposées. Une méthode de filtrage basée sur l'algorithme à trous pour l'amélioration du pointe d'horizons est présentée. L'utilisation de la transformée en ondelettes directionnelles aboutit, entre autres, à la détection de failles. Ceci peut être améliorer par l'utilisation d'un filtrage préalable adapté et la représentation angle-espace-échelle.
57

Estimation non paramétrique et problèmes inverses

Willer, Thomas 08 December 2006 (has links) (PDF)
On se place dans le cadre de<br />l'estimation non paramétrique pour les problèmes inverses, où une<br />fonction inconnue subit une transformation par un opérateur<br />linéaire mal posé, et où l'on en observe une version bruitée par<br />une erreur aléatoire additive. Dans ce type de problèmes, les<br />méthodes d'ondelettes sont très utiles, et ont été largement<br />étudiées. Les méthodes développées dans cette thèse s'en<br />inspirent, mais consistent à s'écarter des bases d'ondelettes<br />"classiques", ce qui permet d'ouvrir de nouvelles perspectives<br />théoriques et pratiques. Dans l'essentiel de la thèse, on utilise<br />un modèle de type bruit blanc. On construit des estimateurs<br />utilisant des bases qui d'une part sont adaptées à l'opérateur, et<br />d'autre part possèdent des propriétés analogues à celles des<br />ondelettes. On en étudie les propriétés minimax dans un cadre<br />large, et l'on implémente ces méthodes afin d'en étudier leurs<br />performances pratiques. Dans une dernière partie, on utilise un<br />modèle de regression en design aléatoire, et on étudie les<br />performances numériques d'un estimateur reposant sur la<br />déformation des bases d'ondelettes.
58

Restauration de signaux bruités observés sur des plans d'expérience aléatoires

Maxim, Voichita 03 October 2003 (has links) (PDF)
Cette thèse porte sur la restauration des signaux bruités observés sur des plans d'expérience aléatoires. Trois méthodes sont proposées. Dans les deux premières, on se ramène (soit par préconditionnement des données initiales, soit par régression polynomiale locale), à un problème de régression sur grille régulière. Des majorations asymptotiques de l'erreur d'estimation sont données pour les deux méthodes, sur des classes de fonctions holderiennes pour la première et sur des boules d'espaces de Besov pour la deuxième. La vitesse de décroissance de l'erreur est dans les deux cas très proche de la vitesse optimale. Un troisième algorithme concerne les plans d'expérience déterministes et utilise les ondelettes adaptées à la grille. Elles sont construites par des schémas de subdivision non réguliers, dont on étudie la convergence et les propriétés. Des nombreuses simulations et une étude comparative illustrent le comportement des trois algorithmes quand ils sont appliqués à des échantillons de taille finie.
59

Segmentation d'images de transmission pour la correction de l'atténué en tomographie d'émission par positrons

Nguiffo Podie, Yves January 2009 (has links)
L'atténuation des photons est un phénomène qui affecte directement et de façon profonde la qualité et l'information quantitative obtenue d'une image en Tomographie d'Emission par Positrons (TEP). De sévères artefacts compliquant l'interprétation visuelle ainsi que de profondes erreurs d'exactitudes sont présents lors de l'évaluation quantitative des images TEP, biaisant la vérification de la corrélation entre les concentrations réelles et mesurées.L' atténuation est due aux effets photoélectrique et Compton pour l'image de transmission (30 keV - 140 keV), et majoritairement à l'effet Compton pour l'image d'émission (511 keV). La communauté en médecine nucléaire adhère largement au fait que la correction d'atténuation constitue une étape cruciale pour l'obtention d'images sans artefacts et quantitativement exactes. Pour corriger les images d'émission TEP pour l'atténué, l'approche proposée consiste concrètement à segmenter une image de transmission à l'aide d'algorithmes de segmentation: K-means (KM), Fuzzy C-means (FCM), Espérance-Maximisation (EM), et EM après une transformation en ondelettes (OEM). KM est un algorithme non supervisé qui partitionne les pixels de l'image en agrégats tels que chaque agrégat de la partition soit défini par ses objets et son centroïde. FCM est un algorithme de classification non-supervisée qui introduit la notion d'ensemble flou dans la définition des agrégats, et chaque pixel de l'image appartient à chaque agrégat avec un certain degré, et tous les agrégats sont caractérisés par leur centre de gravité.L'algorithme EM est une méthode d'estimation permettant de déterminer les paramètres du maximum de vraisemblance d'un mélange de distributions avec comme paramètres du modèle à estimer la moyenne, la covariance et le poids du mélange correspondant à chaque agrégat. Les ondelettes forment un outil pour la décomposition du signal en une suite de signaux dits d'approximation de résolution décroissante suivi d'une suite de rectifications appelées détails.L' image à laquelle a été appliquée les ondelettes est segmentée par EM. La correction d'atténuation nécessite la conversion des intensités des images de transmission segmentées en coefficients d'atténuation à 511 keV. Des facteurs de correction d' atténuation (FCA) pour chaque ligne de réponse sont alors obtenus, lesquels représentent le rapport entre les photons émis et transmis. Ensuite il s'agit de multiplier le sinogramme, formé par l'ensemble des lignes de réponses, des FCA par le sinogramme de l'image d'émission pour avoir le sinogramme corrigé pour l'atténuation, qui est par la suite reconstruit pour générer l'image d'émission TEP corrigée. Nous avons démontré l'utilité de nos méthodes proposées dans la segmentation d'images médicales en les appliquant à la segmentation des images du cerveau, du thorax et de l'abdomen humains. Des quatre processus de segmentation, la décomposition par les ondelettes de Haar suivie de l'Espérance-Maximisation (OEM) semble donner un meilleur résultat en termes de contraste et de résolution. Les segmentations nous ont permis une réduction claire de la propagation du bruit des images de transmission dans les images d'émission, permettant une amélioration de la détection des lésions, et améliorant les diagnostics en médecine nucléaire.
60

Représentations Temps-Fréquence et Temps-Echelle Bilinéaires: Synthèse et Contributions

Gonçalves, Paulo 26 November 1993 (has links) (PDF)
Cette thèse est consacrée à l'étude des distributions énergétiques temps-fréquence et temps-échelle, qui sont deux types de représentations conjointes bilinéaires de signaux. Bien que leurs vocations respectives diffèrent, on montre dans une première partie qu'il est possible d'unifier le cadre de leur étude en les présentant comme des représentations unitaires dans un espace de Hilbert, de groupes algébriques munis de règes opératorielles particulières. Ainsi, la classe de Cohen, représentation unitaire du groupe de Weyl-Heisenberg, est attachée à des propriétés naturelles de covariance par translation en temps et en fréquence. Les distributions temps-échelle de la classe affine étant, quant à elles, des représentations du groupe affine, sont précisément les distributions covariantes par translation en temps et changement d'échelle. Ce faisant, il est ensuite possible d'élargir le champ des distributions covariantes par un couple spécifique d'opérateurs en faisant usage d'équivalences unitaires entre classe de représentations. Un autre aspect de ces représentations bilinéaires, qui est abordé dans la deuxième partie de la thèse, est lié aux formes quadratiques qui les sous-tendent. Celles-ci sont notamment responsables de l'existence d'interférences obéissant à des règles de construction géométriques en lien avec la nature des opérateurs mis en jeu. Ces règles de construction sont formalisées dans le cas de certaines distributions affines localisées, et les prédictions théoriques sont confrontées à des résultats de simulation. Enfin dans une dernière partie, nous abordons certaines situations pour lesquelles les caractérisations temps-échelle sont d'un recours avantageux face aux analyses temps-fréquence. Parmi les problématiques soulevées (qui incluent la tolérance à l'effet Doppler et l'estimation spectrale de bruits en « 1/f »), l'estimation de singularités du type hölderienne occupe une place importante dans la mesure où ces dernières développent une structuration en loi d'échelle que les représentations affines permettent de révéler.

Page generated in 0.0746 seconds