• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 8
  • 5
  • Tagged with
  • 42
  • 18
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes de détection des régions cancéreuses dans des images obtenues par tomographie calculée / Methods for detection of cancerous regions in images obtained by computed tomography

Pham, Minh Hoan 30 September 2015 (has links)
La Tomographie Calculée (CT) est une technique non-invasive permettant de fournir des images de toutes les parties du corps humain sans superposition des structures adjacentes. Cette technique se base sur l'absorption de rayon X et permet la reconstruction d'images du corps humain. Les mesures avec CT à rayons X sont soumises à de nombreuses imperfections ou d'artefacts d'images qui comportent : bruit quantique, diffusion des rayons X par le patient, et des effets non linéaires de volume. Le traitement d'image est un outil indispensable pour améliorer le contraste et extraire d'une manière automatique les régions d'intérêts. L'analyse des données d'images CT est une aide à la décision pour l'apparition d'un cancer en phase naissante. La segmentation automatique de la tomographie calculée (CT) est une étape importante pour la chirurgie assistée qui requière à la fois une grande précision et une interaction minimale de l'utilisateur. Les tentatives d'utilisations de la segmentation, comprenant le seuillage (global et optimal), le filtrage, la segmentation par région de type watershead, et l'approche basée sur les contours actifs, ne sont pas pleinement satisfaisantes. Dans cette thèse, nous nous intéressons aux techniques d'extraction automatique des régions représentant les zones cancéreuses dans des images obtenues par la CT. Un nouvel algorithme basé sur la programmation dynamique, est proposé pour l'ajustement automatique des paramètres des contours actifs. Dans notre nouvelle approche, nous utilisons l'entropie pour l'estimation des paramètres alpha et beta de l'énergie interne. Pour obtenir des images pour l'identification des régions malignes, qui soient de meilleure qualité en terme de contraste, nous avons utilisé la fusion d'images à partir de la Transformée en ondelettes. Toutes ces méthodes ont été implémentées sous forme de plugins dans le logiciel GIMP. / Computed Tomography (CT) is a non-invasive technique which provides images of the human body without superposing adjacent structures. This technique is based on the absorption of X-rays by the human body. Analysis from X-ray absorption is subject to a variety of imperfections and image artifacts including quantum noise, X-rays scattered by the patient (absorptive environment), beam hardening, and nonlinear volume effects. Image processing is a crucial tool for contrast enhancement and region analysis. Analysis of CT images is a decision-making tool for cancer formation at an incipient phase. Segmentation of computed tomography (CT) images is an important step in image-guided surgery that requires both high accuracy and minimal user interaction. Previous attempts include thresholding (global and optimal), region growing (region competition, watershed segmentation), edge tracing, and parametric active contour (AC) approaches for segmentation, are not fully satisfying. In this dissertation we have been interested in the CT image processing methods to detect and analyze cancerous regions in phase II and III. A new algorithm, which hinges on dynamic programming, has been proposed for automatically extracting region of interest using adapted active contours. In our new approach, Entropy is used to estimate the parameters alpha and beta of the active contour internal energy. In order to enhance the image quality in terms of contrast and to understand more the regions of interest, image fusion is used. Image fusion is a process of combining multiple images into a single image containing more relevant information. We use Wavelet Transform and a specific Fusion Rule to identify and select relevant information of the process. All these methods have been implemented as plugins in GIMP software.
2

Bases mixtes ondelettes-gaussiennes pour le calcul de structures électroniques / Galerkin method using optimized wavelet-Gaussian mixed bases for electronic structure calculations in quantum chemistry

Pham, Dinh Huong 30 June 2017 (has links)
Cette thèse apporte une contribution aux méthodes numériques pour la simulation moléculaire ab initio, et plus spécifiquement pour le calcul de structures électroniques par l’équation de Schrödinger, ou par des formalismes comme la théorie de Hartree-Fock ou la théorie de la fonctionnelle de la densité. Elle propose une stratégie pour construire des bases mixtes ondelettes-gaussiennes dans l’approximation de Galerkin, combinant les qualités respectives de ces deux types de bases avec l’objectif de mieux capturer les points de rebroussement de la fonction d’onde. Les nombreux logiciels actuellement disponibles à l’usage des chimistes dans ce domaine (VASP, Gaussian, ABINIT...) se différencient par divers choix méthodologiques, notamment celui des fonctions de base pour exprimer les orbitales atomiques. Nouvel arrivant sur le marché, le code massivement parallèle BigDFT a opté pour les bases d’ondelettes. Comme le nombre de niveaux de résolution y est limité pour des raisons de performance,ces fonctions ne peuvent déployer pleinement leur puissance. La question posée est alors de savoir comment accroître la précision des calculs tous électrons au voisinage des singularités de type cusp de la solution, sans augmenter excessivement la complexité de BigDFT. La réponse que nous suggérons consiste à enrichir la base de fonctions d’échelles (niveau de résolution bas des bases d’ondelettes) par des fonctions gaussiennes centrées sur chaque position de noyau. La difficulté principale dans la construction d’une telle base mixte réside dans la détermination optimale du nombre de gaussiennes requises et de leurs écarts-types, de sorte que ces gaussiennes supplémentaires soient le mieux possible compatibles avec la base existante sous la contrainte d’un seuil d’erreur donné à l’avance. Nous proposons pour cela l’utilisation conjointe d’un estimateur a posteriori sur la diminution du niveau d’énergie et d’un algorithme glouton, ce qui aboutit à une suite incrémentale quasi-optimale de gaussiennes supplémentaires. Cette idée est directement inspirée des techniques de bases réduites. Nous développons les fondements théoriques de cette stratégie sur deux modèles 1-D linéaires qui sont des simplifications de l’équation de Schrödinger pour un électron,posée en domaine infini ou domaine périodique. Ces modèles prototypes sont étudiés en profondeur dans la première partie. La définition de l’estimateur a posteriori de type norme duale du résidu, ainsi que la déclinaison de la philosophie glouton en différents algorithmes concrets, sont présentées en seconde partie, accompagnées de résultats numériques. Les algorithmes proposés vont dans le sens d’une économie croissante du temps de calcul.Ils sont aussi de plus en plus empiriques, au sens où ils reposent de plus en plus sur les intuitions avec lesquelles les chimistes sont familiers. En particulier, le dernier algorithme pour plusieurs noyaux s’appuie en partie sur la validité du transfert atome/molécule et rappelle dans une certaine mesure les bases d’orbitales atomiques. / This thesis aims to be a contribution to numerical methods for ab initio molecular simulation, and more specifically for electronic structure calculations by means of the Schrödingerequation or formalisms such as the Hartree-Fock theory or the Density Functional Theory. It puts forward a strategy to build mixed wavelet-Gaussian bases for the Galerkinapproximation, combining the respective advantages of these two types of bases in orderto better capture the cusps of the wave function.Numerous software programs are currently available to the chemists in this field (VASP,Gaussian, ABINIT... ) and differ from each other by various methodological choices,notably that of the basis functions used for expressing atomic orbitals. As a newcomer tothis market, the massively parallel BigDFT code has opted for a basis of wavelets. Dueto performance considerations, the number of multiresolution levels has been limited andtherefore users cannot benefit from the full potential of wavelets. The question is thus howto improve the accuracy of all-electron calculations in the neighborhood of the cusp-typesingularities of the solution, without excessively increasing the complexity of BigDFT.The answer we propose is to enrich the scaling function basis (low level of resolutionof the wavelet basis) by Gaussian functions centered on each nucleus position. The maindifficulty in constructing such a mixed basis lies in the optimal determination of the numberof Gaussians required and their standard deviations, so that these additional Gaussiansare compatible in the best possible way with the existing basis within the constraint of anerror threshold given in advance. We advocate the conjunction of an a posteriori estimateon the diminution of the energy level and a greedy algorithm, which results in a quasi-optimal incremental sequence of additional Gaussians. This idea is directly inspired bythe techniques of reduced bases.We develop the theoretical foundations of this strategy on two 1-D linear models thatare simplified versions of the Schrödinger equation for one electron in an infinite domainor a periodic domain. These prototype models are investigated in depth in the firstpart. The definition of the a posteriori estimate as a residual dual norm, as well as theimplementation of the greedy philosophy into various concrete algorithms, are presented inthe second part, along with extensive numerical results. These algorithms allow for moreand more saving of CPU time and become more and more empirical, in the sense thatthey rely more and more on the intuitions with which chemists are familiar. In particular,the last proposed algorithm partly assumes the validity of the atom/molecule transfer andis somehow reminiscent of atomic orbitals bases.
3

Analyse multifractale pratique : coefficients dominants et ordres critiques. Applications à la turbulence pleinement développée. Effets de nombre de Reynolds fini

Lashermes, Bruno 13 October 2005 (has links) (PDF)
La description multifractale des signaux a été initiée au cours des vingt dernières années, notamment dans le domaine de la turbulence pleinement développée. Les propriétés de régularité ponctuelle des signaux étudiés sont caractérisées à l'aide d'un spectre de singularités. L'analyse multifractale de ces signaux consiste à mesurer ce spectre de singularités, à l'aide de formalismes multifractals. L'apparition des transformées en ondelette, à la même époque, a permis d'affiner la pratique de l'analyse multifractale, sans pour autant toujours reposer sur des bases mathématiques solides. S. Jaffard a récemment introduit les coefficients dominants, qui permettent de construire un formalisme multifractal mathématiquement bien fondé, et au cadre d'application large : il rend possible la mesure de l'ensemble du spectre de singularités, et reste valide lorsque les signaux analysés contiennent des singularités oscillantes. Ce nouvel outil est pour la première fois mis en oeuvre, numériquement caractérisé et appliqué à des signaux de vitesse turbulente. La question du bon usage pratique des formalismes multifractals, qui reposent sur la mesure d'exposants de fonctions de structure, est essentielle. Le travail présenté se propose d'y apporter des éléments de réponse. Une étude numérique, sur un large panel de processus multifractals synthétiques, a permis d'illustrer et de caractériser un aspect essentiel de l'analyse multifractale pratique, l'existence d'un ordre critique. Un estimateur de cet ordre critique est construit et numériquement caractérisé. Une relecture des résultats obtenus en turbulence est alors effectuée. Enfin, la question de l'universalité des exposants des fonctions de structure en turbulence pleinement développée est abordée. Une modélisation de l'exposant de la fonction de structure d'ordre trois est proposée et comparée à des résultats expérimentaux, mettant en évidence le caractère non universel de sa valeur.
4

Méthodes numériques temps-échelle et temps-fréquence pour le traitement du signal et des images

Carré, Philippe 06 January 2000 (has links) (PDF)
Dans ce travail de thèse, nous étudions différentes méthodes d'analyse temps-échelle et temps-fréquence. Nous proposons d'adapter des algorithmes numériques existants ou de concevoir de nouvelles techniques permettant de projeter un signal ou une image dans un espace de représentation le plus adapté possible. Cette décomposition peut ensuite être utilisée dans des problèmes de débruitage, de segmentation, de compression, d'analyse ou de classification. Les différents thèmes abordées durant cette thèse se divisent en quatre principaux “ courants ” : • La décomposition en ondelettes non décimée. Nous reprenons les méthodes de débruitage non décimées pour les étendre à une méthode itérative. • Les maxima d'ondelettes. A partir de cette représentation nous proposons une méthode de débruitage d'images en utilisant l'évolution de l'angle des dérivées à travers les échelles. Ensuite, nous proposons un algorithme de partition de signaux reposant sur une nouvelle méthode de chaînage des maxima. • Les ondelettes de Malvar. Nous introduisons un algorithme rapide de décomposition en ondelettes de Malvar non-dyadique. Puis nous proposons une fonction de coût basée sur les distances spectrales dont la généralisation à la dimension 2 repose sur une décomposition anisotropique. • Les ondelettes de Meyer. Cette décomposition est réalisée par l'intermédiaire d'un fenêtrage dans le plan fréquentiel. Nous introduisons un algorithme de décompostion-reconstruction 1D et 2D en paquets d'ondelettes de Meyer discret. Puis nous définissons une décomposition en paquets d'ondelettes de Meyer non-uniforme. Enfin, en utilisant le principe des doubles arbres nous définissons une décomposition qui est à la fois non-uniforme dans le plan temporel et non-uniforme dans le plan fréquentiel. Chacune des méthodes développées est illustrée par différentes applications
5

Méthodologie de conception de composants virtuels comportementaux pour une chaîne de traitement du signal embarquée

Savaton, Guillaume 10 December 2002 (has links) (PDF)
Les futures générations de satellites d'observation de la Terre doivent concilier des besoins croissants en résolution, précision et qualité des images avec un coût élevé de stockage des données à bord et une bande passante limitée des canaux de transmission. Ces contraintes imposent de recourir à de nouvelles techniques de compression des images parmi lesquelles le standard JPEG2000 est un candidat prometteur. Face à la complexité croissante des applications et des technologies, et aux fortes contraintes d'intégration - faible encombrement, faible consommation, tolérance aux radiations, traitement des informations en temps réel - les outils et méthodologies de conception et de vérification classiques apparaissent inadaptés à la réalisation des systèmes embarqués dans des délais raisonnables. Les nouvelles approches envisagées reposent sur une élévation du niveau d'abstraction de la spécification d'un système et sur la réutilisation de composants matériels pré-définis et pré-vérifiés (composants virtuels , ou blocs IP pour Intellectual Property). Dans cette thèse, nous nous intéressons à la conception de composants matériels réutilisables pour des applications intégrant des fonctions de traitement du signal et de l'image. Notre travail a ainsi consisté à définir une méthodologie de conception de composants virtuels hautement flexibles décrits au niveau comportemental et orientés vers les outils de synthèse de haut niveau. Nous avons expérimenté notre méthodologie sur l'implantation sous forme d'un composant virtuel comportemental d'un algorithme de transformation en ondelettes bidimensionnelle pour la compression d'images au format JPEG2000.
6

Analyse de la variabilité interannuelle de séries temporelles des niveaux d'eau souterraine dans trois régions du Canada

Tremblay, Lysandre January 2009 (has links) (PDF)
Les liens entre le climat et la dynamique des aquifères canadiens sont encore mal connus. L'analyse des phénomènes climatiques à grande échelle, qui s'est avérée utile pour comprendre les causes des fluctuations interannuelles des débits en rivière, pourrait également expliquer en partie les cycles observés dans les chroniques de niveaux piézométriques. Ce mémoire a pour objectif d'étudier les causes de la variabilité de ces chroniques. Les analyses en ondelettes et de corrélation sont appliquées sur des chroniques piézométriques, de précipitations et de températures dans trois régions du Canada. Des liens de cause à effet sont recherchés avec quatre indices climatiques: l'Oscillation Nord-Atlantique (ONA), l'Oscillation Arctique (OA), l'indice Pacifique-Amérique du Nord (PAN) et l'anomalie de température au-dessus de la zone Niño-3 (ENSO3). Dans une optique de développement durable, l'étude vise à mieux comprendre le système hydrométéorologique dans son ensemble permettant éventuellement une meilleure gestion de la ressource en eau. Les trois zones choisies sont situées à l'est, au centre et à l'ouest du Canada, pour tenter de représenter des conditions climatiques et géographiques très différentes, soit: l'Ile-du-Prince-Édouard, le sud du Manitoba près de Winnipeg et l'extrême sud de l'Île de Vancouver en Colombie-Britannique. Chacune de ces régions compte trois puits de surveillance qui possèdent des séries de niveaux d'eau d'au moins 32 ans. Sept des neuf unités aquifères étudiées sont à nappe libre. Ces unités sont granulaires pour les sites à l'Île-du-Prince-Édouard, au Manitoba et en Colombie-Britannique. Les chroniques de 32 ans (1974-2005) permettent de décrire les fluctuations interannuelles de périodes de six années ou moins. Les analyses en ondelettes sont donc présentées sous forme de moyenne de périodicité pour des bandes temporelles spécifiques de 2-3 ans et de 3-6 ans. Les résultats révèlent des liens entre certains indices climatiques et les niveaux piézométriques, et par extension avec la recharge, dans chacune des régions ciblées. Dans les trois régions, des corrélations significatives sont observées entre les indices climatiques et les séries piézométriques, surtout pour la bande 3-6 ans. Plus spécifiquement, pour l'Île-du-Prince-Édouard, l'indice ENSO3 est l'anomalie climatique correspondant le mieux à la variable hydrogéologique et ce, dans les deux bandes de variabilité. Dans les prairies, des interactions fortes sont présentes pour les deux bandes de variabilité avec l'indice PAN. À l'Île de Vancouver, les plus fortes relations concernent les indices PAN et l'indice ENSO3 pour la bande de 3-6 ans ainsi que l'ONA pour la bande 2-3 ans. De façon surprenante dans la plupart des cas, les corrélations observées entre les indices climatiques et les séries piézométriques s'avèrent plus fortes que celles obtenues avec les températures et les précipitations, ce qui pourrait provenir du fait que les séries piézométriques sont influencées par une combinaison de variables climatiques. Ces résultats montrent que la variabilité interannuelle des chroniques piézométriques canadiennes peut être expliquée en partie par les phénomènes climatiques à grande échelle. Ils ouvrent la voie à l'intégration de séries d'indices climatiques dans les calculs de prévision des niveaux d'eau souterraine, améliorant ainsi la capacité de gestion de la ressource en eau souterraine. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Niveaux piézométriques, Précipitations, Températures, Indices climatiques, Analyse en ondelettes, Variabilité interannuelle, Canada.
7

Mouvement et vidéo : estimation, compression et filtrage morphologique

Laveau, Nicolas 12 December 2005 (has links) (PDF)
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
8

Multiresolution pour la Visualisation Scientifique

Bonneau, Georges-Pierre 26 June 2000 (has links) (PDF)
Les travaux de recherche dont ce mémoire est l'objet sont dédiés à la visualisation à différents niveaux de détail de données scientifiques. Les données scientifiques abordées sont de deux types. Les premières sont définies sur des grilles tridimensionnelles uniformes; le domaine d'application correspondant étant alors la visualisation de données d'origines médicales provenant de coupes tomographiques ou de scanners IRM. Les secondes sont définies sur des réseaux triangulaires irréguliers, planaires ou sphériques; les domaines d'applications correspondants étant entre autres la visualisation de données topographiques (terrain visualization), ou encore de données provenant de calculs par éléments finis.
9

Modélisation des structures locales de covariance des erreurs de prévision à l'aide des ondelettes

Pannekoucke, Olivier 20 March 2008 (has links) (PDF)
La représentation des variations spatio-temporelles des fonctions de covariance d'erreur d'ébauche reste un problème majeur dans les algorithmes d'assimilation. Dans cette thèse le diagnostic des variations géographiques des corrélations locales est introduit via le diagnostic de la portée locale. L'estimation de cette portée ainsi que les propriétés de l'estimation sont étudiés en détail. Ce travail utilise des ondelettes sphériques, suivant la formulation introduite par Mike Fisher (ECMWF), pour modéliser les fonctions de corrélation locale "du jour". Il est montré que cette formulation moyenne spatialement les corrélations locales, permettant de réduire le bruit d'échantillonnage. D'autre part, cette formulation ondelette fournit une estimation robuste même pour un petit ensemble. Elle est aussi capable de capturer la dynamique spatio-temporelle des corrélations, ceci est illustré à l'aide de la dynamique des portées locales du jour.
10

Asservissement visuel direct utilisant les décompositions en shearlets et en ondelettes de l'image / Direct visual servoingusing shearlet and wavelet transforms of the image

Duflot, Lesley-Ann 13 July 2018 (has links)
L'asservissement visuel est un procédé consistant à utiliser l'information visuelle obtenue par un capteur afin de commander un système robotique. Ces informations, appelées primitives visuelles peuvent être d'ordre 2D ou 3D. Le travail présenté ici porte sur une nouvelle approche 2D utilisant des primitives directes : les décompositions de l'image en ondelettes ou en shearlets. Ces représentations présentent en effet l'avantage de décrire l'image sous différentes formes, mettant l'accent soit sur les basses fréquences de l'image, soit sur les hautes fréquences selon plusieurs directions. Les zones de l'image contenant beaucoup d'information, comme les contours ou les points singuliers, possèdent alors de forts coefficients dans la transformée en ondelettes ou en shearlets de l'image, tandis que les zones uniformes possèdent des coefficients proches de zéro. Les travaux de cette thèse montrent la précision et la robustesse de l'approche utilisant la décomposition en shearlets dans le cadre de l'imagerie échographique. Néanmoins, sa contribution majeure est l'élaboration d'une commande permettant d'utiliser au choix les ondelettes ou les shearlets ainsi que la validation de cette méthode sur caméra monoculaire et sur capteur de type tomographie par cohérence optique dans différentes conditions d'utilisation. Cette méthode présente des performances significatives en termes de précision et de robustesse et ouvre la porte vers une utilisation couplée de l'asservissement visuel et de l'acquisition comprimée. / A visual servoing scheme consists of a closed-loop control approach which uses visual information feedback to control the movement of a robotic system. This data, called visual features, can be 2D or 3D. This thesis deals with the development of a new generation of 2D direct visual servoing methods in which the signal control inputs are the coefficients of a multiscale image representation. Specially, we consider the use of multiscale image representations that are based on discrete wavelet and shearlet transformations. This kind of representations allows us to obtain several descriptions of the image based on either low or high frequencies levels. Indeed, high coefficients in the wavelet or in the shearlet transformation of the image correspond to image singularities. This thesis has begun with the development of a shearlet-based visual servoing for ultrasound imaging that has performed well in precision and robustness for this medical application. Nevertheless, the main contribution is a framework allowing us to use several multi-scale representations of the image. It was then tested with conventional white light camera and with an optical coherence tomography imaging system with nominal and unfavorable conditions. Then, the wavelet and the shearlet based methods showed their accuracy and their robustness in several conditions and led to the use of both visual servoing and compressed sensing as the main perspective of this work.

Page generated in 0.069 seconds