• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Généricité et prévalence des propriétés multifractales de traces de fonctions

Maman, Delphine 24 October 2013 (has links) (PDF)
L'analyse multifractale est l'étude des propriétés locales des ensembles de mesures ou de fonctions. Son importance est apparue dans le cadre de la turbulence pleinement développée. Dans ce cadre, l'expérimentateur n'a pas accès à la vitesse en tout point d'un fluide mais il peut mesurer sa valeur en un point en fonction du temps. On ne mesure donc pas directement la fonction vitesse du fluide, mais sa trace. Cette thèse sera essentiellement consacrée à l'étude du comportement local de traces de fonctions d'espaces de Besov : nous déterminerons la dimension de Hausdorff des ensembles de points ayant un exposant de Hölder donné (spectre multifractal). Afin de caractériser facilement l'exposant de Hölder et l'appartenance à un espace de Besov, on utilisera la décomposition de fonctions sur les bases d'ondelettes.Nous n'obtiendrons pas la valeur du spectre de la trace de toute fonction d'un espace de Besov mais sa valeur pour un ensemble générique de fonctions. On fera alors appel à deux notions de généricité différentes : la prévalence et la généricité au sens de Baire. Ces notions ne coïncident pas toujours, mais, ici on obtiendra les mêmes résultats. Dans la dernière partie, afin de déterminer la forme que peut prend un spectre multifractal, on construira une fonction qui est son propre spectre
132

Modélisation et rendu temps-réel de milieux participants à l'aide du GPU / Modeling and real-time rendering of participating media using the GPU

Giroud, Anthony 18 December 2012 (has links)
Cette thèse traite de la modélisation, l'illumination et le rendu temps-réel de milieux participants à l'aide du GPU. Dans une première partie, nous commençons par développer une méthode de rendu de nappes de brouillard hétérogènes pour des scènes en extérieur. Le brouillard est modélisé horizontalement dans une base 2D de fonctions de Haar ou de fonctions B-Spline linéaires ou quadratiques, dont les coefficients peuvent être chargés depuis une textit{fogmap}, soit une carte de densité en niveaux de gris. Afin de donner au brouillard son épaisseur verticale, celui-ci est doté d'un coefficient d'atténuation en fonction de l'altitude, utilisé pour paramétrer la rapidité avec laquelle la densité diminue avec la distance au milieu selon l'axe Y. Afin de préparer le rendu temps-réel, nous appliquons une transformée en ondelettes sur la carte de densité du brouillard, afin d'en extraire une approximation grossière (base de fonctions B-Spline) et une série de couches de détails (bases d'ondelettes B-Spline), classés par fréquence.%Les détails sont ainsi classés selon leur fréquence et, additionnées, permettent de retrouver la carte de densité d'origine. Chacune de ces bases de fonctions 2D s'apparente à une grille de coefficients. Lors du rendu sur GPU, chacune de ces grilles est traversée pas à pas, case par case, depuis l'observateur jusqu'à la plus proche surface solide. Grâce à notre séparation des différentes fréquences de détails lors des pré-calculs, nous pouvons optimiser le rendu en ne visualisant que les détails les plus contributifs visuellement en avortant notre parcours de grille à une distance variable selon la fréquence. Nous présentons ensuite d'autres travaux concernant ce même type de brouillard : l'utilisation de la transformée en ondelettes pour représenter sa densité via une grille non-uniforme, la génération automatique de cartes de densité et son animation à base de fractales, et enfin un début d'illumination temps-réel du brouillard en simple diffusion. Dans une seconde partie, nous nous intéressons à la modélisation, l'illumination en simple diffusion et au rendu temps-réel de fumée (sans simulation physique) sur GPU. Notre méthode s'inspire des Light Propagation Volumes (volume de propagation de lumière), une technique à l'origine uniquement destinée à la propagation de la lumière indirecte de manière complètement diffuse, après un premier rebond sur la géométrie. Nous l'adaptons pour l'éclairage direct, et l'illumination des surfaces et milieux participants en simple diffusion. Le milieu est fourni sous forme d'un ensemble de bases radiales (blobs), puis est transformé en un ensemble de voxels, ainsi que les surfaces solides, de manière à disposer d'une représentation commune. Par analogie aux LPV, nous introduisons un Occlusion Propagation Volume, dont nous nous servons, pour calculer l'intégrale de la densité optique entre chaque source et chaque autre cellule contenant soit un voxel du milieu, soit un voxel issu d'une surface. Cette étape est intégrée à la boucle de rendu, ce qui permet d'animer le milieu participant ainsi que les sources de lumière sans contrainte particulière. Nous simulons tous types d'ombres : dues au milieu ou aux surfaces, projetées sur le milieu ou les surfaces / This thesis deals with modeling, illuminating and rendering participating media in real-time using graphics hardware. In a first part, we begin by developing a method to render heterogeneous layers of fog for outdoor scenes. The medium is modeled horizontally using a 2D Haar or linear/quadratic B-Spline function basis, whose coefficients can be loaded from a fogmap, i.e. a grayscale density image. In order to give to the fog its vertical thickness, it is provided with a coefficient parameterizing the extinction of the density when the altitude to the fog increases. To prepare the rendering step, we apply a wavelet transform on the fog's density map, and extract a coarse approximation and a series of layers of details (B-Spline wavelet bases).These details are ordered according to their frequency and, when summed back together, can reconstitute the original density map. Each of these 2D function basis can be viewed as a grid of coefficients. At the rendering step on the GPU, each of these grids is traversed step by step, cell by cell, since the viewer's position to the nearest solid surface. Thanks to our separation of the different frequencies of details at the precomputations step, we can optimize the rendering by only visualizing details that contribute most to the final image and abort our grid traversal at a distance depending on the grid's frequency. We then present other works dealing with the same type of fog: the use of the wavelet transform to represent the fog's density in a non-uniform grid, the automatic generation of density maps and their animation based on Julia fractals, and finally a beginning of single-scattering illumination of the fog, where we are able to simulate shadows by the medium and the geometry. In a second time, we deal with modeling, illuminating and rendering full 3D single-scattering sampled media such as smoke (without physical simulation) on the GPU. Our method is inspired by light propagation volumes, a technique whose only purpose was, at the beginning, to propagate fully diffuse indirect lighting. We adapt it to direct lighting, and the illumination of both surfaces and participating media. The medium is provided under the form of a set of radial bases (blobs), and is then transformed into a set of voxels, together with solid surfaces, so that both entities can be manipulated more easily under a common form. By analogy to the LPV, we introduce an occlusion propagation volume, which we use to compute the integral of the optical density, between each source and each other cell containing a voxel either generated from the medium, or from a surface. This step is integrated into the rendering process, which allows to animate participating media and light sources without any further constraint
133

Prévision non paramétrique de processus à valeurs fonctionnelles : application à la consommation d’électricité / Non parametric forecasting of functional-valued processes : application to the electricity load

Cugliari, Jairo 24 October 2011 (has links)
Nous traitons dans cette thèse le problème de la prédiction d’un processus stochastique à valeurs fonctionnelles. Nous commençons par étudier le modèle proposé par Antoniadis et al. (2006) dans le cadre d’une application pratique -la demande d’énergie électrique en France- où l’hypothèse de stationnarité semble ne pas se vérifier. L’écart du cadre stationnaire est double: d’une part, le niveau moyen de la série semble changer dans le temps, d’autre part il existe groupes dans les données qui peuvent être vus comme des classes de stationnarité.Nous explorons corrections qui améliorent la performance de prédiction. Les corrections visent à prendre en compte la présence de ces caractéristiques non stationnaires. En particulier, pour traiter l’existence de groupes, nous avons contraint le modèle de prévision à n’utiliser que les données qui appartiennent au même groupe que celui de la dernière observation disponible. Si le regroupement est connu, un simple post-traitement suffit pour obtenir des meilleures performances de prédiction.Si le regroupement en blocs est inconnu, nous proposons de découvrir le regroupement en utilisant des algorithmes d’analyse de classification non supervisée. La dimension infinie des trajectoires, pas nécessairement stationnaires, doit être prise en compte par l’algorithme. Nous proposons deux stratégies pour ce faire, toutes les deux basées sur les transformées en ondelettes. La première se base dans l’extraction d’attributs associés à la transformée en ondelettes discrète. L’extraction est suivie par une sélection des caractéristiques le plus significatives pour l’algorithme de classification. La seconde stratégie classifie directement les trajectoires à l’aide d’une mesure de dissimilarité sur les spectres en ondelettes. La troisième partie de la thèse est consacrée à explorer un modèle de prédiction alternatif qui intègre de l’information exogène. A cet effet, nous utilisons le cadre des processus Autorégressifs Hilbertiens. Nous proposons une nouvelle classe de processus que nous appelons processus Conditionnels Autorégressifs Hilbertiens (CARH). Nous développons l’équivalent des estimateurs par projection et par résolvant pour prédire de tels processus. / This thesis addresses the problem of predicting a functional valued stochastic process. We first explore the model proposed by Antoniadis et al. (2006) in the context of a practical application -the french electrical power demand- where the hypothesis of stationarity may fail. The departure from stationarity is twofold: an evolving mean level and the existence of groupsthat may be seen as classes of stationarity.We explore some corrections that enhance the prediction performance. The corrections aim to take into account the presence of these nonstationary features. In particular, to handle the existence of groups, we constraint the model to use only the data that belongs to the same group of the last available data. If one knows the grouping, a simple post-treatment suffices to obtain better prediction performances.If the grouping is unknown, we propose it from data using clustering analysis. The infinite dimension of the not necessarily stationary trajectories have to be taken into account by the clustering algorithm. We propose two strategies for this, both based on wavelet transforms. The first one uses a feature extraction approach through the Discrete Wavelet Transform combined with a feature selection algorithm to select the significant features to be used in a classical clustering algorithm. The second approach clusters directly the functions by means of a dissimilarity measure of the Continuous Wavelet spectra.The third part of thesis is dedicated to explore an alternative prediction model that incorporates exogenous information. For this purpose we use the framework given by the Autoregressive Hilbertian processes. We propose a new class of processes that we call Conditional Autoregressive Hilbertian (carh) and develop the equivalent of projection and resolvent classes of estimators to predict such processes.
134

Caractérisation de texture par analyse en ondelettes complexes pour la segmentation d’image : applications en télédétection et en écologie forestière / Textures characterization based on complex wavelet transform for image segmentation : applications on remote sensing images and forest ecology

Kennel, Pol 08 November 2013 (has links)
L'analyse des images numériques, bien que largement étudiée, reste encore aujourd'hui un réel défi. Avec pour objectifs la description pertinente et la reconnaissance sémantique du contenu de celles-ci, de nombreuses applications requièrent une attention particulière quant à cette analyse. Pour répondre à ces besoins, l'analyse du contenu des images est réalisée de façon automatique grâce à des méthodes informatiques se rapprochant par exemple des mathématiques, des statistiques, de la physique. Une façon pertinente et reconnue de représenter les objets observés dans les images réside dans leur segmentation. Couplée à la classification, la segmentation permet une ségrégation sémantique de ces objets. Cependant, les méthodes existantes ne peuvent être considérées comme génériques, et bien que motivées par de nombreux domaines (militaire, médical, satellite, etc.), celles-ci sont continuellement réévaluées, adaptées et améliorées. Par exemple, les images satellites se démarquent dans le milieu de l'image de par leur spécificité d'acquisition, de par leur support ou de par le sujet d'observation (la Terre dans notre cas).Cette thèse à pour but d'explorer les méthodes de caractérisation et de segmentation supervisées exploitant la notion de texture. Les sols observés depuis l'espace, à des échelles et des résolutions différentes, peuvent être perçus comme texturés. Les cartes d'occupation des sols peuvent être obtenues par la segmentation d'images satellites, notamment en utilisant l'information texturale. Nous proposons le développement d'algorithmes de segmentation compétitifs caractérisant la texture par l'utilisation de représentations multi-échelles des images obtenues par décomposition en ondelettes et de classificateurs supervisés tels que les Support Vector Machines. Dans cette optique, cette thèse est principalement articulée autour de plusieurs projets de recherche nécessitant une étude des images à des échelles et des résolutions différentes, ces images étant elles-mêmes de nature variée (e.g. multi-spectrales, optiques, LiDAR). Nous dériverons, pour ces différents cas d'étude, certains aspects de la méthodologie développée. / The analysis of digital images, albeit widely researched, continues to present a real challenge today. In the case of several applications which aim to produce an appropriate description and semantic recognition of image content, particular attention is required to be given to image analysis. In response to such requirements, image content analysis is carried out automatically with the help of computational methods that tend towards the domains of mathematics, statistics and physics. The use of image segmentation methods is a relevant and recognized way to represent objects observed in images. Coupled with classification, segmentation allows a semantic segregation of these objects. However, existing methods cannot be considered to be generic, and despite having been inspired by various domains (military, medical, satellite etc), they are continuously subject to reevaluation, adaptation or improvement. For example satellite images stand out in the image domain in terms of the specificity of their mode of acquisition, their format, or the object of observation (the Earth, in this case).The aim of the present thesis is to explore, by exploiting the notion of texture, methods of digital image characterization and supervised segmentation. Land, observed from space at different scales and resolutions, could be perceived as being textured. Land-use maps could be obtained through the segmentation of satellite images, in particular through the use of textural information. We propose to develop competitive algorithms of segmentation to characterize texture, using multi-scale representations of images obtained by wavelet decomposition and supervised classifiers such as Support Vector Machines.Given this context, the present thesis is principally articulated around various research projects which require the study of images at different scales and resolutions, and which are varying in nature (eg. multi-spectral, optic, LiDAR). Certain aspects of the methodology developed are applied to the different case studies undertaken.
135

Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité / Response surface methods based on analysis of variance expansion for sensitivity analysis

Touzani, Samir 20 April 2011 (has links)
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées. / The purpose of this thesis is to investigate innovative response surface methods to address the problem of sensitivity analysis of complex and computationally demanding computer codes. To this end, we have focused our research work on methods based on ANOVA decomposition. We proposed to use a smoothing spline nonparametric regression method, which is an ANOVA based method that is performed using an iterative algorithm, combining an estimation procedure and a variable selection procedure. The latter can become computationally demanding when dealing with high dimensional problems. To deal with this, we developed a new iterative shrinkage algorithm, which is conceptually simple and efficient. Using the fact that this method is an ANOVA based method, it allows us to introduce a new method for computing sensitivity indices. Inspiring by this response surface method, we developed a new method to approximate the model for which the response involves more complex outputs. This method is based on a multiresolution analysis with wavelet decompositions, which is well known to produce very good approximations on highly nonlinear or discontinuous models. Finally we considered the problem of approximating the computer code when the outputs are times series. We proposed an original method for performing this task, combining the smoothing spline response surface method and wavelet decomposition. To assess the efficiency of the developed methods, numerical experiments on analytical functions and reservoir engineering test cases are presented.
136

Identification et caractérisation du thrombus veineux par imagerie échographique mode B couplée à l’élastographie / Venous thrombus identification and characterization using ultrasonography and elastography

Berthomier, Thibaud 13 November 2018 (has links)
La maladie veineuse thromboembolique (MVTE) est un problème de santé publique (plus de 100000 cas par an en France). Elle regroupe deux entités cliniques : la thrombose veineuse profonde (TVP) des membres inférieurs et l’embolie pulmonaire (EP). La TVP correspond à la formation inadaptée d’un thrombus veineux (appelé aussi caillot sanguin) dans les veines profondes (poplitées, fémorales, iliaques). Un thrombus est principalement constitué de globules rouges et de plaquettes dans un réseau de fibrine. La complication majeure d’une TVP est la survenue d’une EP, c’est-à-dire que le thrombus s’est détaché de la paroi veineuse, ou s’est fragmenté, et est entraîné par la circulation sanguine jusqu’à une artère pulmonaire. Cette complication a un taux de mortalité assez élevée autour de 10000 à 20000 cas mortels par an en France. La survenue d’une TVP est multifactorielle associant des facteurs génétiques et acquis pouvant être répartis en trois catégories : la stase veineuse, l’altération de la paroi d’une veine et une hypercoagulabilité. En analysant la structure du thrombus, notre projet vise à identifier le facteur principal responsable de la TVP et à évaluer le risque d’EP. Pour caractériser sa structure, nous disposons de deux modes d’imagerie acoustique : l’échographie et l’élastographie (carte de dureté). Nous proposons d’extraire des descripteurs de ces images acoustiques par deux approches, l’une basée sur les ondelettes (le scattering operator) et l’autre sur les statistiques d’ordre supérieur (les multicorrélations). Ces descripteurs sont ensuite analysées par diverses techniques de classification (analyse en composantes principales, k-moyennes, classification spectrale) pour retrouver la cause principale des TVP ou la présence d’EP. / Venous thromboembolism (VTE) is an important public health issue (over 100000 individuals in France per year). VTE is a combination of a deep venous thrombosis (DVT) and a pulmonary embolism (PE). DVT is an inappropriate formation of a thrombus (also called blood clot) in one of the deep veins of the body, usually in the leg (popliteal, femoral, iliac). There are mainly three components in a thrombus: platelets, red blood cells and a mesh of fibrins. The main complication of a DVT is a pulmonary embolism (PE) which occurs when a thrombus breaks loose and travels to the lungs. PE affects an estimated 10000 - 20 000 individuals just in France per year. Three physiopathological mechanisms cancontribute, isolated or combined, to the development of a DVT: venous stasis, endothelial injury and hypercoagulability. Our project is aiming to relate the thrombus structure, its main triggering factor and the risk of a PE. To characterize the thrombus structure, we are collecting ultrasonography (echogenicity) and elastography (stiffness) of human thrombus. We propose to extract features from these to kind of ultrasound images using two approaches: one basedon wavelets (the scattering operator) and another based on high order statistics (multicorrelations). Then, the obtained features are analysed using several classification technics (principal component analysis, k-means, spectral clustering) to find the main cause of the DVT or the presence of PE.
137

Ondelettes géométriques adaptatives : vers une utilisation de la distance géodésique

Lebrun, Guillaume 31 March 2009 (has links) (PDF)
La transformée en ondelettes a été introduite ces dernières années dans le domaine du traitement des données multimédia car elle permet une représentation compacte des informations. Cette transformée conçue initialement pour les signaux 1D, ne s'appuie pas sur les spécificités des signaux 2D. Afin de prendre en compte ces spécificités, plusieurs transformées en ondelettes géométriques ont été proposées : nous en étudions deux propositions dans cette thèse. Plus particulièrement, nous allons présenter deux transformées en ondelettes géométriques adaptatives, c'est à dire, deux transformées en ondelettes dont l'ensemble des fonctions d'analyse et de synthèse est défini à partir de l'identification des singularités de l'image. La première transformée, définie par Le Pennec, s'appuie sur une détection des contours pour extraire et traiter séparément des bandes de l'image. La deuxième transformée s'appuie quand à elle, sur un ensemble de mesures de la distance géodésique spécifique au signal traité. Cet ensemble de mesures est ensuite exploité à travers un schéma de lifting pondéré. Ces deux transformées sont confrontées aux applications de suppression de bruit et de suppression de l'effet de bloc lié à la compression JPEG. Nous commenterons ces résultats afin de mettre en évidence les apports ainsi que les limites de ces approches.
138

Analyse en Ondelettes et par Paquets d'Ondelettes de Processus Aléatoires Stationnaires, et Application à l'Estimation Non-Paramétrique

Abdourrahmane, Atto 30 September 2008 (has links) (PDF)
Les transformées en ondelettes et par paquets d'ondelettes se sont largement imposées dans l'analyse et la résolution de problèmes liés aux sciences et techniques de l'ingénierie. Cet essor est dû principalement à deux propriétés spécifiques qui résultent des décompositions sur les bases d'ondelettes : la parcimonie de représentation pour les signaux réguliers et réguliers par morceaux; la tendance à transformer un processus aléatoire stationnaire en séquences de processus Gaussiens décorrélés. Ces deux propriétés sont observées expérimentalement et justifient de nombreux traitements effectués sur les coefficients obtenus par projection sur les bases d'ondelettes. Cependant, les résultats théoriques précisant la corrélation et la distribution asymptotiques des coefficients de paquets d'ondelettes sont de natures significativement différentes. La première partie de cette thèse propose une analyse de ces résultats théoriques, met en lumière la complexité du problème posé, et montre les résultats qu'on l'on peut obtenir à partir des critères de convergence. Les problèmes traités concernent à la fois les fonctions d'autocorrélation et les distributions asymptotiques des coefficients de paquets d'ondelettes de processus stationnaires. Les résultats annoncés conduisent à des schémas plus réalistes qui sont, de surcroît, soutenus par des résultats expérimentaux. La seconde partie de cette thèse analyse les propriétés de parcimonie des transformées à base d'ondelettes et propose l'utilisation de seuils associés à une mesure de parcimonie. Ces seuils établissent un lien entre la détection à l'estimation non-paramétrique, lien que nous résumons par la formule ``bien détecter pour mieux estimer''. Ces seuils unifient les seuils minimax et universels, qui correspondent ainsi à des seuils de détection associés à des degrés différents de parcimonie. D'autre part, cette thèse unifie également les fonctions de seuillage de base (seuillage dur et doux) de l'estimation non-paramétrique par l'introduction d'une famille de fonctions à atténuation de type sigmoïdale : les fonctions SSBS. Les fonctions de seuillage dur et doux sont alors des fonctions SSBS dégénérées, les fonctions SSBS non-dégénérées étant des fonctions régulières et à degré d'atténuation flexible. Les performances de l'estimation non-paramétrique utilisant les seuils de détection et les fonctions SSBS sont également analysées, tant du point de vue de l'erreur quadratique moyenne que de celui de la qualité visuelle en débruitage d'images.
139

Interférométrie spectrale pour la mesure de dispersion et la géométrie de surface

Reolon, David 12 September 2006 (has links) (PDF)
L'objectif de ce travail de thèse est l'élaboration d'un instrument de mesure optique dédié à la caractérisation de lentilles à gradient d'indice et d'asphériques de grandes dimensions. Pour parvenir à une caractérisation complète de la structure : variation spatiale de l'indice et de la topographie de surface, nous avons mis en place un banc d'interférométrie spectrale. Ce dispositif conduit à l'observation de spectres cannelés en lumière blanche (faible cohérence temporelle) porteurs d'une information de déphasage spectral entre les deux ondes qui interfèrent. <br />L'originalité de ce travail provient de l'utilisation d'une source supercontinuum de lumière blanche généré par pompage optique dans une fibre microstructurée. Cette source aux performances remarquables en termes de : largeur spectrale, de densité de puissance et de cohérence spatiale, permet d'analyser des composants peu étudiés jusqu'à présent.<br />L'exploitation des interférogrammes enregistrés nécessite la mise en place de traitements numériques adaptés. Ainsi les spectrogrammes périodiques associés aux mesures profilométriques sont traités par une méthode de décalage de phase 7 points, et les spectrogrammes non périodiques correspondant aux mesures de dispersion sont traités par une technique d'analyse simultanée temps-fréquence (transformée en ondelettes) couplée à une méthode d'ajustement de l'intensité par moindres carrés. <br />Les résultats expérimentaux mettent en évidence les différentes possibilités de l'interférométrie spectrale, la mesure de profil de surface avec une résolution nanométrique, la mesure de la variation spectrale de l'indice de groupe avec une résolution de 10-3, et la caractérisation simultanée des aberrations chromatiques et géométriques de systèmes imageurs.
140

Estimation de densité en dimension élevée et classification de courbes

Rouvière, Laurent 18 November 2005 (has links) (PDF)
L'objectif de cette thèse consiste étudier et approfondir des techniques d'estimation de la densité et de classification dans des espaces de dimension élevée. Nous avons choisi de structurer notre travail en trois parties.<br /><br />La première partie, intitulée compléments sur les histogrammes modifiés, est composée de deux chapitres consacrés l'étude d'une famille d'estimateurs non paramétriques de la densité, les histogrammes modifiés, connus pour posséder de bonnes propriétés de convergence au sens des critères de la théorie de l'information. Dans le premier chapitre, ces estimateurs sont envisagés comme des systèmes dynamiques espace d'états de dimension infinie. Le second chapitre est consacré l'étude de ces estimateurs pour des dimensions suprieures un.<br /><br />La deuxième partie de la thèse, intituleé méthodes combinatoires en estimation de la densité, se divise en deux chapitres. Nous nous intéressons dans cette partie aux performances distance finie d'estimateurs de la densité sélectionnés à l'intérieur d'une famille d'estimateurs candidats, dont le cardinal n'est pas nécessairement fini. Dans le premier chapitre, nous étudions les performances de ces méthodes dans le cadre de la sélection des différents paramètres des histogrammes modifiés. Nous poursuivons, dans le deuxième chapitre, par la sélection d'estimateurs à noyau dont le paramètre de lissage s'adapte localement au point d'estimation et aux données.<br /><br />Enfin, la troisième et dernière partie, plus appliquée et indépendante des précédentes, présente une nouvelle méthode permettant de classer des courbes partir d'une décomposition des observations dans des bases d'ondelettes.

Page generated in 0.064 seconds