• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 141
  • 35
  • 3
  • 1
  • Tagged with
  • 515
  • 187
  • 142
  • 103
  • 84
  • 80
  • 67
  • 66
  • 63
  • 63
  • 63
  • 62
  • 58
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Sources paramétriques optiques à base de cristaux apériodiques à agilité spectrale ultra-rapide / Rapidly tunable optical parametrical sources based on aperiodically quasi-phase matched nonlinear crystals

Descloux, Delphine 04 November 2016 (has links)
Les applications de spectroscopie, en particulier l’analyse de gaz à effet de serre, de composés organiques volatils ou autres polluants atmosphériques motivent le développement d’instrumentations spécifiques. L’étude présentée ici vise à proposer de nouvelles sources aptes à caractériser la composition d’un milieu gazeux, liquide ou solide. Les raies d’absorption optique de la plupart des gaz à détecter sont particulièrement fortes dans l’infrarouge moyen (en particulier entre 3 et 5 µm). Pour adresser cette plage spectrale, l’optique non linéaire propose de nombreuses solutions. Les sources rapportées ici sont des oscillateurs paramétriques optiques (OPO) dont la spécificité repose sur l’utilisation de cristaux non linéaires à quasi-accord de phase apériodique. Ces cristaux présentent de larges bandes de gain intrinsèques. Les travaux présentés permettent une étude du comportement de telles sources, absentes de la littérature en régime d’impulsions picosecondes. Des caractéristiques propres à l’utilisation des cristaux apériodiques sont rapportées. Un outil permettant une observation spectrale dynamique en régime picoseconde est proposé puis utilisé pour l’étude du démarrage de nos OPO. Ces sources large bande sont ensuite associées à des filtres spectraux rapides placés dans la cavité. Deux types de filtres sont utilisés. D’abord l’association d’un réseau de diffraction en configuration Littrow avec un déflecteur rapide. Ensuite l’insertion dans la cavité d’un réseau de Bragg en volume chirpé, placé sur une platine de translation, pour tirer profit de la condition de pompage synchrone. Ces deux solutions nous permettent d'obtenir des dispositifs largement et rapidement accordables en longueur d'onde. L’utilisation de telles sources pour des applications de détection de gaz est démontrée. / Spectroscopy applications related to greenhouse gases or other atmospheric pollutants, involve the development of a large range of specific tools. The aim of the work presented here is to develop new devices to characterize the composition of gas, liquid, or solid media. Most of the species to be detected show particularly strong optical absorption lines in the mid-infrared region (in particular around 3 to 5 µm). To address this specific spectral range, nonlinear optics provide a wide range of solutions. The sources reported here are optical parametric oscillators (OPO) based on aperiodically poled nonlinear crystals. Such crystals offer broad gain bandwidths. The work presented here contains a study of those sources, not reported so far in the literature for picosecond regime. Behaviors that are specific to the use of aperiodic crystals are reported. A useful tool allowing dynamical spectral studies is proposed, and implemented to investigate buildup regime of the picosecond OPO. Those sources are then associated with rapid spectral filters inserted in the cavity. Two different approaches are developed. The first is based on the association of a diffraction grating in Littrow configuration with a deflecting device. The second takes advantage of the synchronous pumping scheme, with an intracavity chirped volume Bragg grating mounted on a translation stage. Fast and wide wavelength tuning is demonstrated with those devices. Gas detection applications are also demonstrated.
352

Méthode d'obtention d'images TEP paramétriques de la cinétique de fixation du FDG basée sur une approche mathématique intégrant un modèle d'erreur de mesures. / ParaPET, a new methodology to derive 3D kinetic parametric FDG PET images based on a mathematical approach integrating an error model of measurement

Colard, Elyse 04 December 2018 (has links)
La Tomographie par Emission de Positons (TEP) au 2-[18]-Fluoro-2-désoxy-D-glucose (FDG) est une méthode d’imagerie fonctionnelle particulièrement utilisée en oncologie afin de quantifier le métabolisme glucidique des lésions tumorales. En routine clinique, l’analyse quantitative de ces images est réalisée à l’aide de la valeur de fixation normalisée, notée SUV. Des approches de quantification plus élaborées existent dans la littérature, mais elles requièrent généralement de multiples prélèvements sanguins et/ou l’acquisition d’un examen TEP d’au moins 50 minutes. De ce fait, elles sont difficilement applicables en routine clinique. Notre travail a porté sur le développement d’une approche non-invasive, nommée ParaPET, basée sur les travaux initiaux de [Barbolosi et al.2016], permettant la détermination d’une cartographie de biomarqueurs dynamiques et requérant une unique acquisition TEP de durée limitée. Notre approche intègre plusieurs améliorations, parmi lesquelles l’élaboration d’un nouveau modèle d’estimation de la concentration moyenne de FDG et de l’erreur de mesure associée, basé sur un protocole de reconstructions TEP multiples utilisant un rééchantillonnage temporel des données, la détermination de la concentration d’activité sanguine de FDG à l’aide des images TEP de l’aorte, et la caractérisation des lésions tumorales à l’échelle du voxel. Notre approche a été évaluée sur une base de données de 31 patients atteints d’un cancer bronchique non à petites cellules (CBNPC) que nous avons construite au préalable. Notre analyse a porté sur la détermination du biomarqueur Ki , représentant le débit net entrant de FDG. Nos résultats ne montrent pas de différence significative dans l’estimation de Ki entre notre approche et la méthode de référence, l’analyse graphique de Patlak [Patlak et al. 1983]. Nous avons également montré l’existence d’une forte corrélation (R2 ¸ 0,87) entre les images de Ki et de SUV. Cependant, ces images ne sont pas identiques, et peuvent apporter des informations supplémentaires, par exemple pour les régions nécrotiques. Enfin, nous avons étudié la variation relative de Ki (¢(K¤ i )) et de SUVmax (¢(SUVmax )) entre les examens pré- et per-thérapeutiques. Nous avons constaté une corrélation médiocre entre ¢(K¤ i ) et ¢(SUVmax ) (R2 = 0,60) sur l’ensemble de la plage de variation, mais une corrélation plus importante à partir des valeurs de ¢(SUVmax ) ¸ 40 %. Il conviendrait d’approfondir la signification et l’intérêt médical associé aux faibles variations de SUV et de Ki . Au final, l’approche ParaPET permet une détermination simplifiée des paramètres cinétiques de la fixation du FDG, qui enrichiront les caractéristiques tumorales pouvant présenter un intérêt pour la radiomique. / Positron Emission Tomography (PET) with 2-[18]-Fluoro-2-deoxy-D-glucose (FDG) is a functional imaging technique especially used in oncology to quantify glucose metabolism of tumour lesions. In clinical routine, quantitative analysis of these images is carried out using the standardized uptake value (SUV). More sophisticated quantification approaches have been proposed in the literature, but they requiremultiple blood samples and/or at least a 50 minutes PET acquisition. As a result, they are difficult to implement in clinical routine. Our work focused on the development of a non-invasive approach, named ParaPET, based on the initial work of [Barbolosi et al. 2016], allowing the determination of 3D maps of dynamic biomarkers and only requiring a PET scan of a limited duration. Our approach includes several improvements, including the development of a new model for the estimation of the FDG activity concentration and the associated measurement error, based on amultiple PET reconstruction protocol using temporal data resampling, the determination of the blood FDG activity concentration using PET aorta images, and the characterisation of tumour lesions at a voxel level. Our approach was evaluated on a database of 31 patients with non-small cell lung cancer (NSCLC) treated by chemo-radiation therapy, that we previously constructed. Our analysis focused on thedetermination of the biomarker Ki , the net influx of FDG in the lesion. Our results show no significant difference in the Ki estimate between our approach and the reference method, the Patlak graphical analysis [Patlak et al. 1983]. We also have shown the existence of a strong correlation between Ki and SUV images (R2 ¸ 0,87).However, these images are not identical, and may provide additional information, for example for necrotic regions. Finally, we studied the relative variation of Ki (¢(K¤ i )) and SUVmax (¢(SUVmax )) between pre- et per-therapeutic PET scans. We have found a poor correlation between ¢(K¤i ) et ¢(SUVmax ) (R2 = 0,60) over the entire range of variation, but a higher correlation from ¢(SUVmax ) values ¸ 40 %. The meaning and the medical interest associated with small variations of SUV and Ki should be further investigated. To conclude, our ParaPET approach allows a simplified determination of kinetic parameters of FDG uptake, which will enhance the tumour characteristics that may be of interest for radiomics.
353

Contribution à la régression non paramétrique avec un processus erreur d'autocovariance générale et application en pharmacocinétique / Contribution to nonparametric regression estimation with general autocovariance error process and application to pharmacokinetics

Benelmadani, Djihad 18 September 2019 (has links)
Dans cette thèse, nous considérons le modèle de régression avec plusieurs unités expérimentales, où les erreurs forment un processus d'autocovariance dans un cadre générale, c'est-à-dire, un processus du second ordre (stationnaire ou non stationnaire) avec une autocovariance non différentiable le long de la diagonale. Nous sommes intéressés, entre autres, à l'estimation non paramétrique de la fonction de régression de ce modèle.Premièrement, nous considérons l'estimateur classique proposé par Gasser et Müller. Nous étudions ses performances asymptotiques quand le nombre d'unités expérimentales et le nombre d'observations tendent vers l'infini. Pour un échantillonnage régulier, nous améliorons les vitesses de convergence d'ordre supérieur de son biais et de sa variance. Nous montrons aussi sa normalité asymptotique dans le cas des erreurs corrélées.Deuxièmement, nous proposons un nouvel estimateur à noyau pour la fonction de régression, basé sur une propriété de projection. Cet estimateur est construit à travers la fonction d'autocovariance des erreurs et une fonction particulière appartenant à l'Espace de Hilbert à Noyau Autoreproduisant (RKHS) associé à la fonction d'autocovariance. Nous étudions les performances asymptotiques de l'estimateur en utilisant les propriétés de RKHS. Ces propriétés nous permettent d'obtenir la vitesse optimale de convergence de la variance de cet estimateur. Nous prouvons sa normalité asymptotique, et montrons que sa variance est asymptotiquement plus petite que celle de l'estimateur de Gasser et Müller. Nous conduisons une étude de simulation pour confirmer nos résultats théoriques.Troisièmement, nous proposons un nouvel estimateur à noyau pour la fonction de régression. Cet estimateur est construit en utilisant la règle numérique des trapèzes, pour approximer l'estimateur basé sur des données continues. Nous étudions aussi sa performance asymptotique et nous montrons sa normalité asymptotique. En outre, cet estimateur permet d'obtenir le plan d'échantillonnage optimal pour l'estimation de la fonction de régression. Une étude de simulation est conduite afin de tester le comportement de cet estimateur dans un plan d'échantillonnage de taille finie, en terme d'erreur en moyenne quadratique intégrée (IMSE). De plus, nous montrons la réduction dans l'IMSE en utilisant le plan d'échantillonnage optimal au lieu de l'échantillonnage uniforme.Finalement, nous considérons une application de la régression non paramétrique dans le domaine pharmacocinétique. Nous proposons l'utilisation de l'estimateur non paramétrique à noyau pour l'estimation de la fonction de concentration. Nous vérifions son bon comportement par des simulations et une analyse de données réelles. Nous investiguons aussi le problème de l'estimation de l'Aire Sous la Courbe de concentration (AUC), pour lequel nous proposons un nouvel estimateur à noyau, obtenu par l'intégration de l'estimateur à noyau de la fonction de régression. Nous montrons, par une étude de simulation, que le nouvel estimateur est meilleur que l'estimateur classique en terme d'erreur en moyenne quadratique. Le problème crucial de l'obtention d'un plan d'échantillonnage optimale pour l'estimation de l'AUC est discuté en utilisant l'algorithme de recuit simulé généralisé. / In this thesis, we consider the fixed design regression model with repeated measurements, where the errors form a process with general autocovariance function, i.e. a second order process (stationary or nonstationary), with a non-differentiable covariance function along the diagonal. We are interested, among other problems, in the nonparametric estimation of the regression function of this model.We first consider the well-known kernel regression estimator proposed by Gasser and Müller. We study its asymptotic performance when the number of experimental units and the number of observations tend to infinity. For a regular sequence of designs, we improve the higher rates of convergence of the variance and the bias. We also prove the asymptotic normality of this estimator in the case of correlated errors.Second, we propose a new kernel estimator of the regression function based on a projection property. This estimator is constructed through the autocovariance function of the errors, and a specific function belonging to the Reproducing Kernel Hilbert Space (RKHS) associated to the autocovariance function. We study its asymptotic performance using the RKHS properties. These properties allow to obtain the optimal convergence rate of the variance. We also prove its asymptotic normality. We show that this new estimator has a smaller asymptotic variance then the one of Gasser and Müller. A simulation study is conducted to confirm this theoretical result.Third, we propose a new kernel estimator for the regression function. This estimator is constructed through the trapezoidal numerical approximation of the kernel regression estimator based on continuous observations. We study its asymptotic performance, and we prove its asymptotic normality. Moreover, this estimator allow to obtain the asymptotic optimal sampling design for the estimation of the regression function. We run a simulation study to test the performance of the proposed estimator in a finite sample set, where we see its good performance, in terms of Integrated Mean Squared Error (IMSE). In addition, we show the reduction of the IMSE using the optimal sampling design instead of the uniform design in a finite sample set.Finally, we consider an application of the regression function estimation in pharmacokinetics problems. We propose to use the nonparametric kernel methods, for the concentration-time curve estimation, instead of the classical parametric ones. We prove its good performance via simulation study and real data analysis. We also investigate the problem of estimating the Area Under the concentration Curve (AUC), where we introduce a new kernel estimator, obtained by the integration of the regression function estimator. We prove, using a simulation study, that the proposed estimators outperform the classical one in terms of Mean Squared Error. The crucial problem of finding the optimal sampling design for the AUC estimation is investigated using the Generalized Simulating Annealing algorithm.
354

Strain relaxation in InGaN/GaN herostructures / Relaxation des contraintes dans les hétérostuctures InGaN/GaN

Li, Quantong 20 March 2018 (has links)
Dans ce travail, nous avons étudié la relaxation de couches d’hétérostructures InGaN/GaN obtenue par épitaxie en phase vapeur aux organométalliques (EPVOM) et épitaxie aux jets moléculaires (EJM) principalement par microscopie électronique en transmission (MET). Pour ce faire, nous avons fait varier la composition de l'indium de 4.1% au nitrure d'indium pur, ce qui correspond lors de la croissance sur GaN à un décalage paramétrique allant de 1% à 11.3%. Le travail a porté sur des couches dont l’épaisseur allait de 7 nm à 500 nm. A partir d’une composition en indium voisine de 10%, nous mettons en évidence la formation d’un réseau de dislocations vis dont la ligne se promène dans l’interface, avec de très longues sections droites le long des directions <11-20>. Ces dislocations coexistent avec un réseau de dislocations coins qui commence à se former vers 13%, il disparait complétement autour d’une composition en indium de 18%. Le réseau de dislocation vis se densifie de plus en plus au-delà. Outre ces dislocations de décalage paramétrique, d'autres mécanismes qui contribuent à la relaxation de la contrainte dans ces hétérostructures InGaN/GaN ont été mis en évidence. Ainsi, au-dessus d'une composition d'indium supérieure à 25%, de nombreux phénomènes se produisent simultanément. (1) Formation des dislocations de décalage paramétrique à l'hétérointerface; (2) une composition de la couche qui s’enrichit en indium vers la surface; (3) des fortes perturbations de la séquence hexagonale conduisant à un empilement aléatoire; (4) croissance à trois dimensions (3D) pouvant même conduire à des couches poreuses lorsque la composition en indium est comprise entre 40% et 85%. Cependant, on met en évidence qu’il est possible de faire croître de l’InN pur de bonne qualité cristalline s'améliore grâce à la formation systématique d'une couche 3D. / In this work, we have investigated the strain relaxation of InGaN layers grown on GaN templates by MOVPE and PAMBE using TEM. To this end we varied the indium composition from 4.1% to pure indium nitride and the corresponding mismatch was changing from less than 1% to 11.3%, the thickness of the InGaN layers was from 7 nm to 500 nm. When the indium composition is around 10%, one would expect mostly elastically strained layers with no misfit dislocations. However, we found that screw dislocations form systematically at the InGaN/GaN interface. Moreover, below 18% indium composition, screw and edge dislocations coexist, whereas starting at 18%, only edge dislocations were observed in these interfaces. Apart from the edge dislocations (misfit dislocations), other mechanisms have been pointed out for the strain relaxation. It is found that above an indium composition beyond 25%, many phenomena take place simultaneously. (1) Formation of the misfit dislocations at the heterointerface; (2) composition pulling with the surface layer being richer in indium in comparison to the interfacial layer; (3) disruption of the growth sequence through the formation of a random stacking sequence; (4) three dimentional (3D) growth which can even lead to porous layers when the indium composition is between 40% and 85%. However, pure InN is grown, the crystalline quality improves through a systematic formation of a 3D layer.
355

Modèle géométrique déformable pour la simulation et l’optimisation automatique de forme / Geometric modelling and deformation for automatic shape optimisation

Berrini, Elisa 07 June 2017 (has links)
Le contrôle précis des modèles géométriques joue un rôle important dans de nombreux domaines. Pour l’optimisation de forme en CFD, le choix des paramètres de contrôle et la technique de déformation de forme est critique. Nous proposons un modeleur paramétrique avec une nouvelle méthode de déformation d’objets, ayant pour objectif d’être intégré dans une boucle d’optimisation automatique de forme avec un solveur CFD. Notre méthodologie est basée sur une double paramétrisation des objets : géométrique et architecturale. L’approche géométrique consiste à décrire les formes par un squelette, composé d’une famille de courbes B-Splines, appelées courbes génératrice et courbes de section. Le squelette est paramétré avec une approche architecturale. Au lieu d’utiliser les points de contrôle de la représentation classique par courbes B-Splines, la géométrie est contrôlée par ces paramètres architecturaux. Cela permet de réduire considérablement le nombre de degrés de liberté utilisés dans le problème d’optimisation de forme, et permet de maintenir une description haut niveau des objets. Notre technique intègre un contrôle de forme et un contrôle de régularité, permettant d’assurer la génération de nouvelles formes valides et réalistes. Les déformations de la géométrie sont réalisées en posant un problème inverse : déterminer une géométrie correspondant à un jeu de paramètres cibles. Enfin, une technique de reconstruction de surface est proposée. Nous illustrons le modeleur paramétrique développé et intégré dans une boucle d’optimisation automatique de forme sur trois cas : un profil d’aile d’avion, un foil AC45 d’un voilier de course et un bulbe de chalutier de pêche. / The precise control of geometric models plays an important role in many domains. For shape optimisation in CFD, the choice of control parameters and the way to deform a shape are critical. In this thesis, we propose a new approach to shape deformation for parametric modellers with the purpose of being integrated into an automatic shape optimisation loop with a CFD solver. Our methodology is based on a twofold parameterisation: geometrical and architectural. The geometrical approach consist of a skeleton-based representation of object. The skeleton is made of a family of B-Spline curves, called generating curve and section curves. The skeleton is parametrised with an architectural approach: meaningful design parameters are chosen on the studied object. Thus, instead of using the control points of a classical B-spline representation, we control the geometry in terms of architectural parameters. This reduce the number of degrees of freedom and maintain a high level description of shapes. We ensure to generate valid shapes with a strong shape consistency control based on architectural considerations. Deformations of the geometry are performed by solving optimisation problems on the skeleton. Finally, a surface reconstruction method is proposed to evaluate the shape’s performances with CFD solvers. We illustrate the parametric modeller capabilities on three problems, performed with an automatic shape optimisation loop: the wind section of an plane (airfoil), the foil of an AC45 racing sail boat and the bulbous bow of a fishing trawler.
356

De nouveaux estimateurs semi-paramétriques de l'indice de dépendance extrême de queue

Cissé, Mamadou Lamine January 2020 (has links) (PDF)
No description available.
357

Dynamiques neuro-gliales locales et réseaux complexes pour l'étude de la relation entre structure et fonction cérébrales. / Local neuro-glial dynamics and complex networks for the study of the relationship between brain structure and brain function

Garnier, Aurélie 17 December 2015 (has links)
L'un des enjeux majeurs actuellement en neurosciences est l'élaboration de modèles computationnels capables de reproduire les données obtenues expérimentalement par des méthodes d'imagerie et permettant l'étude de la relation structure-fonction dans le cerveau. Les travaux de modélisation dans cette thèse se situent à deux échelles et l'analyse des modèles a nécessité le développement d'outils théoriques et numériques dédiés. À l'échelle locale, nous avons proposé un nouveau modèle d'équations différentielles ordinaires générant des activités neuronales, caractérisé et classifié l'ensemble des comportements générés, comparé les sorties du modèle avec des données expérimentales et identifié les structures dynamiques sous-tendant la génération de comportements pathologiques. Ce modèle a ensuite été couplé bilatéralement à un nouveau compartiment modélisant les dynamiques de neuromédiateurs et leurs rétroactions sur l'activité neuronale. La caractérisation théorique de l'impact de ces rétroactions sur l'excitabilité a été obtenue en formalisant l'étude des variations d'une valeur de bifurcation en un problème d'optimisation sous contrainte. Nous avons enfin proposé un modèle de réseau, pour lequel la dynamique des noeuds est fondée sur le modèle local, incorporant deux couplages: neuronal et astrocytaire. Nous avons observé la propagation d'informations différentiellement selon ces deux couplages et leurs influences cumulées, révélé les différences qualitatives des profils d'activité neuronale et gliale de chaque noeud, et interprété les transitions entre comportements au cours du temps grâce aux structures dynamiques identifiées dans les modèles locaux. / A current issue in neuroscience is to elaborate computational models that are able to reproduce experimental data recorded with various imaging methods, and allowing us to study the relationship between structure and function in the human brain. The modeling objectives of this work are two scales and the model analysis need the development of specific theoretical and numerical tools. At the local scale, we propose a new ordinary differential equations model generating neuronal activities. We characterize and classify the behaviors the model can generate, we compare the model outputs to experimental data and we identify the dynamical structures of the neural compartment underlying the generation of pathological patterns. We then extend this approach to a new neuro-glial mass model: a bilateral coupling between the neural compartment and a new one modeling the impact of astrocytes on neurotransmitter concentrations and the feedback of these concentrations on neural activity is developed. We obtain a theoretical characterization of these feedbacks impact on neuronal excitability by formalizing the variation of a bifurcation value as a problem of optimization under constraint. Finally, we propose a network model, which node dynamics are based on the local neuro-glial mass model, embedding a neuronal coupling and a glial one. We numerically observe the differential propagations of information according to each of these coupling types and their cumulated impact, we highlight qualitatively distinct patterns of neural and glial activities of each node, and link the transitions between behaviors with the dynamical structures identified in the local models.
358

Estimation non paramétrique de densités conditionnelles : grande dimension, parcimonie et algorithmes gloutons. / Nonparametric estimation of sparse conditional densities in moderately large dimensions by greedy algorithms.

Nguyen, Minh-Lien Jeanne 08 July 2019 (has links)
Nous considérons le problème d’estimation de densités conditionnelles en modérément grandes dimensions. Beaucoup plus informatives que les fonctions de régression, les densités condi- tionnelles sont d’un intérêt majeur dans les méthodes récentes, notamment dans le cadre bayésien (étude de la distribution postérieure, recherche de ses modes...). Après avoir rappelé les problèmes liés à l’estimation en grande dimension dans l’introduction, les deux chapitres suivants développent deux méthodes qui s’attaquent au fléau de la dimension en demandant : d’être efficace computation- nellement grâce à une procédure itérative gloutonne, de détecter les variables pertinentes sous une hypothèse de parcimonie, et converger à vitesse minimax quasi-optimale. Plus précisément, les deux méthodes considèrent des estimateurs à noyau bien adaptés à l’estimation de densités conditionnelles et sélectionnent une fenêtre multivariée ponctuelle en revisitant l’algorithme glouton RODEO (Re- gularisation Of Derivative Expectation Operator). La première méthode ayant des problèmes d’ini- tialisation et des facteurs logarithmiques supplémentaires dans la vitesse de convergence, la seconde méthode résout ces problèmes, tout en ajoutant l’adaptation à la régularité. Dans l’avant-dernier cha- pitre, on traite de la calibration et des performances numériques de ces deux procédures, avant de donner quelques commentaires et perspectives dans le dernier chapitre. / We consider the problem of conditional density estimation in moderately large dimen- sions. Much more informative than regression functions, conditional densities are of main interest in recent methods, particularly in the Bayesian framework (studying the posterior distribution, find- ing its modes...). After recalling the estimation issues in high dimension in the introduction, the two following chapters develop on two methods which address the issues of the curse of dimensionality: being computationally efficient by a greedy iterative procedure, detecting under some suitably defined sparsity conditions the relevant variables, while converging at a quasi-optimal minimax rate. More precisely, the two methods consider kernel estimators well-adapted for conditional density estimation and select a pointwise multivariate bandwidth by revisiting the greedy algorithm RODEO (Regular- isation Of Derivative Expectation Operator). The first method having some initialization problems and extra logarithmic factors in its convergence rate, the second method solves these problems, while adding adaptation to the smoothness. In the penultimate chapter, we discuss the calibration and nu- merical performance of these two procedures, before giving some comments and perspectives in the last chapter.
359

Développements de sources infrarouges et de résonateurs en quartz pour la spectroscopie photoacoustique / Development of infrared sources and quartz resonators for photoacoustic spectroscopy

Aoust, Guillaume 13 October 2016 (has links)
La spectrométrie photoacoustique QEPAS constitue l’une des méthodes les plussensibles pour la détection de gaz à l’état de traces. Ses performances sont étroitement liées àcelles de sa source de lumière infrarouge cohérente et de son résonateur mécanique qui détecteles ondes acoustiques. La thèse a pour objectif de développer ces deux briques élémentaires.Dans un premier temps, les performances des résonateurs mécaniques sont modélisées, permettantde mieux comprendre leur comportement. Une formule analytique originale de leurfacteur de qualité y est incorporée, permettant de prédire avec précision les pertes qu’ils subissentlorsqu’ils résonnent dans un gaz. Grâce à ces modèles, de nouveaux résonateurs optimiséssont conçus et réalisés, aboutissant à des performances améliorées. Dans un secondtemps, les sources cohérentes infrarouges QCL et OPO sont améliorées pour la photoacoustique.L’impulsion de pompe optimale pour un OPO est présentée pour distribuer au mieuxl’énergie de pompe disponible dans le temps, et ainsi maximiser le rendement de rayonnementinfrarouge disponible. Un logiciel de simulation numérique original des OPOs est égalementcréé, et permet de simuler rapidement le spectre d’émission d’un OPO quelconque. / Infrared photoacoustic spectrometry QEPAS is one of the most sensitive techniquefor trace gas sensing. The goal of the thesis is to improve the two key elements of the instrument: the mechanical resonator and the coherent infrared light source.First, the use of resonators as an acoustic waves sensor is investigated, allowing to better understandtheir behavior. Our modeling include a new analytical formula of their quality factor,predicting the amount of losses they experience when immersed within a gaz. The models areused to design and fabricate new custom resonators, leading to enhanced performances. Second,two infrared sources named QCL and OPO are optimized for the photoacoustic application.The optimal pump pulse for an OPO is derived to efficiently distribute the available pumpenergy in time, hence maximizing the yield of infrared light. A simulation software has alsobeen created for OPOs, able to quickly predict the spectrum of any type of OPO.
360

Reconstruction libre de lentilles gravitationnelles de type galaxie-galaxie avec les machines à inférence récurentielle

Adam, Alexandre 12 1900 (has links)
Les lentilles gravitationnelles de type galaxie-galaxie se produisent lorsque la lumière d'une galaxie en arrière-plan est déviée par le champ gravitationnel d'une galaxie en avant-plan, formant des images multiples ou même des anneaux d'Einstein selon le point de vue d'un observateur sur Terre. Ces phénomènes permettent non seulement d'étudier les galaxies lointaines, magnifiées par la galaxie-lentille, mais aussi de comprendre la distribution de masse de la galaxie-lentille et de son environnement, une opportunité unique pour sonder la matière noire contenue dans ces galaxies. Or, les méthodes traditionnelles pour analyser ces systèmes requièrent une quantité significative de temps ordinateur (de quelques heures à quelques jours), sans compter le temps des experts pour faire converger les analyses MCMC requises pour obtenir les paramètres d'intérêts. Ce problème est significatif, considérant qu'il est projeté que les grands relevés du ciel comme ceux qui seront menés aux observatoires Rubin et Euclid découvrirons plusieurs centaines de milliers de lentilles gravitationnelles. De plus, le Télescope géant européen (ELT), faisant usage de la technologie d'optique adaptative, et le télescope spatial James Webb, vont nous offrir une vue sans précédent de ces systèmes, avec un pouvoir de résolution qui rendra possible certaines analyses comme la recherche de halo de matière noire froide, longtemps prédite par le modèle cosmologique standard $\Lambda$CDM. Les approximations traditionnelles faites pour simplifier la reconstruction des lentilles gravitationnelles ne seront plus valides dans ce régime. Dans ce mémoire, je présente un travail qui s'attaque à ces deux problèmes. Je présente une méthode d'optimisation basée sur les machines à inférence récurentielle pour reconstruire deux images, soit celle d'une galaxie en arrière-plan et une image pour la distribution de masse de la galaxie en avant-plan. La représentation paramétrique choisie a le potentiel de reconstruire une classe très large de lentilles gravitationnelles, incluant des halos et sous-halos de matière noire, ce qu'on démontre dans ce travail en utilisant des profiles de densité réalistes provenant de la simulation cosmologique hydrodynamique IllustrisTNG. Nos reconstructions atteignent un niveau de réalisme jamais atteint auparavant et s'exécutent sur une fraction du temps requis pour exécuter une analyse traditionnelle, soit un pas significatif vers une méthode pouvant adresser le défi d'analyser autant de systèmes complexes et variés en un temps à l'échelle humaine. / Galaxy-Galaxy gravitational lenses is a phenomenon that happens when the light coming from a background galaxy is bent by the gravitational field of a foreground galaxy, producing multiple images or even Einstein ring images of the background source from the point of view of an observer on Earth. These phenomena allow us to study in detail the morphology of the background galaxy, magnified by the lens, but also study the mass density distribution of the lens and its environment, thus offering a unique probe of dark matter in lensing galaxies. Traditional methods studying these systems often need significant compute time (from hours to days), and this is without taking into account the time spent by experts to make the MCMC chains required to obtain parameters of interest converge. This problem is significant, considering that large surveys from observatories like Rubin and Euclid are projected to discover hundreds of thousands of gravitational lenses. Moreover, the Extremely Large Telescope (ELT), using adaptive optics, and the James Webb Space Telescope will offer an unprecedented glimpse of these systems, with a resolving power predicted to enable searches for cold dark matter subhalos — objects long predicted by the standard cosmological model CDM. Approximations used to make analysis tractable in traditional methods will no longer be valid in that regime. In this thesis, I present a method that aims to address these two issues. The method, based on Recurrent Inference Machines (RIM), reconstructs two pixelated maps, one for the background source and another for the mass density map of the foreground lensing galaxy. This free-form parametric representation has the potential to reconstruct a large class of gravitational lenses, including those with dark matter halos and subhalos, which we demonstrate using realistic mass density profiles from the cosmological hydrodynamic simulation IllustrisTNG. Our method can achieve an unmatched level of realism in a fraction of the time required by traditional methods, which is a significant step toward solving the challenge of studying such a large number of complex and varied systems in a human timescale.

Page generated in 0.061 seconds