• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 274
  • 163
  • 47
  • 25
  • 22
  • 19
  • 10
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 1190
  • 259
  • 193
  • 143
  • 124
  • 87
  • 74
  • 67
  • 61
  • 61
  • 61
  • 61
  • 57
  • 54
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Spectroscopie et Imagerie RMN multi-noyaux à très haut champ magnétique / Multi-nuclear RMN in Spectroscopy and Imagery at very high magnetic fields

Stout, Jacques 09 October 2019 (has links)
Le trouble bipolaire est un trouble de l'humeur récurrent affectant de 1 à 3% de la population adulte à travers le monde et ayant une comorbidité importante avec une hausse du taux de suicides, l'abus de drogues et d'autres troubles médicaux. Ce trouble semble avoir plusieurs liens avec la schizophrénie et une vulnérabilité au trouble est souvent héréditaire dans une famille. Même si les causes biologiques n'ont pas encore été établies, de nombreuses anomalies dans le système limbique sous-cortical et la zone préfrontal ont été observés.Depuis sa découverte il y a plus d'un demi-siècle, une prise de sels de Lithium a été le traitement le plus fiable, mais l'action biochimique du Lithium sur le cerveau et le pourquoi de l'efficacité du traitement reste un mystère. Afin de pouvoir mieux comprendre cet effet, nous avons développé des séquences d'imagerie du Lithium-7 via résonance magnétique à 7 et 17 Tesla afin de pouvoir établir sa distribution et concentration cérébrale. Spécifiquement, j'ai travaillé sur le développement et la validation des méthodes d'acquisition, de reconstruction et de quantification de notre protocole. Ces méthodes ont d'abord été appliqués afin d'étudier la distribution cérébrale du Lithium sur des cerveaux de rats ex-vivo. Ces rats étés traités pendant 28 jours avec du Li2CO3, sacrifiés et leurs têtes fixés avec du PFA. En utilisant une antenne surfacique double canaux 1H/7Li fait maison, une acquisition 7Li Turbo Spin echo et une méthode de remplacement par fantôme pour la quantification, nous avons pu mesurer les cartes de concentration du Lithium. Les concentrations moyennes obtenus dans des régions d’intérêt prédéfinis ont été mesurés afin de les comparer avec les résultats obtenus par spectrométrie de masse.Après cette étude préclinique qui a permis de valider notre approche, un protocole similaire fut créé pour une étude in-vivo 7Li d'imagerie par résonance magnétique chez des patients bipolaires euthymiques sur un scanner 7T. Ces individus ont tous suivis un traitement régulier de Lithium. Pour cette étude, nous avons utilisé une séquence Steady State Free Precession à TE ultra-court et avec un échantillonnage du k-space non-cartésien. Un pipeline de quantification et d'analyse similaire à celle utilisé pour notre étude préclinique fut appliqué pour cette étude, avec l'ajout d'une étape de correction pour les inhomogénéités de B0. Après avoir fait une analyse statistique au niveau de toute la cohorte par régions d'intérêt, il a été observé que l'hippocampe gauche, une part majeur du système limbique associé au trouble bipolaire à de multiples occasions, possède systématiquement une haute concentration de Lithium. Finalement, la méthode de quantification fut modifiée en quantification bi-compartimentale afin de prendre en compte les différences dans les taux de relaxation du Lithium dans le CSF et dans le parenchyme du cerveau. Cette méthode fut appliqué afin de pouvoir quantifier le Lithium à 7T dans un sous-groupe des patients bipolaires et radicalement réduire les différences initialement observés entre les séquences SSFP et bSSFP. / Bipolar disorder is a chronic affective disorder affecting 1 to 3% of the adult population worldwide and has a high level of comorbidity with suicide rates, substance abuse and other harmful conditions. The disorder has possible ties to schizophrenia and has been observed to have a strong genetic component. The exact biological underpinnings have not been firmly established, however abnormalities in limbic subcortical and prefrontal areas have been observed.Ever since its discovery more than half a century ago, a daily intake of Lithium salts has arguably become the most reliable treatment of the disorder, despite us possessing little to no understanding of its biochemical action. In order to shed some light on the effect of Lithium in the brain, we have developed Lithium-7 MR imaging at 7 and 17 Tesla in order to assess its cerebral concentration and distribution. Specifically, I worked on developing and validating several acquisition, reconstruction and quantification methods dedicated to 7Li MRI and MRS. Those methods were first applied to study ex vivo the cerebral distribution of lithium in rats. These rats were pretreated for 28 days with Li2CO3, sacrificed and their head fixated with PFA. Using a home-made 1H/7Li radiofrequency surface coil and a 7Li Turbo Spin echo acquisition and a modified phantom replacement method for quantification, we were able to measure Li concentration maps. Regional Li concentration values were then compared with those obtained with mass spectrometry.After this preclinical proof-of-concept study, an in vivo 7Li MRI protocol was designed to map the cerebral Li concentration in euthymic bipolar subjects at 7T. These individuals all followed a regular lithium treatment. For this study, we chose to use an ultra-short echo-time Steady State Free Precession sequence with non-Cartesian k-space sampling. A quantification and analysis pipeline similar to the one used for our preclinical study was applied for this study, with the addition of a correction step for B0 inhomogeneities. After conducting a statistical analysis at the cohort level, it was assessed that the left hippocampus, a major part of the limbic system that has been associated with BD on multiple occasions, exhibited systematically a high level of lithium. Finally, I developed a quantification method accounting for the different relaxation times of 7Li in the CSF and in the brain parenchyma. This method was applied to image lithium at 7T in a subset of bipolar patients reducing drastically the differences initially observed between the SSFP and bSSFP sequences.
282

Multispektrální 3D skenování s vysokým rozlišením a jeho aplikace v medicíně / High-Resolution Multispectral 3D Scanning and its Medical Applications

Chromý, Adam January 2017 (has links)
Termovizní zobrazování i 3D skenování jsou v současné době rychle se rozvíjející technologie. Obě technologie mají mnoho výhod, které by mohly být užitečné v medicíně. Jejich datová fúze přináší ještě více nových diagnostických informací, než kdyby byly použity samostatně. Cílem této práce je vývoj multispektrálního 3D skenovacího systému založeného na novém způsobu snímání pomocí robotického manipulátoru vybaveného laserovým snímačem, teplotní kamerou a barevnou kamerou. Navržené řešení přináší jak flexibilitu, tak přesnost. Tento systém skenování je dále využit v klinických aplikacích, aby byly ověřeny jeho schopnosti a ukázány přínosy nad rámec současného stavu techniky.
283

Inversion cinématique progressive linéaire de la source sismique et ses perspectives dans la quantification des incertitudes associées / Progressive linear kinematic source inversion method and its perspectives towards the uncertainty quantification.

Sanchez Reyes, Hugo Samuel 28 October 2019 (has links)
La caractérisation des tremblements de terre est un domaine de recherche primordial en sismologie, où l'objectif final est de fournir des estimations précises d'attributs de la source sismique. Dans ce domaine, certaines questions émergent, par exemple : quand un tremblement de terre s’est-il produit? quelle était sa taille? ou quelle était son évolution dans le temps et l'espace? On pourrait se poser d'autres questions plus complexes comme: pourquoi le tremblement s'est produit? quand sera le prochain dans une certaine région? Afin de répondre aux premières questions, une représentation physique du phénomène est nécessaire. La construction de ce modèle est l'objectif scientifique de ce travail doctoral qui est réalisé dans le cadre de la modélisation cinématique. Pour effectuer cette caractérisation, les modèles cinématiques de la source sismique sont un des outils utilisés par les sismologues. Il s’agit de comprendre la source sismique comme une dislocation en propagation sur la géométrie d’une faille active. Les modèles de sources cinématiques sont une représentation physique de l’histoire temporelle et spatiale d’une telle rupture en propagation. Cette modélisation est dite approche cinématique car les histoires de la rupture inférées par ce type de technique sont obtenues sans tenir compte des forces qui causent l'origine du séisme.Dans cette thèse, je présente une nouvelle méthode d'inversion cinématique capable d'assimiler, hiérarchiquement en temps, les traces de données à travers des fenêtres de temps évolutives. Cette formulation relie la fonction de taux de glissement et les sismogrammes observés, en préservant la positivité de cette fonction et la causalité quand on parcourt l'espace de modèles. Cette approche, profite de la structure creuse de l’histoire spatio-temporelle de la rupture sismique ainsi que de la causalité entre la rupture et chaque enregistrement différé par l'opérateur. Cet opérateur de propagation des ondes connu, est différent pour chaque station. Cette formulation progressive, à la fois sur l’espace de données et sur l’espace de modèle, requiert des hypothèses modérées sur les fonctions de taux de glissement attendues, ainsi que des stratégies de préconditionnement sur le gradient local estimé pour chaque paramètre du taux de glissement. Ces hypothèses sont basées sur de simples modèles physiques de rupture attendus. Les applications réussies de cette méthode aux cas synthétiques (Source Inversion Validation Exercise project) et aux données réelles du séisme de Kumamoto 2016 (Mw=7.0), ont permis d’illustrer les avantages de cette approche alternative d’une inversion cinématique linéaire de la source sismique.L’objectif sous-jacent de cette nouvelle formulation sera la quantification des incertitudes d’un tel modèle. Afin de mettre en évidence les propriétés clés prises en compte dans cette approche linéaire, dans ce travail, j'explore l'application de la stratégie bayésienne connue comme Hamiltonian Monte Carlo (HMC). Cette méthode semble être l’une des possibles stratégies qui peut être appliquée à ce problème linéaire sur-paramétré. Les résultats montrent qu’elle est compatible avec la stratégie linéaire dans le domaine temporel présentée ici. Grâce à une estimation efficace du gradient local de la fonction coût, on peut explorer rapidement l'espace de grande dimension des solutions possibles, tandis que la linéarité est préservée. Dans ce travail, j'explore la performance de la stratégie HMC traitant des cas synthétiques simples, afin de permettre une meilleure compréhension de tous les concepts et ajustements nécessaires pour une exploration correcte de l'espace de modèles probables. Les résultats de cette investigation préliminaire sont encourageants et ouvrent une nouvelle façon d'aborder le problème de la modélisation de la reconstruction cinématique de la source sismique, ainsi, que de l’évaluation des incertitudes associées. / The earthquake characterization is a fundamental research field in seismology, which final goal is to provide accurate estimations of earthquake attributes. In this study field, various questions may rise such as the following ones: when and where did an earthquake happen? How large was it? What is its evolution in space and time? In addition, more challenging questions can be addressed such as the following ones: why did it occur? What is the next one in a given area? In order to progress in the first list of questions, a physical description, or model, of the event is necessary. The investigation of such model (or image) is the scientific topic I investigate during my PhD in the framework of kinematic source models. Understanding the seismic source as a propagating dislocation that occurs across a given geometry of an active fault, the kinematic source models are the physical representations of the time and space history of such rupture propagation. Such physical representation is said to be a kinematic approach because the inferred rupture histories are obtained without taking into account the forces that might cause the origin of the dislocation.In this PhD dissertation, I present a new hierarchical time kinematic source inversion method able to assimilate data traces through evolutive time windows. A linear time-domain formulation relates the slip-rate function and seismograms, preserving the positivity of this function and the causality when spanning the model space: taking benefit of the time-space sparsity of the rupture model evolution is as essential as considering the causality between rupture and each record delayed by the known propagator operator different for each station. This progressive approach, both on the data space and on the model space, does require mild assumptions on prior slip-rate functions or preconditioning strategies on the slip-rate local gradient estimations. These assumptions are based on simple physical expected rupture models. Successful applications of this method to a well-known benchmark (Source Inversion Validation Exercise 1) and to the recorded data of the 2016 Kumamoto mainshock (Mw=7.0) illustrate the advantages of this alternative approach of a linear kinematic source inversion.The underlying target of this new formulation will be the future uncertainty quantification of such model reconstruction. In order to achieve this goal, as well as to highlight key properties considered in this linear time-domain approach, I explore the Hamiltonian Monte Carlo (HMC) stochastic Bayesian framework, which appears to be one of the possible and very promising strategies that can be applied to this stabilized over-parametrized optimization of a linear forward problem to assess the uncertainties on kinematic source inversions. The HMC technique shows to be compatible with the linear time-domain strategy here presented. This technique, thanks to an efficient estimation of the local gradient of the misfit function, appears to be able to rapidly explore the high-dimensional space of probable solutions, while the linearity between unknowns and observables is preserved. In this work, I investigate the performance of the HMC strategy dealing with simple synthetic cases with almost perfect illumination, in order to provide a better understanding of all the concepts and required tunning to achieve a correct exploration of the model space. The results from this preliminary investigation are promising and open a new way of tackling the kinematic source reconstruction problem and the assessment of the associated uncertainties.
284

Contributions of radiomics in ¹⁸F-FDG PET/CT and in MRI in breast cancer / Apport de la radiomique dans la TEP/TDM au ¹⁸F-FDG et en IRM dans le cancer du sein

Boughdad, Sarah 20 November 2018 (has links)
Le cancer du sein est une pathologie fréquente pour lequel les examens TEP/TDM au ¹⁸F-FDG et IRM mammaire sont fréquemment réalisés en routine. Il existe cependant une sous-utilisation des informations apportées par chacune de ces techniques d'imagerie. En pratique, l’interprétation de ces examens est principalement basée sur l’analyse visuelle et l'analyse « quantitative » se résume généralement au SUVmax seul en TEP/TDM et à l’étude du rehaussement du signal après injection de produit de contraste en IRM mammaire (DCE-MRI). L’arrivée de nouvelles machines hybrides TEP/ IRM, nous a amené à évaluer l'apport d’une quantification avancée des images issues de chacune de ces modalités séparément et en combinaison. Cela rejoint un domaine en expansion « la radiomique » qui consiste à extraire un grand nombre de caractéristiques quantitatives des images médicales pour décrypter l’hétérogénéité tumorale ou améliorer la prédiction du pronostic.L’objectif de notre travail était d’étudier l’apport des données radiomiques extraites de l’imagerie TEP au ¹⁸F-FDG et de l’IRM avec injection de produit de contraste réalisées avant traitement pour caractériser l’hétérogénéité tumorale dans le cancer du sein, en prenant en compte les différents sous-types moléculaires de cancer du sein, à savoir les tumeurs luminales (Lum A, Lum B HER2- et Lum B HER2+), triple-négatives et HER2+. Une importance particulière a été portée sur la valeur prédictive des informations radiomiques extraites de ces 2 techniques d’imagerie pour prédire le pronostic dans un groupe de patientes traitées par chimiothérapie néo-adjuvante. L’influence de variations physiologiques telles que l’âge sur le calcul des données radiomiques dans le tissu mammaire normal et cancéreux séparément a également été explorée, de même que la variabilité multicentrique des index radiomiques. L’extraction de ces données radiomiques a été effectuée grace au logiciel LiFex développé au sein du laboratoire IMIV sur une base de données-patientes recueillie en rétrospective.Nous avons rapporté pour la première fois l’influence de l’âge sur le calcul des indices « radiomiques » en TEP dans le tissu mammaire sain dans 2 institutions différentes mais aussi dans les tumeurs mammaires notamment celle triple-négatives. Des associations significatives entre le « phénotype tumoral radiomique » en imagerie TEP et IRM et des données pronostiques reconnues dans le cancer du sein ont été mises en évidence. En outre, nous avons démontré l’existence d’une grande variabilité pour le « profil radiomique » en TEP parmi les tumeurs présentant le même sous-type moléculaire. Cela suggére l’existence d’informations non-redondantes au sein du « phénotype tumoral métabolique » de chaque tumeur mammaire défini par les données radiomiques. L’exploration de cette variabilité s’est révélée intéressante pour améliorer la prédiction de la réponse histologique chez les patientes avec des tumeurs triple-négatives traitées par chimiothérapie néo-adjuvante. Par ailleurs, les mesures effectuées dans la région mammaire péri-tumorale chez les patientes traitées par chimiothérapie néo-adjuvante se sont montrées prédictives pour les patientes avec des tumeurs Lum B HER2-. En IRM nous avons montré l’importance de standardiser la méthode de mesure des caractéristiques radiomiques. Nous avons observé que les caractéristiques radiomiques issues des images DCE-MRI étaient moins associées aux caractéristiques moléculaires des tumeurs et avaient une valeur prédictive moindre. Nous avons également proposé une nouvelle méthode relativement standardisée pour le calcul des données radiomiques en IRM mammaire avec des résultats intéressants mais cette méthode doit encore être optimisée. Cependant, nos résultats suggèrent que les données extraites de la totalité du volume tumorale en IRM compléteraient efficacement les caractéristiques radiomiques TEP et le sous-type moléculaire pour prédire la réponse à la chimiothérapie néo-adjuvante. / Breast cancer is a common disease for which ¹⁸F-FDG PET/CT and breast MRI are frequently performed in routine practice. However, the different information provided by each of these imaging techniques are currently under-exploited. Indeed, in routine the interpretation of these scans is mainly based on visual analysis whereas the « quantitative » analysis of PET/CT data is generally limited to the sole use of the SUVmax while in breast MRI, simple parameters to characterize tumor enhancement after injection of contrast medium are used. The advent of PET/MRI machines, calls for an evaluation of the contribution of a more advanced quantification of each of the modalities separately and in combination in the setting of breast cancer. This is along with the concept of « Radiomics » a field currently expanding and which consists in extracting many quantitative characteristics from medical images used in clinical practice to decipher tumor heterogeneity or improve prediction of prognosis. The aim of our work was to study the contribution of radiomic data extracted from ¹⁸F-FDG PET and MRI imaging with contrast injection to characterize tumor heterogeneity in breast cancer taking into account the different molecular subtypes of breast cancer, namely luminal (Lum A, Lum B HER2- and Lum B HER2 +), triple-negative and HER2 + tumors. In this context, we focused on the prediction of prognosis in patients treated with neo-adjuvant chemotherapy. The influence of physiological variations such as age on the calculation of radiomic data in normal breast and breast tumors separately was also explored, as well as the multi-center variability of radioman features. Radiomic features were extracted using the LiFex software developed within IMIV laboratory. The patient database used for the studies were all retrospective data. We reported for the first time the influence of age on the values of radiomic features in healthy breast tissue in patients recruited from 2 different institutions but also in breast tumors especially those with a triple-negative subtype. Similarly, significant associations between the radiomic tumor phenotype in PET and MRI imaging and well-established prognostic factors in breast cancer have been identified. In addition, we showed a large variability in the PET « radiomic profile » of breast tumors with similar breast cancer subtype suggesting complementary information within their metabolic phenotype defined by radiomic features. Moreover, taking into account this variability has been shown to be of particular interest in improving the prediction of pathological response in patients with triple-negative tumors treated with neoadjuvant chemotherapy. A peri-tumoral breast tissue region satellite to the breast tumor was also investigated and appeared to bear some prognostic information in patients with Lum B HER2- tumors treated with neoadjuvant chemotherapy. In MR, we demonstrated the need to harmonize the methods for radiomic feature calculation. Overall, we observed that radiomic features derived from MR were less informative about the molecular features of the tumors than radiomic features extracted from PET data and were of lower prognostic value. Yet, the combination of the enhanced tumor volume in MR with a PET radiomic feature and the tumor molecular subtype yielded enhanced the accuracy with which response to neoadjuvant therapy could be predicted compared to features from one modality only or molecular subtype only.
285

Rôle des ingrédients et des conditions de cuisson dans la qualité et réactivité des produits céréaliers : le cas du furane et des composés odorants dans la génoise / How ingredients and baking conditions impact quality and reactivity : the case of furan and aroma generation in sponge cake

Cepeda-Vázquez, Mayela 01 December 2017 (has links)
L'un des défis actuels de la chimie alimentaire est de développer des produits avec une qualité sanitaire et sensorielle optimale. Ceci est particulièrement important dans les produits traités thermiquement, tels que les produits céréaliers. Lors de la cuisson et à partir des ingrédients, un nombre considérable de composés peuvent se former. Certains suscitent une préoccupation sanitaire émergente, lorsque d'autres jouent un rôle sensoriel indéniable. Comprendre la réactivité des constituants devient alors un levier puissant pour développer des voies d'amélioration des aliments. Ce travail porte sur les effets des ingrédients et conditions de cuisson dans la génération de furane, composé possiblement cancérigène, et furfural, composé odorant contribuant à l'arôme caractéristique de la génoise. Afin de maîtriser la réactivité et ainsi optimiser la qualité des produits, une approche globale a été adoptée, incluant l'étude des composés volatils, des propriétés physicochimiques et sensorielles et l'appréciation hédonique des consommateurs. Ce travail propose une méthodologie et ouvre des pistes intéressantes pour développer des stratégies efficaces de maîtrise de la qualité globale des produits transformés. / A current challenge for food chemists consists in developing safe yet appealing food. This is particularly difficult in thermally-treated foods, like baked products, since a great number of compounds may be produced during heating. While some of these are of health concern, others contribute to other key aspects of quality, such as aroma or color, revealing the need of considering reactivity into food quality design. This work deals with the effects of formulation and baking conditions on the generation of furan, a heatinduced contaminant, and furfural, contributing typical aroma to sponge cake. Moreover, a holistic approach was adopted, covering volatile generation, physical properties, sensory evaluation and consumer tests, both for further understanding reactivity and optimizing product quality. This work is certainly an important step towards the development of novel strategies for qualitydriven design of heat-treated food.
286

Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques / Discretization of processes at stopping times and Uncertainty quantification of stochastic approximation limits

Stazhynski, Uladzislau 12 December 2018 (has links)
Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique; on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA. / This thesis consists of two parts which study two separate subjects. Chapters 1-4 are devoted to the problem of processes discretization at stopping times. In Chapter 1 we study the optimal discretization error of stochastic integrals, driven by a multidimensional continuous Brownian semimartingale. In this setting we establish a path wise lower bound for the renormalized quadratic variation of the error and we provide a sequence of discretization stopping times, which is asymptotically optimal. The latter is defined as hitting times of random ellipsoids by the semimartingale at hand. In comparison with previous available results, we allow a quite large class of semimartingales and we prove that the asymptotic lower bound is attainable. In Chapter 2 we study the model-adaptive optimal discretization error of stochastic integrals. In Chapter 1 the construction of the optimal strategy involved the knowledge about the diffusion coefficient of the semimartingale under study. In this work we provide a model-adaptive asymptotically optimal discretization strategy that does not require any prior knowledge about the model. In Chapter 3 we study the convergence in distribution of renormalized discretization errors of Ito processes for a concrete general class of random discretization grids given by stopping times. Previous works on the subject only treat the case of dimension 1. Moreover they either focus on particular cases of grids, or provide results under quite abstract assumptions with implicitly specified limit distribution. At the contrast we provide explicitly the limit distribution in a tractable form in terms of the underlying model. The results hold both for multidimensional processes and general multidimensional error terms. In Chapter 4 we study the problem of parametric inference for diffusions based on observations at random stopping times. We work in the asymptotic framework of high frequency data over a fixed horizon. Previous works on the subject consider only deterministic, strongly predictable or random, independent of the process, observation times, and do not cover our setting. Under mild assumptions we construct a consistent sequence of estimators, for a large class of stopping time observation grids. Further we carry out the asymptotic analysis of the estimation error and establish a Central Limit Theorem (CLT) with a mixed Gaussian limit. In addition, in the case of a 1-dimensional parameter, for any sequence of estimators verifying CLT conditions without bias, we prove a uniform a.s. lower bound on the asymptotic variance, and show that this bound is sharp. In Chapters 5-6 we study the problem of uncertainty quantification for stochastic approximation limits. In Chapter 5 we analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit is defined as the zero of a function given by an expectation. The expectation is taken w.r.t. a random variable for which the model is assumed to depend on an uncertain parameter. We consider the SA limit as a function of this parameter. We introduce the so-called Uncertainty for SA (USA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of this function on an orthogonal basis of a suitable Hilbert space. The almost-sure and Lp convergences of USA, in the Hilbert space, are established under mild, tractable conditions. In Chapter 6 we analyse the L2-convergence rate of the USA algorithm designed in Chapter 5.The analysis is non-trivial due to infinite dimensionality of the procedure. Moreover, our setting is not covered by the previous works on infinite dimensional SA. The obtained rate depends non-trivially on the model and the design parameters of the algorithm. Its knowledge enables optimization of the dimension growth speed in the USA algorithm, which is the key factor of its efficient performance.
287

Propagation d’incertitudes à travers des modèles dynamiques d’assemblages de structures mécaniques / Uncertainty propagation through dynamic models of assemblies of mechanical structures

Daouk, Sami 15 November 2016 (has links)
Lors de l'étude du comportement des systèmes mécaniques, les modèles mathématiques et les paramètres structuraux sont généralement considérés déterministes. Néanmoins, le retour d'expérience montre que ces éléments sont souvent incertains, dû à une variabilité naturelle ou manque de connaissance. La quantification de la qualité et la fiabilité du modèle numérique d'un assemblage industriel reste alors une question majeure en dynamique basse-fréquence. L'objectif de cette thèse est d'améliorer le dimensionnement vibratoire des assemblages boulonnés par la mise en place d'un modèle dynamique de connecteur prenant en compte différents types et sources d'incertitudes sur des paramètres de raideur, de manière simple, efficace et exploitable dans un contexte industriel. Ces travaux s'inscrivent dans le cadre du projet SICODYN, piloté par EDF R&D, visant à caractériser et quantifier les incertitudes sur le comportement dynamique des assemblages industriels boulonnés sous les aspects numérique et expérimental. Des études comparatives de plusieurs méthodes numériques de propagation d'incertitudes montrent l'avantage de l'utilisation de la théorie des méconnaissances. Une caractérisation expérimentale des incertitudes dans les structures boulonnées est réalisée sur un banc d'essai dynamique et sur un assemblage industriel. La propagation de plusieurs faibles et fortes incertitudes à travers différents modèles dynamiques d’assemblages mécaniques permet d'aboutir à l’évaluation de l'efficacité de la théorie des méconnaissances et son applicabilité en milieu industriel. / When studying the behaviour of mechanical systems, mathematical models and structural parameters are usually considered deterministic. Return on experience shows however that these elements are uncertain in most cases, due to natural variability or lack of knowledge. Therefore, quantifying the quality and reliability of the numerical model of an industrial assembly remains a major question in low-frequency dynamics. The purpose of this thesis is to improve the vibratory design of bolted assemblies through setting up a dynamic connector model that takes account of different types and sources of uncertainty on stiffness parameters, in a simple, efficient and exploitable in industrial context. This work has been carried out in the framework of the SICODYN project, led by EDF R&D, that aims to characterise and quantify, numerically and experimentally, the uncertainties in the dynamic behaviour of bolted industrial assemblies. Comparative studies of several numerical methods of uncertainty propagation demonstrate the advantage of using the Lack-Of-Knowledge theory. An experimental characterisation of uncertainties in bolted structures is performed on a dynamic test rig and on an industrial assembly. The propagation of many small and large uncertainties through different dynamic models of mechanical assemblies leads to the assessment of the efficiency of the Lack-Of-Knowledge theory and its applicability in an industrial environment.
288

Stratégies numériques innovantes pour l’assimilation de données par inférence bayésienne / Development of innovative numerical strategies for Bayesian data assimilation

Rubio, Paul-Baptiste 15 October 2019 (has links)
Ce travail se place dans le cadre de l'assimilation de données en mécanique des structures. Il vise à développer de nouveaux outils numériques pour l'assimilation de données robuste et en temps réel afin d'être utilisés dans diverses activités d'ingénierie. Une activité cible est la mise en œuvre d'applications DDDAS (Dynamic Data Driven Application System) dans lesquelles un échange continu entre les outils de simulation et les mesures expérimentales est requis dans le but de créer une boucle de contrôle rétroactive sur des systèmes mécaniques connectés. Dans ce contexte, et afin de prendre en compte les différentes sources d'incertitude (erreur de modélisation, bruit de mesure,...), une méthodologie stochastique puissante est considérée dans le cadre général de l’inférence bayésienne. Cependant, un inconvénient bien connu d'une telle approche est la complexité informatique qu’elle engendre et qui rend les simulations en temps réel et l'assimilation séquentielle des données difficiles.Le travail de thèse propose donc de coupler l'inférence bayésienne avec des techniques numériques attrayantes et avancées afin d'envisager l’assimilation stochastique de données de façon séquentielle et en temps réel. Premièrement, la réduction de modèle PGD est introduite pour faciliter le calcul de la fonction de vraisemblance, la propagation des incertitudes dans des modèles complexes et l'échantillonnage de la densité a posteriori. Ensuite, l'échantillonnage par la méthode des Transport Maps est étudiée comme un substitut aux procédures classiques MCMC pour l'échantillonnage de la densité a posteriori. Il est démontré que cette technique conduit à des calculs déterministes, avec des critères de convergence clairs, et qu'elle est particulièrement adaptée à l'assimilation séquentielle de données. Là encore, l'utilisation de la réduction de modèle PGD facilite grandement le processus en utilisant les informations des gradients et hessiens d'une manière simple. Enfin, et pour accroître la robustesse, la correction à la volée du biais du modèle est abordée à l'aide de termes d'enrichissement fondés sur les données. Aussi, la sélection des données les plus pertinentes pour l’objectif d’assimilation est abordée.Cette méthodologie globale est appliquée et illustrée sur plusieurs applications académiques et réelles, comprenant par exemple le recalage en temps réel de modèles pour le contrôle des procédés de soudage, ou l’étude d'essais mécaniques impliquant des structures endommageables en béton instrumentées par mesures de champs. / The work is placed into the framework of data assimilation in structural mechanics. It aims at developing new numerical tools in order to permit real-time and robust data assimilation that could then be used in various engineering activities. A specific targeted activity is the implementation of DDDAS (Dynamic Data Driven Application System) applications in which a continuous exchange between simulation tools and experimental measurements is envisioned to the end of creating retroactive control loops on mechanical systems. In this context, and in order to take various uncertainty sources (modeling error, measurement noise,..) into account, a powerful and general stochastic methodology with Bayesian inference is considered. However, a well-known drawback of such an approach is the computational complexity which makes real-time simulations and sequential assimilation some difficult tasks.The PhD work thus proposes to couple Bayesian inference with attractive and advanced numerical techniques so that real-time and sequential assimilation can be envisioned. First, PGD model reduction is introduced to facilitate the computation of the likelihood function, uncertainty propagation through complex models, and the sampling of the posterior density. Then, Transport Map sampling is investigated as a substitute to classical MCMC procedures for posterior sampling. It is shown that this technique leads to deterministic computations, with clear convergence criteria, and that it is particularly suited to sequential data assimilation. Here again, the use of PGD model reduction highly facilitates the process by recovering gradient and Hessian information in a straightforward manner. Eventually, and to increase robustness, on-the-fly correction of model bias is addressed using data-based enrichment terms.The overall cost-effective methodology is applied and illustrated on several academic and real-life test cases, including for instance the real-time updating of models for the control of welding processes, or that of mechanical tests involving damageable concrete structures with full-field measurements.
289

Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications. / Correspondence between Gaussian process regression and interpolation splines under linear inequality constraints. Theory and applications

Maatouk, Hassan 01 October 2015 (has links)
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée. / This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities.
290

Quantification of the Effects of Soil Uncertainties on Nonlinear Site Response Analysis: Brute Force Monte Carlo Approach

Eshun, Kow Okyere 28 May 2013 (has links)
No description available.

Page generated in 0.0578 seconds