• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 274
  • 163
  • 47
  • 25
  • 22
  • 19
  • 10
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 1190
  • 259
  • 193
  • 143
  • 124
  • 87
  • 74
  • 67
  • 61
  • 61
  • 61
  • 61
  • 57
  • 54
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

La quantification ciblée de protéines et peptides par chromatographie liquide couplée à la spectrométrie de masse en tandem : développements analytiques et applications / Absolute and targeted quantification of proteins and peptides by liquid chromatography coupled with tandem mass spectrometry : analytical developments and applications

Simon, Romain 11 July 2012 (has links)
En recherche clinique ou environnementale, les biomarqueurs protéiques présentent un intérêt croissant. Bien que les immuno-dosages restent les méthodes de référence pour leur quantification, les récentes avancées en spectrométrie de masse (MS) font de cette technique une alternative crédible à l’ELISA. Ce travail apporte quelques éléments méthodologiques pour repousser certaines limitations de la MS. D’abord, deux dosages ont été proposés. Celui réalisé chez G. fossarum représente le premier exemple de dosage de la Vitellogénine chez un invertébré par LC-MS/MS. L’un des défis de la méthode présentée est de doser spécifiquement une protéine dans un organisme dont le génome est majoritairement inconnu. Le second dosage concerne les peptides contenant une méthionine. Nous avons développé un protocole d’oxydation des méthionines afin de s’affranchir du biais lié à leur oxydation partielle. Cette méthode a ensuite été appliquée à une protéine impliquée dans la maladie d’Alzheimer (l’Apolipoprotéine E4) dans une cohorte de 673 plasmas. Ce dosage est à ce jour l’une des plus grandes études réalisées par LC-MS/MS et montre toute la robustesse de cette approche. Enfin, l’influence de la phase mobile sur la sensibilité des dosages de peptides a été étudiée : d’abord en phase inverse, où le méthanol est une bonne alternative à l’acétonitrile ; ensuite en HILIC, où les difficultés liées à l’étude d’ions multichargés en milieu majoritairement organique ont été abordées. Les problèmes liés à la capacité de charge des colonnes ont également été soulevés. La chromatographie HILIC reste prometteuse pour la quantification de peptides puisqu’un facteur dix en sensibilité peut être apporté. / Both in clinical and environmental research, protein biomarkers are of growing interest. Although immunoassays are the gold standard for their quantification, recent advances in mass spectrometry (MS) make this technique a viable alternative to ELISA. This work provides some methodological elements to eliminate some limitations of the MS approach. First, two assays have been proposed. The first one achieved for G. fossarum represents the first example of quantification of vitellogenin in an invertebrate by LC-MS/MS. One of the challenges of the presented method is to specifically assay a protein in an organism whose genome is largely unknown. The second assay relates to methionine-containing peptides. A protocol was developped for total oxidation of methionines in order to overcome the bias due to their partial oxidation. This method was then applied to a protein involved in Alzheimer's disease (Apolipoprotein E4) in a cohort of 673 plasma samples. This assay is to date one of the largest study carried out by LC-MS/MS and shows all the robustness of this approach. Lastly, the influence of the mobile phase on the sensitivity of peptides assays was studied: first in reversed phase, where methanol is a good alternative to acetonitrile; then in HILIC, where the difficulties associated with the study of multicharged ions in a mainly organic content were discussed. Problems related to the carrying capacity of the columns were also raised.
192

Quantification multiparamétrique par TEP à la 18F-Choline et IRM dans le cancer de la prostate / Multiparametric quantification by 18F-Choline PET and MRI in prostate cancer

Palard, Xavier 14 December 2018 (has links)
Problématique : Les paramètres fonctionnels extraits en Tomographie par Émission de Positons (TEP) à la 18F-Choline (FCH) et en Imagerie par Résonance Magnétique (IRM) apportent-ils une information supplémentaire par rapports aux informations déjà connues pour caractériser l’agressivité du tissu tumoral ? Objectifs : Notre travail avait pour objectifs tout d’abord (i) de mettre en évidence un éventuel lien entre les paramètres quantitatifs extraits par TEP à la FCH et et les paramètres clinicopathologiques dans le cancer de la prostate. Après cette étude préliminaire, pour quantifier au mieux l’influx de FCH par analyse dynamique de l’acquisition précoce, la deuxième étape avait pour but (ii) d’optimiser cette acquisition. Enfin (iii), le dernier objectif était de mettre en évidence un éventuel lien entre les paramètres quantitatifs extraits par TEP à la FCH et les paramètres quantitatifs extraits par IRM multiparamétrique. Résultats : Pour la première étape (i), nous avons comparé les paramètres quantitatifs extraits par TEP à la FCH et les paramètres clinico-pathologiques de 61 patients venant en TEP à la FCH pour le bilan d’extension initial. L’influx de FCH mesuré par analyse dynamique était plus élevé pour les patients avec un score de Gleason ≥ 4+3 que pour les patients avec un score de Gleason < 4 + 3. Pour la deuxième étape (ii), nous avons tout d’abord voulu optimiser la durée de l’acquisition précoce de TEP à la FCH en comparant le contraste sur bruit de 77 lésions tumorales à 5 minutes et 10 minutes après l’injection de FCH. Le contraste sur bruit à 5 minutes n’était statistiquement pas différent de celui à 10 minutes. La deuxième phase de l’optimisation de l’acquisition précoce de la TEP à la FCH consistait à déterminer quel était le meilleur échantillonnage temporel de ces 5 minutes par la comparaison de 7 échantillonnages temporels différents avec un objectif d’influx de FCH extrait de 37 lésions. L’échantillonnage temporel 12x5”-8x30” a été retenu. Pour la dernière étape (iii), nous avons comparé les paramètres TEP et IRM extraits de 14 lésions tumorales prostatiques. L’influx de FCH et la constante de transfert du gadolinium étaient corrélés, toutefois de manière modérée (r = 0,55). Conclusion : L’influx de FCH mesuré par analyse dynamique de l’acquisition précoce en TEP semble lié à la différenciation des cancers prostatiques. Cet influx semble également lié à la constante de transfert du gadolinium. Ces 2 paramètres d’imagerie semblent toutefois quantifier des processus physiopathologiques différents. Les différents résultats obtenus justifient la poursuite des travaux pour évaluer le rôle de marqueur d’agressivité des cellules cancéreuses prostatiques des différents paramètres quantitatifs obtenus par imagerie fonctionnelle par TEP à la FCH et par IRM multiparamétrique. / Research question: Do the functional parameters derived by 18F-Choline (FCH) Positon Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) add informations to characterize the aggressiveness of prostate cancer? Objectives: The first objective of this work was (i) to enhance a potential link between quantitative parameters extracted by FCH PET and clinicopathological parameters in prostate cancer. Then, after this preliminary study, in order to optimize the quantification of the FCH influx with a kinetic analysis, the second objective was (ii) to optimize the exam protocol of the FCH PET early acquisition. Finally, the last objective was (iii) to enhance a potential link between quantitative parameters extracted by FCH PET and quantitative parameters extracted by multiparametric MRI in prostate cancer. Results: For the first step (i), we compared FCH PET quantitative parameters and clinicopathological parameters extracted from 61 patients referred to the nuclear medicine department to perform an FCH PET/ CT with newly histologically proven prostate cancer and before any treatment The FCH influx measured using kinetic analysis was higher for patients with a Gleason score ≥ 4+3 than for patients with a Gleason score < 4 + 3. Concerning the second step (ii), firstly, we compared the contrast to noise ratio of 77 prostatic cancer lesions at 5 minutes and 10 minutes post-injection in order to optimize the length of the early FCH PET acquisition. No significant difference was observed. Secondly, we sought to define an optimal time sampling of the early FCH PET acquisition comparing 7 different time samplings with a FCH influx as objective extracted from 37 prostatic cancer lesions. The 12x5”-8x30” time sampling was selected. For the last step of this work (iii), we compared FCH PET and multiparametric MRI quantitative parameters extracted from 14 prostatic cancer lesions. The FCH influx was moderately correlated to the vessel permeability measured by the volume transfert constant of gadolinium (r = 0.55). Conclusion: The FCH influx extracted from the early FCH PET acquisition using kinetic analysis seems to be linked to the tumoral differentiation of prostatic cancers. This FCH influx seems also linked to the vessel permeability. However, due to the moderate degree of correlation, these two imaging parameters reflect two different processes. To confirm the results obtained in this work, other studies are needed to enhance the role of the functional parameters derived by FCH PET and multiparametric MRI as biomarkers for prostate cancer.
193

Contribution au développement d'un dispositif robuste de détection-diffusion d'huiles essentielles à concentration contrôlée / Development of a robust detection-diffusion system for essential oils concentration control

Ahmadou, Mohamed Diaa 04 December 2015 (has links)
Ce travail contribue à la conception d’un système de détection-diffusion contrôlant en temps réel la concentration en huile essentielle dans un espace confiné. L’objectif est d’assurer la reproductibilité des conditions d’exposition aux stimuli olfactifs de sujets vivants, afin de tester les impacts neurosensoriels provoqués. La principale contrainte est de pouvoir mesurer, avec de bonnes qualités de rapidité et précision, la concentration odorante d’une atmosphère. Pour la détection gazeuse, le choix s’est porté sur un dispositif basé sur des capteurs de gaz commerciaux à base d’oxyde métalliques (nez électronique), couplé à un étalonnage préalable sous concentrations fixes d’huile essentielle de pin. Un équipement expérimental a été mis au point afin d’étudier, de caractériser et surtout d’optimiser les performances de ce dispositif. De premières études ont permis de classer les capteurs selon la rapidité, la sensibilité et le niveau de dérives, et d’optimiser la procédure de mesures : cycle d’exposition gazeuse de 75sec suivie de 350sec de régénération des capteurs sous air pur. Une caractérisation a été menée à partir de mesures systématiques réalisées sous diverses variations (croissantes, décroissantes, aléatoires) de concentration, prenant ainsi en compte toutes les formes possibles de dérive. Afin de réduire les erreurs dues à ces dérives, un prétraitement original a été initié en normalisant les signaux de réponse, grâce à la réponse de chaque capteur prise en fin de régénération. Deux descripteurs normalisés (conductance moyenne et maximale) ainsi que la valeur maximale de la courbe dérivée de chaque réponse temporelle ont été définis pour chaque capteur. L’exploitation de la base de données constituée à l’aide de ces trois paramètres par des méthodes de classification ACP et AFD montrent la difficulté de différencier les hautes concentrations, même en éliminant les deux capteurs les moins performants. Une toute nouvelle approche est alors proposée en combinant la technique de correction orthogonale des signaux (OSC), conduisant à la suppression des informations non pertinentes de la base de données, suivie d’une régression des moindres carrés partiels (PLS) adaptée aux problèmes de multi-colinéarité et au nombre élevé de variables. L’association de ces méthodes permet une meilleure discrimination des fortes concentrations, tout en garantissant le maximum de stabilité au modèle de régression et la précision d’estimation requise des concentrations gazeuses. Enfin, cette discrimination a été optimisée en remplaçant les trois paramètres représentatifs précédents par l’intégralité des signaux de réponse, le temps de calcul nécessaire restant modique. Une très bonne évaluation de la concentration gazeuse dans toute la gamme utilisée a alors été obtenue. Nous avons ainsi élaboré un modèle robuste et précis pour l’étalonnage de notre système, grâce à des méthodes d’analyse et de prétraitement judicieux, qui permet d’entreprendre la réalisation du prototype. / ControlThis work contributes to the design of a gas diffusion-sensing system controlling in real time the essential oil concentration in a confined atmosphere. The objective is to create reproducible exposure conditions of olfactory stimuli on living beings to test their neurosensory impacts. The main constraint is to measure with good accuracy and rapidity the odor concentration of a global atmosphere. We decided to use a gaseous detection device (electronic nose) based on commercial resistive metal oxide sensors coupled to a prior learning at fixed concentrations of pine essential oil. Experimental equipment was first developed in order to study, characterize and especially optimize the device performances to be achieved. Initially, the study of time gas sensor responses was used to optimize working measurement conditions: cycle of 75s gas exposure phase, followed by 350s pure air regeneration phase. First results allowed the classification of our sensors in terms of rapidity, sensitivity and drift levels. A systematic characterization measurement was made under various concentration variations: increasing, decreasing or random ones taking account of all possible forms of response drifts. To reduce errors due to the drifts, an original pretreatment was initiated by normalizing each sensor response value in relation with its corresponding conductance value at the end of regeneration phase. Two normalized features and also the maximum value of the derivative curve were defined for each time sensor response. The analysis by ACP and AFD classification methods of the database created using these three features show the difficulty in differentiating high concentrations, even by eliminating the two least efficient sensors. So, a completely new approach was proposed by combining the orthogonal signal correction technique (OSC) allowing to remove irrelevant information, and the Partial Linear Square regression method PLS, adapted in case of multi-collinearity and a large number of parameters. Using these two methods yields a much better discrimination of the high concentrations, maintaining the concentration prediction accuracy with a maximum stability of the regression model. Finally, the concentration prediction has been optimized by substituting representative parameters with the full response signal, the calculation time remaining low. A very good assessment of the gas concentration in all the used range was obtained. So we have developed a robust and accurate model for the calibration of our system thanks to a combination of original processing and analysis methods, allowing to achieve a reliable detection-diffusion prototype
194

Quantification non invasive de la fibrose cardiaque diffuse par imagerie de résonance magnétique et par cartographie endocavitaire / Quantification of cardiac fibrosis by magnetic resonance imaging and endocardial mapping

Bun, Sok-Sithikun 22 June 2018 (has links)
La fibrose cardiaque fait le lit des arythmies cardiaques, qu’elles soient atriales ou ventriculaires. L’IRM est devenue un outil non invasif indispensable pour diagnostiquer la présence de fibrose au niveau cardiaque, mais offre également des informations pronostiques, ainsi que pour le suivi des patients atteints de fibrillation auriculaire (FA), notamment persistante. La technique de référence reste le rehaussement tardif après injection de gadolinium, permettant de révéler des régions localisées de fibrose. Notre travail a consisté en la mise au point d’une technique non invasive (par la mesure du T2 avec IRM à haut champ à 11,75 T) afin de quantifier la fibrose myocardique interstitielle diffuse dans un modèle de souris diabétiques. La fibrose a été significativement corrélée à une survenue plus importante des arythmies ventriculaires en comparaison avec un groupe de souris contrôles. L’étape suivante a été de transposer cette technique de mesure de T2 en IRM clinique chez des patients devant bénéficier d’une procédure d’ablation de FA. La deuxième technique, cette fois-ci invasive pour évaluer la fibrose (notamment atriale) pour les patients atteints de FA est la cartographie de voltage au niveau de l’oreillette gauche. Nous avons utilisé un nouveau système de cartographie à ultra-haute définition afin de quantifier la fibrose (zones cicatricielles denses) correspondant aux régions dont les signaux enregistrés avaient une amplitude bipolaire inférieure à 0,015 mV, soit très en deçà des seuils précédemment rapportés concernant la fibrose. / Fibrosis represents the main substrate for cardiac arrhythmias, either atrial or ventricular. MRI has become a critical tool to not only diagnose the presence of cardiac fibrosis, but also provides important informations on the prognosis and the follow-up of patients with atrial fibrillation (AF), especially in its persistent type. The gold standard is the Late Gadolinium Enhancement, allowing to reveal localized regions of fibrosis. Our study reported a technique for non invasive quantification of interstitial diffuse ventricular fibrosis in diabetic mice (T2 measurement high field MRI at 11,75 T). This fibrosis was significantly correlated to the occurrence of ventricular arrhythmias in comparison with the control group. The next step was the transposition of this T2 measurement with MRI in the clinical setup of patients who undergo an AF ablation procedure. The second technique for atrial fibrosis assessment for patients suffering from AF is the invasive realization of left atrial voltage mapping. A new ultra-high definition system was used to quantify the fibrosis (dense scar) in regions with bipolar amplitude electrograms of less than 0,015 mV. This cutoff was far lower than the previously published definition of the dense scar in the literature (< 0,1 mV).
195

Analyse de sensibilité pour systèmes hyperboliques non linéaires / Sensitivity analysis for nonlinear hyperbolic equations of conservation laws

Fiorini, Camilla 11 July 2018 (has links)
L’analyse de sensibilité (AS) concerne la quantification des changements dans la solution d’un système d’équations aux dérivées partielles (EDP) dus aux varia- tions des paramètres d’entrée du modèle. Les techniques standard d’AS pour les EDP, comme la méthode d’équation de sensibilité continue, requirent de dériver la variable d’état. Cependant, dans le cas d’équations hyperboliques l’état peut présenter des dis- continuités, qui donc génèrent des Dirac dans la sensibilité. Le but de ce travail est de modifier les équations de sensibilité pour obtenir un syst‘eme valable même dans le cas discontinu et obtenir des sensibilités qui ne présentent pas de Dirac. Ceci est motivé par plusieurs raisons : d’abord, un Dirac ne peut pas être saisi numériquement, ce qui pourvoit une solution incorrecte de la sensibilité au voisinage de la discontinuité ; deuxièmement, les pics dans la solution numérique des équations de sensibilité non cor- rigées rendent ces sensibilités inutilisables pour certaines applications. Par conséquent, nous ajoutons un terme de correction aux équations de sensibilité. Nous faisons cela pour une hiérarchie de modèles de complexité croissante : de l’équation de Burgers non visqueuse au système d’Euler quasi-1D. Nous montrons l’influence de ce terme de correction sur un problème d’optimisation et sur un de quantification d’incertitude. / Sensitivity analysis (SA) concerns the quantification of changes in Partial Differential Equations (PDEs) solution due to perturbations in the model input. Stan- dard SA techniques for PDEs, such as the continuous sensitivity equation method, rely on the differentiation of the state variable. However, if the governing equations are hyperbolic PDEs, the state can exhibit discontinuities yielding Dirac delta functions in the sensitivity. We aim at modifying the sensitivity equations to obtain a solution without delta functions. This is motivated by several reasons: firstly, a Dirac delta function cannot be seized numerically, leading to an incorrect solution for the sensi- tivity in the neighbourhood of the state discontinuity; secondly, the spikes appearing in the numerical solution of the original sensitivity equations make such sensitivities unusable for some applications. Therefore, we add a correction term to the sensitivity equations. We do this for a hierarchy of models of increasing complexity: starting from the inviscid Burgers’ equation, to the quasi 1D Euler system. We show the influence of such correction term on an optimization algorithm and on an uncertainty quantification problem.
196

La céramique tardo-républicaine en Italie centro-tyrrhénienne : établissement et confrontation des faciès du Latium septentrional et d'Etrurie méridionale entre le IIe s. et le Ier s. av.n.è. / The Late republican pottery in centro-Tyrrhenian Italy : establishment and confrontation of the northern Latium and southern Etruria faciès between the IIth and Ist c. B.C.

Motta, Lucie 14 January 2019 (has links)
La céramique n’est désormais plus à établir comme élément fondamental de nos connaissances des mondes anciens, que ce soit d’un point de vue chronologique, économique ou culturel puisqu’au-delà de son rôle d’élément datant auquel s’arrêtent encore bien trop d’études, elle est une des principales sources d’informations en étant un produit direct de la culture qui l’a produite. Sa quasi-omniprésence dans le mobilier archéologique et les fortes quantités excavées ne sont alors pas sans liens avec la solidité du matériau. En effet, bien que les objets ainsi réalisés soient aisément brisables, la matière constitutive – l’argile cuite – est particulièrement résistante et ne se détruit que difficilement, que ce soit par le sol et sa nature, le temps, l’action de l’homme ou la combinaison de ces divers facteurs. Elle n’est notamment pas recyclable comme peuvent l’être le verre ou les métaux, et encore moins périssable comme les matières organiques.Le choix d’orienter cette recherche sur l’Italie centro-tyrrhénienne tardo-républicaine n’est évidemment pas anodin et résulte de la constatation d’une lacune flagrante dans nos connaissances de sa céramique, bien qu’il s’agisse d’un ancrage, aussi bien chronologique que géographique, charnière de l’Histoire romaine. Ainsi, la ligne directrice de ce travail vise à constituer une première tentative de caractérisation du faciès céramique, aussi bien dans son uniformité que dans ses spécificités régionales et de déterminer son évolution interne, que ce soit en matière de classes, catégories, formes et types.Pour ce faire, une méthodologie rigoureuse a été mise en place afin de disposer d’un corpus composé d’éléments suffisamment similaires pour établir un raisonnement fiable. Trois axes ont notamment été au cœur de cette réflexion : la nature des contextes, la possibilité de disposer de l’intégralité du matériel céramique et la quantification.L’étude s’est alors concentrée sur deux aires géographiques bien précises – le Latium septentrional et l’Étrurie méridionale – pour lesquelles il a fallu établir les faciès respectifs et leurs évolutions en s’interrogeant sur les rapports des classes, catégories, formes, types et provenances à travers trois ères chronologiques – la première moitié du IIe s., la seconde moitiédu IIe s., et le Ier s. av. n.è. Des études macroscopiques ont également été réalisées sur les pâtes du matériel provenant des études de cas. Les groupes techniques mis en évidence ont alors été confrontés aux données déjà existantes afin de faire ressortir les zones d’approvisionnement, les questions d’échanges commerciaux, d’importations et de productions locales ou régionales.Plus modestement, cette étude a également tenté d’ouvrir le discours aux tendances et pratiques alimentaires en confrontant les résultats, notamment morphologiques et fonctionnels, obtenus lors de l’établissement du faciès avec les sources littéraires et les études déjà menées sur le sujet. Notons enfin que ce travail, loin d’être définitif, devra être nourri par d’autres recherches afin de s’amplifier pour confirmer ou infirmer les hypothèses proposées. / Pottery artifacts are now considered without any doubts as essential elements of our knowledge in ancient worlds in chronological, economical or cultural points of view. Indeed, beyond its use as a dating guide in which so many studies are limited, it's one of the most important source of information beeing a direct product of the society who made it. Itsomnipresence in the archaeological rests and the hight quantity of sherds are linked to the solididy of the material. Indeed, even if the objects are easily breakable, the material – the fired clay – is particularly resistant and destroyable only with difficulty, whether it is by the ground and its nature, the time, the human action or the combination of these various factors. Moreover,it's not recyclable as can be it the glass or the metals, and even less perishable as the organic matters.The choice to focus this research on Late republican centro-Tyrrhenian Italy is not obviously harmless and results from the observation of a blatant gap in our knowledge of its ceramic, although it is about an anchoring, so chronological as geographical, hinge of the Roman History. So, the guideline of this work aims at constituting a first attempt of characterization of the ceramic faciès, as well in its uniformity as in its regional specificities and to determine its internal evolution, whether it is regarding classes, categories, forms and types.To do it, a rigorous methodology was organized to have a corpus compound of enoughsimilar elements to establish a reliable argument. Three axes were in particular at the heart ofthis reflection : the nature of contexts, the possibility of having all the rests and thequantification.The present study focus on two very precise geographical areas - the northern Lazio and the southern Etruria - for which it was necessary to establish the respective faciès and their evolutions by questionning the reports of classes, categories, forms, types and proveniance, through three chronological erae - the first half of IIth s, the second half of IIth s, and Ier s B.C. Macroscopic studies were also realized on clays of the material from two case studies. The technical groups were then confronted with the already existing data to highlight the zones of supply, the questions of trade, imports and local or regional productions.More modestly, this study also tried to open the research to the food practices by confronting the results, in particular morphological and functional, obtained during the establishment of the faciès with the literary sources and the studies already led on the subject. Finally this work, far from being definitive, must be fed by other researches to increase to confirm or counter the proposed hypotheses.
197

Predictive numerical simulations for rebuilding freestream conditions in atmospheric entry flows / Simulations numériques prédictives pour la reconstruction des conditions en amont dans les écoulements de rentrée atmosphérique

Cortesi, Andrea Francesco 16 February 2018 (has links)
Une prédiction fidèle des écoulements hypersoniques à haute enthalpie est capitale pour les missions d'entrée atmosphérique. Cependant, la présence d'incertitudes est inévitable, sur les conditions de l'écoulement libre comme sur d'autres paramètres des modèles physico-chimiques. Pour cette raison, une quantification rigoureuse de l'effet de ces incertitudes est obligatoire pour évaluer la robustesse et la prédictivité des simulations numériques. De plus, une reconstruction correcte des paramètres incertains à partir des mesures en vol peut aider à réduire le niveau d'incertitude sur les sorties. Dans ce travail, nous utilisons un cadre statistique pour la propagation directe des incertitudes ainsi que pour la reconstruction inverse des conditions de l'écoulement libre dans le cas d'écoulements de rentrée atmosphérique. La possibilité d'exploiter les mesures de flux thermique au nez du véhicule pour la reconstruction des variables de l'écoulement libre et des paramètres incertains du modèle est évaluée pour les écoulements de rentrée hypersoniques. Cette reconstruction est réalisée dans un cadre bayésien, permettant la prise en compte des différentes sources d'incertitudes et des erreurs de mesure. Différentes techniques sont introduites pour améliorer les capacités de la stratégie statistique de quantification des incertitudes. Premièrement, une approche est proposée pour la génération d'un métamodèle amélioré, basée sur le couplage de Kriging et Sparse Polynomial Dimensional Decomposition. Ensuite, une méthode d'ajoute adaptatif de nouveaux points à un plan d'expériences existant est présentée dans le but d'améliorer la précision du métamodèle créé. Enfin, une manière d'exploiter les sous-espaces actifs dans les algorithmes de Markov Chain Monte Carlo pour les problèmes inverses bayésiens est également exposée. / Accurate prediction of hypersonic high-enthalpy flows is of main relevance for atmospheric entry missions. However, uncertainties are inevitable on freestream conditions and other parameters of the physico-chemical models. For this reason, a rigorous quantification of the effect of uncertainties is mandatory to assess the robustness and predictivity of numerical simulations. Furthermore, a proper reconstruction of uncertain parameters from in-flight measurements can help reducing the level of uncertainties of the output. In this work, we will use a statistical framework for direct propagation of uncertainties and inverse freestream reconstruction applied to atmospheric entry flows. We propose an assessment of the possibility of exploiting forebody heat flux measurements for the reconstruction of freestream variables and uncertain parameters of the model for hypersonic entry flows. This reconstruction is performed in a Bayesian framework, allowing to account for sources of uncertainties and measurement errors. Different techniques are introduced to enhance the capabilities of the statistical framework for quantification of uncertainties. First, an improved surrogate modeling technique is proposed, based on Kriging and Sparse Polynomial Dimensional Decomposition. Then a method is proposed to adaptively add new training points to an existing experimental design to improve the accuracy of the trained surrogate model. A way to exploit active subspaces in Markov Chain Monte Carlo algorithms for Bayesian inverse problems is also proposed.
198

Développements de méthodes de préparation d’échantillons pour l’analyse protéomique quantitative : application à la recherche de biomarqueurs de pathologies / Development of sample preparation methods for quantitative proteomics : application to diseases biomarkers research

Muller, Leslie 21 December 2017 (has links)
Les stratégies de protéomique quantitative sans marquage sont très attractives dans le domaine de la recherche de biomarqueurs de pathologies. Cependant, elles requièrent une pleine maîtrise du schéma analytique et de sa répétabilité. Plus particulièrement, la préparation d’échantillons nécessite d’être suffisamment répétable pour ne pas impacter la qualité et la fiabilité des résultats. Les objectifs de cette thèse étaient de développer et d’optimiser des méthodes analytiques pour la protéomique quantitative, en particulier pour l’étape de préparation d’échantillons. Ainsi, un protocole innovant, simple, rapide et permettant l’analyse quantitative sans marquage d’un grand nombre d’échantillons avec une haute répétabilité a été développé et optimisé : le « Tube-Gel ». Par ailleurs, des préparations d’échantillons adaptées à différentes matrices biologiques pour la recherche de biomarqueurs ont été élaborées. Les méthodes mises au point et leur application ont permis de proposer des candidats biomarqueurs pour plusieurs pathologies : le glioblastome, les lymphomes B diffus à grandes cellules, et les complications survenant sur les greffons rénaux. / Label-free quantitative proteomics strategies are very attractive for diseases biomarkers researches. These approaches require the full control and the repeatability of the analytical workflow. In particular, the sample preparation has to be repeatable enough to ensure the quality and reliability of the results. Objectives of this work were to optimize and develop analytical methods for quantitative proteomics, with a special focus on the sample preparation step. Thus, an innovative, easy and fast protocol allowing the analysis of high sample numbers with high repeatability was developed and further optimized: the “Tube-Gel” protocol. Besides,sample preparations adapted to a variety of biological matrices were developed for the search of biomarkers. The developed methods and their application allowed the identification of potential biomarkers for a variety of diseases: glioblastoma, diffuse large B-cell lymphomas and renal transplants failures.
199

Quantification d'incertitudes aléatoires et épistémiques dans la prédiction d'instabilités aéroélastiques / Quantification of aleatory and epistemic uncertainties in the prediction of aeroelastic instabilities

Nitschke, Christian Thomas 01 February 2018 (has links)
La vitesse critique de flottement est un facteur essentiel à la conception aéronautique car elle caractérise le régime de vol au-delà duquel l’aéronef risque de subir un mécanisme de ruine. L’objectif de cette thèse est d’étudier l’impact des incertitudes d’origines aléatoires et épistémiques sur la limite de stabilité linéaire pour des configurations aéroélastiques idéalisées. Dans un premier temps, un problème de propagation directe d’incertitudes aléatoires relatives à des paramètres de fabrication d’une aile en forme de plaque en matériau composite stratifié a été considéré. La représentation du matériau par la méthode polaire lève la contrainte de grande dimensionnalité du problème stochastique initial et permet l’utilisation du Chaos Polynômial. Cependant, la corrélation introduite par cette paramétrisation nécessite une adaptation de la base polynômiale. Enfin, un algorithme d’apprentissage automatique a été employé pour traiter des discontinuités dans le comportement modal des instabilités aéroélastiques. Le second volet de la thèse concerne la quantification d’incertitudes de modélisation de caractère épistémique qui sont introduites au niveau de l’opérateur aérodynamique. Ces travaux, menés à partir d’un formalisme Bayésien, permettent non seulement d’établir des probabilités de modèle, mais aussi de calibrer les coefficients des modèles dans un contexte stochastique afin d’obtenir des prédictions robustes pour la vitesse critique. Enfin, une étude combinée des deux types d’incertitude permet d’améliorer le processus de calibration. / The critical flutter velocity is an essential factor in aeronautic design because it caracterises the flight envelope outside which the aircraft risks to be destroyed. The goal of this thesis is the study of the impact of uncertainties of aleatory and epistemic origin on the linear stability limit of idealised aeroelastic configurations. First, a direct propagation problem of aleatory uncertainties related to manufacturing parameters of a rectangular plate wing made of a laminated composite material was considered. The representation of the material through the polar method alleviates the constraint of the high number of dimensions of the initial stochastic problem, which allows the use of polynomial chaos. However, the correlation which is introduced by this parametrisation requires an adaption of the polynomial basis. Finally, a machine learning algorithm is employed for the treatment of discontinuities in the modal behaviour of the aeroelastic instabilities. The second part of the thesis is about the quantification of modelling uncertainties of epistemic nature which are introduced in the aerodynamic operator. This work, which is conducted based on a Bayesian formalism, allows not only to establish model probabilities, but also to calibrate the model coefficients in a stochastic context in order to obtain robust predictions for the critical velocity. Finally, a combined study of the two types of uncertainty allows to improve the calibration process.
200

Synthèse de nanoparticules de dioxyde de titane de morphologies contrôlées : localisation, quantification et aspects toxicologiques de la cellule à l'organisme pluricellulaire / Synthesis of titanium dioxide nanoparticles with controlled morphology : localization, quantification and toxicological aspects from cells to multi-cellular specimens

Le trequesser, Quentin 02 June 2014 (has links)
Les nanoparticules de dioxyde de titane sont aujourd’hui utilisées dans denombreux domaines. Elles entrent notamment dans la constitution de produits d’usagecourant comme les peintures ou certains produits cosmétiques (crèmes solaires). La taillenanométrique leur confère une réactivité accrue ce qui soulève des inquiétudes sur leurpossible toxicité. Des nanoparticules de morphologies contrôlées ont été synthétisées etcaractérisées. Elles ont ensuite été introduites dans le milieu de cellules humaines enculture afin d’observer les interactions in vitro et identifier les raisons de cette toxicité.L’étude a ensuite été étendue à l’in vivo avec un organisme pluricellulaire : le nématodeCaenorhabditis elegans (C. elegans).Les recherches ont été focalisées sur la détection, la localisation et la quantification desnanoparticules à l’échelle de la cellule unique puis dans les nématodes. Les différentesnanoparticules synthétisées ont permis d’identifier les propriétés physico-chimiquessusceptibles d’influer sur la toxicité. Les techniques d’analyse par faisceau d’ions ont permisde visualiser voire même de quantifier ces nano-objets à l’échelle de la cellule unique. / Titanium dioxide nanoparticles are nowadays used in numerous domains. Theyenter in particular in the constitution of every day’s products such as paints or cosmetics(sun screen). The nanometer scale gives them a high reactivity which raises worries abouttheir possible toxicity. Nanoparticles with controlled morphologies were synthesized andcharacterized. They were then introduced in the medium of human cells in cultivation inorder to observe in vitro interactions and identify the reasons of this toxicity. The study wasthen extended to in vivo with a multi-cellular specimen: the nematode Caenorhabditiselegans (C. elegans).Researches have been focalized on detection, tracking and quantification of nanoparticles atthe scale of single-cells and then in nematodes. The different kinds of synthesizednanoparticles allowed identifying the physico-chemical properties involved in their toxicity.Ion beam analyses were conducted in order to visualize and in some case quantify thisnano-objects at the single cell-scale.

Page generated in 0.0442 seconds