Spelling suggestions: "subject:"[een] QUANTIFICATION"" "subject:"[enn] QUANTIFICATION""
201 |
Méthode d'analyse de sensibilité et propagation inverse d'incertitude appliquées sur les modèles mathématiques dans les applications d'ingénierie / Methods for sensitivity analysis and backward propagation of uncertainty applied on mathematical models in engineering applicationsAlhossen, Iman 11 December 2017 (has links)
Dans de nombreuses disciplines, les approches permettant d'étudier et de quantifier l'influence de données incertaines sont devenues une nécessité. Bien que la propagation directe d'incertitudes ait été largement étudiée, la propagation inverse d'incertitudes demeure un vaste sujet d'étude, sans méthode standardisée. Dans cette thèse, une nouvelle méthode de propagation inverse d'incertitude est présentée. Le but de cette méthode est de déterminer l'incertitude d'entrée à partir de données de sortie considérées comme incertaines. Parallèlement, les méthodes d'analyse de sensibilité sont également très utilisées pour déterminer l'influence des entrées sur la sortie lors d'un processus de modélisation. Ces approches permettent d'isoler les entrées les plus significatives, c'est à dire les plus influentes, qu'il est nécessaire de tester lors d'une analyse d'incertitudes. Dans ce travail, nous approfondirons tout d'abord la méthode d'analyse de sensibilité de Sobol, qui est l'une des méthodes d'analyse de sensibilité globale les plus efficaces. Cette méthode repose sur le calcul d'indices de sensibilité, appelés indices de Sobol, qui représentent l'effet des données d'entrées (vues comme des variables aléatoires continues) sur la sortie. Nous démontrerons ensuite que la méthode de Sobol donne des résultats fiables même lorsqu'elle est appliquée dans le cas discret. Puis, nous étendrons le cadre d'application de la méthode de Sobol afin de répondre à la problématique de propagation inverse d'incertitudes. Enfin, nous proposerons une nouvelle approche de la méthode de Sobol qui permet d'étudier la variation des indices de sensibilité par rapport à certains facteurs du modèle ou à certaines conditions expérimentales. Nous montrerons que les résultats obtenus lors de ces études permettent d'illustrer les différentes caractéristiques des données d'entrée. Pour conclure, nous exposerons comment ces résultats permettent d'indiquer les meilleures conditions expérimentales pour lesquelles l'estimation des paramètres peut être efficacement réalisée. / Approaches for studying uncertainty are of great necessity in all disciplines. While the forward propagation of uncertainty has been investigated extensively, the backward propagation is still under studied. In this thesis, a new method for backward propagation of uncertainty is presented. The aim of this method is to determine the input uncertainty starting from the given data of the uncertain output. In parallel, sensitivity analysis methods are also of great necessity in revealing the influence of the inputs on the output in any modeling process. This helps in revealing the most significant inputs to be carried in an uncertainty study. In this work, the Sobol sensitivity analysis method, which is one of the most efficient global sensitivity analysis methods, is considered and its application framework is developed. This method relies on the computation of sensitivity indexes, called Sobol indexes. These indexes give the effect of the inputs on the output. Usually inputs in Sobol method are considered to vary as continuous random variables in order to compute the corresponding indexes. In this work, the Sobol method is demonstrated to give reliable results even when applied in the discrete case. In addition, another advancement for the application of the Sobol method is done by studying the variation of these indexes with respect to some factors of the model or some experimental conditions. The consequences and conclusions derived from the study of this variation help in determining different characteristics and information about the inputs. Moreover, these inferences allow the indication of the best experimental conditions at which estimation of the inputs can be done.
|
202 |
Développement de méthodologies innovantes basées sur la nanochromatographie couplée à la spectrométrie de masse pour l'étude de la bioaccumulation et de la biotransformation de polluants émergents chez des invertébrés aquatiques d'eau douce / Development of innovative analytical tools based on nanoliquid chromatography coupled to mass spectrometry for the assessment of bioaccumulation and biotransformation of emerging pollutants in freshwater invertebratesBerlioz-Barbier, Alexandra 09 December 2015 (has links)
L'écosystème aquatique est le résultat d'un équilibre entre l'environnement naturel et les organismes qui s'y développent. Cet équilibre peut être modifié par l'introduction de substances chimiques dues aux activités humaines. Aujourd'hui, l'impact de cette micropollution est encore mal connu, particulièrement pour les organismes constituant les premiers maillons des chaînes trophiques qui requièrent des efforts analytiques importants en raison de leur faible taille. L'objectif de ces travaux est centré sur le développement, la validation et l'application d'outils analytiques permettant d'étudier la bioaccumulation et la biotransformation de polluants émergents chez des invertébrés benthiques. Cette étude s'est focalisée sur 3 organismes aquatiques d'eau douce : C. riparius, G. fossarum et P. antipodarum. Une méthode analytique pour la quantification de 35 polluants émergents chez les 3 espèces sélectionnées a ainsi été développée. Elle permet d'accéder aux premières données de bioaccumulation des substances d'intérêts à l'échelle d'un individu grâce à la mise en oeuvre d'une stratégie analytique entièrement miniaturisée, incluant une extraction MicroQuEChERS suivie d'une analyse par nanochromatographie liquide couplée à la spectrométrie de masse en tandem. Afin de mieux comprendre l'impact d'une telle pollution sur les espèces sélectionnées et d'obtenir une vue globale des capacités de biotransformation de celles-ci, une approche métabolomique a été mise en place. Enfin, un nouveau mode de quantification par MRM3 a été utilisé pour dépasser la complexité de telles matrices, et fournir une évaluation fiable des cinétiques de bioaccumulation de potentiels traceurs de pollution anthropique / The aquatic ecosystem is the result of a balance between the natural environment and the organisms that inhabit it. This balance can be modified by the input of excessive amount of substances generated from human activities. Nowadays, the impact of this pollution is still little known, especially regarding the risk of bioaccumulation in the first trophic levels. This lack of data could be partially explained by the lack of suitable analytical method for small organisms. In this context, the aim of this study is to establish the development, the validation and the application of analytical tools for the assessment of bioaccumulation and biotransformation of emerging pollutants in freshwater invertebrates. Three benthic invertebrates are chosen for this project: C. riparius, G. fossarum and P. antipodarum. Analytical method has been developed for the quantification of 35 emerging pollutants in the selected species. This method provides the first bioaccumulation data of targeted substances in individual scale through the implementation of miniaturized analytical strategy, including an extraction step based on MicroQuEChERS followed by nanoliquid chromatography coupled to tandem mass spectrometry analysis. To better understand the impact of such pollution and to obtain a global view of the biotransformation capacities of the selected organisms, metabolomics approach has been put in place. Finally, a new quantification mode based on MRM3 was used to overcome biotic matrix complexity and assess the bioaccumulation kinetics of potential tracers of anthropic pollution
|
203 |
Optimisation robuste et application à la reconstruction du réseau artériel humain / Robust optimization and application to the reconstruction of the human arterial systemEl Bouti, Tamara 02 July 2015 (has links)
Les maladies cardiovasculaires représentent actuellement une des premières causes de mortalité dans les pays développés liées à l’augmentation constante des facteurs de risques dans les populations. Différentes études cliniques ont montré que la rigidité artérielle était un facteur prédictif important pour ces maladies.Malheureusement, il s’avère difficile d’accéder expérimentalement à la valeur de ce paramètre. On propose une approche qui permet de déterminer numériquement la rigidité artérielle d’un réseau d’artères à partir d’un modèle monodimensionnel personnalisé de la variation temporelle de la section et du débit sanguin des artères. L’approche proposée résout le problème inverse associé au modèle réduit pour déterminer la rigidité de chaque artère, à l’aide de mesures non invasives de type IRM, echotracking ettonométrie d’aplanation.Pour déterminer la robustesse du modèle construit vis à vis de ses paramètres, une quantification d’incertitude a été effectuée pour mesurer la contribution de ceux-ci, soit seuls soit par interaction, à la variation de la sortie du modèle, ici la pression pulsée. Cette étude a montré que la pression pulsée numérique est un indicateur numérique robuste pouvant aider au diagnostic de l’hypertension artérielle.Nous pouvons ainsi offrir au praticien un outil numérique robuste et peu coûteux permettant un diagnostic précoce et fiable des risques cardiovasculaires pour tout patient simplement à partir d’un examen non invasif / Cardiovascular diseases are currently the leading cause of mortality in developed countries, due to the constant increase in risk factors in the population. Several prospective and retrospective studies have shown that arterial stiffness is an important predictor factor of these diseases. Unfortunately, these parameters are difficult to measure experimentally. We propose a numerical approach to determine the arterial stiffness of an arterial network using a patient specificone-dimensional model of the temporal variation of the section and blood flow of the arteries. The proposed approach estimates the optimal parameters of the reduced model, including the arterial stiffness, using non-invasive measurements such MRI, echotracking and tonometry aplanation. Different optimization results applied on experimental cases will be presented. In order to determine the robustness of the model towards its parameters, an uncertainty analysis hasbeen also carried out to measure the contribution of the model input parameters, alone or by interaction with other inputs, to the variation of model output, here the arterial pulse pressure. This study has shown that the numerical pulse pressure is a reliable indicator that can help to diagnose arterial hypertension.We can then provide the practitioner a robust patient-specific tool allowing an early and reliable diagnosis of cardiovascular diseases based on a non-invasive exam
|
204 |
Compressible single and dual stream jet stability and adjoint-based sensitivity analysis in relationship with aeroacoustics / Stabilité d'un jet double flux et analyse de sensibilité sur la base d'un modèle adjoint en relation avec l'aeroacousticAnsaldi, Tobias 14 October 2016 (has links)
La thèse est relative à la compréhension de la physique et au contrôle des émissions acoustiques dans les jets turbulents simples et double-flux. La génération du bruit est associé à des structures turbulentes de grandes tailles caractéristiques et à la turbulence de petites échelles. i Il est maintenant admis que les structures de grandes échelles sont des instabilités se propageant dans un champ moyen turbulent. Ici elle sont analysées sur la base de la théorie linéaire non locale appelées PSE pour Parabolized Stability Equations. Ces instabilités inflexionnelles associées à la présence de couche de cisaillement sont des modes de Kelvin-Helmhotz. Dans le cas du jet sous détentu des cellules de choc apparaissent et influencent très fortement les taux d'amplification et fréquences des modes propres. Divers écoulements sont investigués, de faible nombre de Mach au jet double-flux supersonique dont le champ moyen provient de simulation LES (Cerfacs). Le champ acoustique lointain est déterminé par l'analogie de Ffowcs-Williams-Hawkings. Ensuite une étude de sensibilité originales des instabilités et du bruits par rapport à divers forage locaux est produite sur la base deséquations de stabilité PSE adjointes. Les fortes sensibilités apparaissent dans les couches de cisaillements et aussi dans une moindre mesure autour des cellules de chocs. Les sensibilités sont plus complexes pour le jet double flux et dépendent du mode instable étudié lié soit au jet primaire soit au jet secondaire. Les sensibilités maximales se trouvent auvoisinage de la sortie de la tuyère et à la limite ou à l’extérieur du cne potentiel. En complément une étudesur le jet simple flux permet de mettre en rapport les approches de quantification d'incertitude et la sensibilité calculée par des équations adjointes. Les résultats de sensibilité vont permettre de contribuer à proposer des stratégies de contrôle aero-acoustique dans les jets de turboréacteurs. / This thesis leads to a better knowledge of the physic and of the control of acoustic radiation in turbulent single and dual-stream jets.It is known that jet noise is produced by the turbulence present in the jet that can be separated in large coherent structures and fine structures. It is also concluded that these large-scale coherent structures are the instability waves of the jet and can be modelled as the flow field generated by the evolution of instability waves in a given turbulent jet. The growth rate and the streamwise wavenumber of a disturbance with a fixed frequency and azimuthal wavenumber are obtained by solving the non-local approach called Parabolized Stability Equations (PSE). Typically the Kelvin-Helmholtz instability owes its origin into the shear layer of the flow and, moreover, the inflection points of the mean velocity profile has a crucial importance in the instability of such a flow. The problem is more complex in case of imperfectly expanded jet where shock-cells manifest inside the jet and strongly interaction with the instability waves has been observed. Several configurations are tested in this thesis, from a subsonic incompressible case to the dual-stream underexpanded supersonic jet obtained by solving Large Eddy Simulations LES (CERFACS). The acoustic far-field is determined by the Ffowcs-Williams-Hawkings acoustic analogy. Then a sensitivity analysis of the jet with respect to external forcing acting in a localized region of the flow are investigated by solving the adjoint PSE equations. High sensitivity appeared in the shear-layer of the flow showing, also, a high dependency in the streamwise and radial direction. In the case of dual-stream jet the propagation of the instability in the inner and outer shear layer should be taken into account. This configuration leads to two different distinct Klevin-Helmholtz modes that are computed separately. The highest sensitivity is determined in the exit of the nozzle outside of the potential core of the jet. In addition, comparison between sensitivity computed by adjoint equations and Uncertainty Quantification (UQ) methods has been done, in the case of a single-stream jet, showing a link between these two methods for small variations of the input parameters. This result leads to the application of a lower cost tool for mathematical analysis of complex problem of industrial interest. This work and in particular the sensitivity theory investigated in this thesis contribute to a development of a new noise control strategy for aircraft jet.
|
205 |
Détection et évaluation des fuites à travers les ouvrages hydrauliques en remblai, par analyse des températures réparties, mesurées par fibre optique / Use of temperature measurements as a monitoring tool for earthen hydraulic structures, leakage detection and estimation of their intensity.Cunat, Pierre 08 March 2012 (has links)
Les fuites au travers des ouvrages hydrauliques en remblai sont les signes précurseurs d'un dysfonctionnementdu dispositif d'étanchéité de l'ouvrage pouvant entraîner leur rupture. La détectionprécoce des fuites et leur quanti_cation est donc primordiale.Les méthodes géophysiques et thermométriques à grand rendement apportent des éléments deréponse pour la détection des fuites, le long des ouvrages à long linéaire, mais l'estimation de leurvitesse, nécessaire à l'évaluation de la dangerosité des fuites, n'est pas encore satisfaisante.Cette étude porte sur la détection et quanti_cation des fuites à travers les ouvrages hydrauliquesen remblai soumis à une charge d'eau permanente. Les méthodes proposées exploitent des mesures detempératures naturelles du sol à l'aide de _bres optiques placées sous le talus amont ou aval.Deux modèles de quanti_cation ont été développés et testés sur les données d'un site expérimentalcontrôlé et d'un site réel. Les résultats obtenus concordent avec les mesures de vitesse e_ectuées surles deux sites. / Leakages through embankment dams are early warning signs of a sealing malfunction and couldlead to its breakdown. Early detection of leakages and their quanti_cation is essential.High output geophysical and thermometric methods provide some answers for leakage detectionalong long linear embankment dams, but their velocity estimations necessary to assess the danger ofleakages, is not yet satisfactory.This study focuses on the detection and the quanti_cation of leakages through embankment damsunder hydraulic head. The proposed method use natural temperature measurements from the groundusing optical _ber buried under the upstream or downstream face.Two models of quanti_cation were developed and tested on data from an experimental site and a realsite. Results are consistent with velocity measurements made at both side.
|
206 |
La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale / Polynomial chaos expansion in fluvial hydraulics in Ensemble data assimilation frameworkEl Moçayd, Nabil 01 March 2017 (has links)
Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie. / This work deals with the formulation of a surrogate model for the shallow water equations in fluvial hydraulics with a chaos polynomial expansion. This reduced model is used instead of the direct model to reduce the computational cost of the ensemble methods in uncertainty quantification and data assimilation. The context of the study is the flood forecasting and the management of water resources. This manuscript is composed of five parts, each divided into chapters. The first part presents a state of art of uncertainty quantification and data assimilation in the field of hydraulics as well as the objectives of this thesis. We present the framework of flood forecasting, its stakes and the tools available (numerical and observation) to predict the dynamics of rivers. In particular, we present the SWOT2 mission, which aims to measure the height of water in rivers with global coverage at high resolution. We highlight particularty their contribution and their complementarity with the in-situ measurements. The second part presents the shallow water equations, which describe the flows in the rivers. We are particularly interested in a 1D representation of the equations.We formulate a numerical discretization of these equations, as implemented in the Mascaret software. The last chapter of this part proposes some simplifications of the shallow-water equations. The third part of this manuscript presents the uncertainty quantification and reduced order methods. We present particularly the probabilistic context which makes it possible to define well-defined problem of uncertainty quantification and sensitivity analysis. It is then proposed to reduce the size of a stochastic problem when dealing with random fields in the context of geophysical models. The methods of chaos polynomial expansion are then presented ; we present in particular the different strategies for the computation of the polynomial coefficients. This section devoted to methodology concludes with a chapter devoted to Ensemble based data assimilation (specially the Ensemble Kalman filter) and the use of surrogate models in this framework. The fourth part of this manuscript is dedicated to the results. The first step is to identify the sources of uncertainty in hydraulics that should be quantified and subsequently reduced. An article, in the review state, details the method and the validation of a polynomial surrogate model for shallow water equations in steady state when the uncertainty is mainly carried by the friction coefficients and upstream inflow. The study is conducted on the river Garonne. It is shown that the statistical moments, the probability density and the spatial covariance matrice for the water height are efficiently and precisely estimated using the reduced model whose construction requires only a few tens of integrations of the direct model. The use of the surrogate model is used to reduce the computational cost of the Ensemble Kalman filter in the context of a synthetic SWOT like data assimilation exercise. The aim is to reconstruct the spatialized friction coefficients and the upstream inflow. We are interested precisely in the spatial representation of the data as seen by SWOT : global coverage of the network, spatial averaging between the observed pixels. We show in particular that at the given calculation budget (2500 simulations of the direct model) the results of the data assimilation analysis based on the use of the polynomial surrogate model are better than those obtained with the classical Ensemble Kalman filter. We are then interested in the construction of the reduced model in unsteady conditions. It is assumed initially that the uncertainty is carried with the friction coefficients. It is now necessary to judge the need for the recalculation of polynomial coefficients over time and data assimilation cycles. For this work only ponctual and in-situ data were considered. It is assumed in a second step that the uncertainty is carried by the upstr
|
207 |
Adaptive control of deterministic and stochastic approximation errors in simulations of compressible flow / Contrôle adaptatif des erreurs d'approximation stochastique et déterministe dans la simulation des écoulements compressibleVan Langenhove, Jan Willem 25 October 2017 (has links)
La simulation de systèmes d'ingénierie non linéaire complexes tels que les écoulements de fluide compressibles peut être ciblée pour rendre plus efficace et précise l'approximation d'une quantité spécifique (scalaire) d'intérêt du système. En mettant de côté l'erreur de modélisation et l'incertitude paramétrique, on peut y parvenir en combinant des estimations d'erreurs axées sur des objectifs et des raffinements adaptatifs de maillage spatial anisotrope. A cette fin, un cadre élégant et efficace est celui de l'adaptation dite basé-métrique où une estimation d'erreur a priori est utilisée comme indicateur d’adaptation de maillage. Dans cette thèse on propose une nouvelle extension de cette approche au cas des approximations de système portant une composante stochastique. Dans ce cas, un problème d'optimisation est formulé et résolu pour un meilleur contrôle des sources d'erreurs. Ce problème est posé dans le cadre continu de l'espace de métrique riemannien. Des développements algorithmiques sont également proposés afin de déterminer les sources dominates d’erreur et effectuer l’adaptation dans les espaces physique ou des paramètres incertains. L’approche proposé est testée sur divers problèmes comprenant une entrée de scramjet supersonique soumise à des incertitudes paramétriques géométriques et opérationnelles. Il est démontré que cette approche est capable de bien capturé les singularités dans l’escape stochastique, tout en équilibrant le budget de calcul et les raffinements de maillage dans les deux espaces. / The simulation of complex nonlinear engineering systems such as compressible fluid flows may be targeted to make more efficient and accurate the approximation of a specific (scalar) quantity of interest of the system. Putting aside modeling error and parametric uncertainty, this may be achieved by combining goal-oriented error estimates and adaptive anisotropic spatial mesh refinements. To this end, an elegant and efficient framework is the one of (Riemannian) metric-based adaptation where a goal-based a priori error estimation is used as indicator for adaptivity. This thesis proposes a novel extension of this approach to the case of aforementioned system approximations bearing a stochastic component. In this case, an optimisation problem leading to the best control of the distinct sources of errors is formulated in the continuous framework of the Riemannian metric space. Algorithmic developments are also presented in order to quantify and adaptively adjust the error components in the deterministic and stochastic approximation spaces. The capability of the proposed method is tested on various problems including a supersonic scramjet inlet subject to geometrical and operational parametric uncertainties. It is demonstrated to accurately capture discontinuous features of stochastic compressible flows impacting pressure-related quantities of interest, while balancing computational budget and refinements in both spaces.
|
208 |
Le syntagme nominal en mandarin et en français : le problème de la quantification / Noun-Phrase in Mandarin Chinese and French : the question of nominal quantificationZhu, Lei 29 November 2017 (has links)
En mandarin, les déterminants du nom, démonstratifs et numéraux, sont en général antéposés au nom. Le français requiert la présence de l’article, une catégorie grammaticale absente du système nominal du mandarin qui indique la quantification au travers de la présence de classificateurs nominaux. Sur le plan de la morphologie nominale, en mandarin, une langue isolante, le nom se construit préférablement par le biais de la composition de différent traits sémantiques, tandis qu’en français, considéré comme une langue flexionnelle, le nom se révèle être lui-même le sème. Le déterminant et le nom s’accordent en genre et en nombre, alors que le nom en mandarin chinois ne distingue pas le genre et que les indications du nombre se font uniquement au travers de la présence de classificateurs. Comprendre ces différences est essentiel à l’acquisition de ces deux langues. Afin de faciliter la compréhension des fonctions de ces phénomènes grammaticaux pour les apprenants, ce travail doctoral propose des analyses et explications permettant à l’apprenant de franchir favorablement le « seuil » de la détermination nominale. / In Mandarin Chinese, as in French, nominal determiners (demonstrative and numeral) precede in general the noun. French requires the presence of the article, a grammatical category that is not found in Mandarin Chinese. Rather, in Mandarin Chinese, quantification is carried out through the presence of noun classifiers. As for nominal morphology, in Mandarin Chinese, an isolating language, nouns are preferably formed through the composition of different semantic features. By contrast, in French, considered as mainly flexional, only the nominal root holds the semantic unit. In French, determiner and noun agree in gender and number, whereas in Mandarin Chinese, that does not distinguish gender, number is expressed by noun classifiers. Understanding these differences is essential to the acquisition of these two languages. In order to facilitate the understanding of the functions of these grammatical phenomena, this research proposes accurate analyses and explanations that allow second language learners to overcome more effectively the difficulties of nominal determination
|
209 |
Nouvel outil de quantification de biomarqueurs couplant la spectroscopie optique et de la spectrométrie de masse, la Photo-SRM / Photo-SRM, a new analytical tool for protein quantitation by mass spectrometryEnjalbert, Quentin 08 November 2013 (has links)
La spectrométrie de masse apparaît au travers de la technologie SRM (Selected Reaction Monitoring) comme une alternative crédible aux tests immunologiques pour la quantification de biomarqueurs. Cependant, les limites de quantifications et de détections atteintes ne sont pas suffisantes pour réaliser des dosages cliniques. Afin d'améliorer les limites de détections, nous nous sommes intéressés au couplage de la spectroscopie optique avec la spectrométrie de masse pour le dosage de biomarqueurs. Ce couplage s'appelle la Photo-SRM. Je me suis donc appliqué, dans un premier temps, à étudier les propriétés optiques de biomolécules dans des domaines de longueurs d'ondes différents allant du VUV au visible. Par la suite, la preuve de concept de l'outil Photo-SRM a été réalisée. Suite à une modification instrumentale réalisée sur un spectromètre de masse de type triple quadripôle, un laser continu émettant des photons dans le domaine du visible, 532 nm, a été implémenté dans cet instrument. Cet outil a ensuite été appliqué pour un dosage multiplexé des protéines endogènes majoritaires du sérum humain. Ces protéines ont été dosées via des peptides protéotypiques contenant des cystéines. L'ensemble du sérum a donc été dérivé en amont de l'analyse. Nous avons souhaité appliquer la Photo-SRM au dosage des métabolites. En effet, dans de nombreuses pathologies, les métabolites et les protéines jouent un rôle important. Par exemple, les œstrogènes utilisés comme contraceptif ont un impact sur les concentrations des protéines de coagulation. Il semble donc intéressant de pouvoir étudier ces deux familles de biomolécules lors d'une même analyse. Enfin, avec l'avènement des instruments hybrides, tels que les Q-TOF et le Q-exactive, la quantification n'est plus réservée qu'à l'usage des instruments de type triple quadripôle. Ces instruments permettent de doser des biomolécules aux mêmes ordres de grandeur que les triples quadripôles en mode SRM. Ces instruments permettent également de réaliser des expériences de découvertes en protéomique. La modification instrumentale d'un Q-exactive, hybride quadripôle-Orbitrap, est présentée suivie d'expériences préliminaires. Ce couplage ouvre donc de nouvelles perspectives d'étude en quantification mais également en découverte protéomique / Targeted mass spectrometry using selected reaction monitoring (SRM) has emerged as an alternative to immunoassays for protein quantification owing to faster development time and higher multiplexing capability. However, the SRM strategy is faced with the high complexity of peptide mixtures after trypsin digestion of whole plasma or the cellular proteome that most of the time causes contamination, irremediably, by interfering compounds in the transition channels monitored. This problem becomes increasingly acute when the targeted protein is present at a low concentration. In this work, the merit of laser-induced photo-dissociation in the visible region at 473 nm implemented in an hybrid quadrupole linear ion-trap mass spectrometer (photo-SRM) was evaluated for detection specificity of cysteine-containing. Compared with conventional SRM, photo-SRM chromatograms have improved detection specificity for most of peptides monitored. Comparison of the signals obtained for the best proteotypic peptides in SRM mode and those recorded by photo-SRM of cysteine-containing peptides for the same proteins reveals either increased (up to 10-fold) or similar signal to photo-SRM detection. Finally, photo-SRM has extended response linearity across a calibration plot obtained by diluting human plasma in rat plasma, down to the lowest concentrations. Hence, photo-SRM may advantageously complement conventional SRM in assay of proteins in complex biological matrices
|
210 |
La production macroéconomique du réel : formalités et pouvoir au Burkina Faso, en Mauritanie et en Guadeloupe / The macroeconomic production of the real : formalities and power in Burkina Faso, Mauritania and GuadeloupeSamuel, Boris 05 December 2013 (has links)
La présente thèse étudie l’exercice du pouvoir et ses transformations à partir de l’observation d’opérations concrètes de la gestion macroéconomique dans deux pays d’Afrique, le Burkina Faso et la Mauritanie, et un territoire antillais, la Guadeloupe. Elle situe son approche à l’intersection de l’anthropologie, de la sociologie de la quantification et de la sociologie historique du politique. L’exercice du pouvoir repose sur les pratiques de gestion de l’économie dans une pluralité de rapports : ceux qui font miroiter l’espoir de piloter l’économie dans une logique instrumentale, comme ceux qui font des procédures formelles des outils de légitimation au service de régimes en place, ou encore ceux qui font de la gestion macro-économique un lieu de lutte pour l’accès aux ressources. La macroéconomie est polysémique et elle est au centre d’un « compromis technocratique » qui a une large portée. Dans les trois cas étudiés, l’observation fine du calcul macroéconomique montre que les ethos techniciens sont déterminants pour saisir l’exercice du pouvoir. Les luttes sociales et politiques autour de la vie chère ou de l’éducation, ou encore les débats sur les faux semblants du réformisme mettent les chiffres au centre des rapports sociaux et politiques. Sur les scènes politiques en ébullition de la Mauritanie, de la Guadeloupe et du Burkina Faso, les objets de la gestion économique opèrent, guident les actions des individus, suscitent la contestation. La macroéconomie n’est pas seulement dans les bureaux, elle constitue un répertoire populaire du politique. Elle est ancrée dans l’histoire propre de ces sociétés et dans les logiques autonomes de la technique et des procédures. / This thesis examines the exercise of power and its transformations, based on the observation of concrete operations of macroeconomic management in two African countries, Burkina Faso and Mauritania, and one Caribbean territory, Guadeloupe. Its approach involves a combination of anthropology, the sociology of quantification and the historical sociology of the political.The exercise of power rests on practices of economic management that are caught up in a network of relations. There are those who dangle the prospect of steering the economy in accordance with an instrumental logic; there are those turn formal procedures into tools for legitimizing current regimes; and there are those who turn macroeconomic management into the site of a struggle for access to resources. Macroeconomics has many meanings and lies at the centre of a wide-ranging ‘technocratic compromise’. In all three cases studied, the detailed observation of macroeconomic calculation shows that the technocratic ethos is crucial for an understanding of the exercise of power. Social and political struggles over education and the high cost of living, and debates on the illusory claims of reformism, place the numerical approach at the very heart of social and political relations. On the turbulent political scene in Mauritania, Guadeloupe and Burkina Faso, the objects of economic management are at work, guiding the actions of individuals and provoking protest. Indeed, macroeconomics is not just to be found in the office: it is part of the political repertoire of ordinary people. It is rooted both in the specific history of these societies and in the autonomous logics of technique and procedure.
|
Page generated in 0.0538 seconds