Spelling suggestions: "subject:"[een] QUANTIFICATION"" "subject:"[enn] QUANTIFICATION""
561 |
The Effects of Porous Inert Media in a Self-Excited Thermoacoustic Instability: A Study of Heat Release and Reduced Order ModellingDowd, Cody Stewart 23 March 2021 (has links)
In the effort to reduce emission and fuel consumption in industrial gas turbines, lean premixed combustion is utilized but is susceptible to thermoacoustic instabilities. These instabilities occur due to an in-phase relationship between acoustic pressure and unsteady heat release in a combustor. Thermoacoustic instabilities have been shown to cause structural damage and limit operability of combustors. To mitigate these instabilities, a variety of active and passive methods can be employed. The addition of porous inert media (PIM) is a passive mitigation technique that has been shown to be effective at mitigating an instability. Practical industrial application of a mitigation strategy requires early-stage design considerations such as reduced order modeling, which is often used to study a systems' stability response to geometric changes and mitigation approaches. These reduced order models rely on flame transfer functions (FTF) which numerically represent the relationship between heat release and acoustic perturbations. The accurate quantification of heat release is critical in the study of these instabilities and is a necessary component to improve the reduced order model's predictive capability. Heat release quantification presents numerous challenges. Previous work resolving heat release has used optical diagnostics. For perfectly premixed, laminar flames, it has been shown there are proportional relationships between OH* or CH* chemiluminescence to heat release. This is an ideal case; in reality, practical burners produce turbulent and partially premixed flames. Due to the additional straining of the flame caused by turbulence, the heat release is no longer proportional to chemiluminescence quantities. Also, partially premixed systems have spatially varying equivalence ratios and heat release rates, meaning analysis reliant on perfectly premixed assumptions cannot be used and techniques that can handle spatial variations is needed. The objective of this thesis is to incorporate PIM effects into a reduced order model and resolve quantities vital to understand how PIM is mitigating thermoacoustic instabilities in a partially premixed, turbulent combustion environment.
The initial work presented in this thesis is the development of a reduced order model for predicting mode shapes and system stability with and without PIM. This was the first time that a reduced order model was developed to study PIM effects on the thermoacoustic response. Model development used a linear FTF and can predict the system frequency and stability response. Through the frequency response, mode shapes can be constructed which show the axial variation in acoustic values, along with node and anti-node locations. Stability trends can be predicted, such as the independent effects of system parameter variation, to determine its stability response. The model was compared to canonical case studies as well as experimental data with reasonable agreement. With PIM addition, it was shown that a combustor would be under stable operation at more flow conditions than without PIM. The work also shows the stability sensitivity to different porous parameters and PIM locations within the combustor. The model has been used to aid in the design of other combustion systems developed at Virginia Tech's Advanced Propulsion and Power Laboratory.
To better understand how PIM is affecting the system stability and demonstrate measurements for the improvement of a numerical FTF, experimental work to resolve the spatially varying equivalence ratio fluctuations was conducted in an atmospheric, swirl-stabilized combustor. The experimental studies worked to improve the fundamental understanding of PIM and its mitigation effects through spatially and temporally resolved equivalence ratios during a self-excited instability. The experimental combustor has an optically accessible flame region which allowed for high speed chemiluminescence to be captured during the instability. Equivalence ratio values were calculated from a relation involving OH*/CH* chemiluminescence ratio. The acoustic perturbations were studied to show how the equivalence ratio fluctuations were being generated and coupling with the acoustic waves. The fluctuation in equivalence ratio showed about 65% variation around its mean value during the period of an instability cycle. When porous media was added to the system, the fluctuation in equivalence ratio was mitigated and a reduction in peak frequency (sound pressure level) SPL of 38 dB was observed. Changes in the spatial distribution of equivalence ratio with PIM addition were shown to produce a more stable operation. Effects such as locally richer burning and changes to recirculation zones promoted more stable operation with PIM addition. Testing with forced acoustic input was also conducted to quantify the flame response. The results demonstrated that a flame in a system with PIM responds differently than without PIM, highlighting the need to develop FTF for systems with PIM. This experimental study was the first to study equivalence ratio in a turbulent, partially premixed combustor using PIM as a mitigation technique.
A final experimental investigation was conducted to resolve the spatially defined heat release and its fluctuation during a thermoacoustic instability period. This was the first time that heat release had been investigated in a partially premixed, thermoacoustically unstable system, using PIM as a migration method. Heat release was quantified using equivalence ratio, strain rate, OH* intensity, and a correction factor determined from a chemical kinetic solver. The heat release analysis built upon the equivalence ratio study with additional flow field analysis using PIV. The velocity vectors showed prominent corner and central recirculation zones in the no PIM case which have been shown to be feedback mechanisms that support instability formation. With PIM addition, these flow features were reduced and decoupled from the combustor inlet reactants. The velocity results were decomposed using a spectral proper orthogonal decomposition (SPOD) method. The energy breakdown showed how PIM reduced and distributed the energy in the flow structures, creating a more stable flow field. Heat release results with velocity information demonstrated the significant coupling mechanisms in the flow field that were mitigated with the PIM addition. The no PIM case showed high heat release areas being directly influenced by the incoming flow fluctuations. The feedback mechanisms, both mean flow and acoustic, have a direct path to the incoming flow to the combustor. In the PIM case, there is significant mixing and burning taking place in locations where it is less likely that feedback can reach the incoming flow to couple to form an instability. The methodology to quantify heat release provides a framework for quantifying a non-linear FTF with PIM. The development and testing to determine a non-linear FTF with PIM are reserved for future work and discussed in the final chapter. The methodologies and modeling conducted here provided insight and understanding to answer why PIM is effective at mitigating a thermoacoustic instability and how it can be studied using a reduced order numerical tool. / Doctor of Philosophy / In the effort to reduce emission and fuel consumption in industrial gas turbines, lean premixed combustion is utilized but is susceptible to thermoacoustic instabilities. These instabilities occur due to a relationship between acoustic pressure and unsteady heat release in a combustor. Thermoacoustic instabilities have been shown to cause structural damage and limit operability of combustors. To mitigate these instabilities, a variety of active and passive methods can be employed. The addition of porous inert media (PIM) is a passive mitigation technique that has been shown to be effective at mitigating an instability. Implementation of these mitigation strategies require early-stage design considerations such as reduced order modeling, which is often used to study a systems' stability response to geometric changes and mitigation approaches. These reduced order models rely on flame transfer functions (FTF) which numerically model the flame response. The accurate quantification of heat release is critical in the study of these instabilities and is a necessary component to improve the reduced order model's predicative capability. Heat release quantification presents numerous challenges. Previous work resolving heat release has used optical diagnostics with varying levels of success. For perfectly premixed, laminar flames, it has been shown there are proportional relationships between flame light emission and heat release. This is an ideal case; in reality, practical burners produce complex turbulent flames. Due to complex turbulent flame, the heat release is no longer proportional to the flame light emission quantities. Also, partially premixed systems have spatially variant flame quantities, meaning analyses reliant on perfectly premixed assumptions cannot be used and techniques that can handle spatial variations are required. The objective of this thesis is to incorporate PIM effects into a reduced order model and resolve quantities vital to understand how PIM is mitigating thermoacoustic instabilities in a partially premixed, turbulent combustion environment.
The initial work presented in this thesis is the development of a reduced order model for predicting mode shapes and system stability with and without PIM. The model uses a simple relationship to model the flame response in an acoustic framework. To improve the model and understanding of PIM mitigation, experimental data such as the local heat release rates and equivalence ratios need to be quantified. An experimental technique was utilized on an optically accessible atmospheric, swirl-stabilized combustor, to resolve the spatially variant equivalence ratio and heat release rates. From these results, better understanding of how PIM is improving the stability in a combustion environment is shown. Quantities such as velocity, acoustic pressure, equivalence ratio, and heat release are all studied and used to explain the improved stability with PIM addition. The methodologies and modeling conducted here provided insight and understanding to answer why PIM is effective at mitigating a thermoacoustic instability and how it can be studied using a reduced order numerical tool. Furthermore, the present work provides a framework for quantifying spatially varying heat release measurements, which can be used to develop FTF for use with thermoacoustic modeling approaches.
|
562 |
La protection des données de bien-être face aux objets connectés du secteur privéRadman, Elisa 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 2 mai 2023) / Les objets connectés sont des technologies massivement appréciées par notre société. Souvent utilisés à des fins de loisirs, ils permettent aux personnes de mesurer et d'évaluer leurs capacités physiques, mentales et la qualité de leur mode vie de façon autonome. Les données collectées par ces technologies sont multiples et sont relatives au corps humain de la personne, comme le nombre de pas, le nombre de calories brûlées ou encore, le nombre d'heures de sommeil. Seulement, bien que révélatrices d'informations sur la santé des personnes, ce type de données n'est pas considéré par les législations européennes et canadiennes comme des données de santé, mais plutôt comme de simples données à caractère personnel. La doctrine leur attribue le nom de « donnée de bien-être », notion inexistante en droit positif. Néanmoins, apparaît depuis plusieurs années des discussions autour de la protection des données de bien-être. Doivent-elles être considérées comme des données de santé ? Sont-elles voisines de celles-ci ? Le régime de protection actuel est-il efficace ? L'objectif de ce mémoire est de se pencher sur ces questions et de trouver de nouvelles solutions à la protection des données de bien-être au regard du danger qu'elles représentent sur la vie privée des individus.
|
563 |
Etude multi-échelle des mécanismes d'élaboration de revêtements d'alliage zinc-nickel à base d'électrolytes alcalins : germination, complexation et structures cristallines / Multi-scale approach of alkaline zinc-nickel electroplating mechanisms : nucleation, complexation and crystallographic structureFedi, Baptiste 17 March 2016 (has links)
Les travaux présentés dans ce mémoire ont pour but d’approfondir la compréhension des mécanismes d’élaboration de revêtements électrolytiques de zinc-nickel obtenus à partir d’électrolytes alcalins. Les dépôts de zinc-nickel contenant entre 12% et 16%de nickel, connus pour leur performances anti-corrosion, nécessitent l’utilisation d’agents complexants afin de d’obtenir des formes solubles et réductibles du nickel dans un électrolyte à base de zincates à haut pH. Une étude des mécanismes de complexation a permis d’améliorer la compréhension du rôle respectif des agents complexants et de leurs interactions sur la stabilité des mélanges, ainsi que sur la morphologie de la structure cristalline des revêtements obtenus. Les phases cristallines d’alliages de zinc-nickel électro déposés,contenant entre 1% et 20% de nickel ont été quantifiés par déconvolution de courbes d’oxydation potentio dynamique et par DRX. Cette approche donne accès à une cartographie précise des phases d’alliages obtenus en fonction de la teneur en nickel du dépôt. La stabilité thermique des différentes phases à également pu être évaluée et quantifiée par cette méthode. La formulation des électrolytes ainsi que les paramètres des procédés peuvent modifier les cinétiques de germination des revêtements. Une étude fondamentale des mécanismes de germination par chrono ampérométrie couplée à des méthodes d’identification paramétrique a permis de quantifier l’évolution de certains paramètres de germination d’éléments simples en fonction du potentiel d’électrodéposition. L’étude de la germination d’alliage a mis en évidence que des réactions de décomplexation d’espèces modifient les cinétiques de nucléation, sans permettre d’aboutir à un modèle descriptif complet. / The present work aims to deepen the understanding of the mechanisms of zinc-nickelelectrodeposition in alkaline baths. Zinc-nickel deposits containing between 12% and 16%nickel known for their anti-corrosion performance. Complexing agents are required toobtain soluble and reactive nickel forms, and to stabilize the electrolytes. A study ofthe complexing mechanisms has improved the understanding of their respective role andbehavior, and their influence on the stability and the morphology and crystalline structureof the coatings obtained. The crystalline phases of electroplated zinc-nickel alloys in therange from 1% to 20% nickel content were quantified by deconvolution of potentiodynamicoxidation curves and XRD. This approach has led to a precise mapping of the alloyphases obtained as a function of the nickel content. The thermal stability of the differentphases has also been evaluated and quantified by this method. The formulation of theelectrolytes and the process parameters may modify the kinetics of coating germination. Afundamental study of the mechanisms of germination by chronoamperometry coupled witha parametric identification allows the quantification of parameter evolution in relation tonucleation phenomenon of simple elements. The study of alloy germination has shownthat decomplexing reactions are able to modify nucleation kinetics, without achieving acomplete comprehensive modeling.
|
564 |
Développement d'une méthode méthodologie de PCR en temps réel pour l'identification et la quantification de trois espèces de thon (Thunnus obesus, Thunnus albacares et Katsuwonus pelamis) dans les produits appertisés / Development of a methodology of PCR in real time for identification and quantification of 3 species of tuna (Thunnus obesus, Thunnus albacares and Katsuwonus pelamis) in canned productsBojolly, Daline 29 March 2017 (has links)
Le thon obèse (Thunnus obesus), le thon alabore (Thunnus albacares) et le listao (Katsuwonus pelamis) comptent parmi les espèces de thons les plus utilisées en conserve. Lors de la fabrication de conserves de thon, la substitution d'espèce et/ou le mélange de différentes espèces de thon sont interdits par la réglementation européenne. L'authentification des espèces de thon reste complexe à cause du degré de similitude élevé entre les espèces de thon, ou encore, lorsque les caractéristiques morphologiques externes sont éliminées au cours du filetage et lors de la mise en conserve. Par conséquent, des substitutions involontaires ou frauduleuses peuvent se produire. Dans cette étude, le marqueur mitochondrial du gène de la sous-unité 2 de la NADH déshydrogénase a été utilisé pour identifier le thon obèse et le gène de la sous-unité II de la cytochrome c oxydase a été utilisé pour identifier le thon albacore et le listao en utilisant la PCR en temps réel basée sur la technologie TaqMan. Deux méthodes différentes basées sur la qPCR ont été développées pour quantifier le pourcentage de chair de chaque espèce présente au sein d'une boîte de thon. La première a été basée sur la quantification absolue avec standard externe réalisée avec les deux marqueurs. La seconde a été basée sur la quantification relative avec standard externe avec le gène endogène de l'ARN 12S. Sur la base de ces résultats, nous pouvons conclure que notre méthode peut s'appliquer pour quantifier les deux espèces de thon albacore et obèse génétiquement très proches lorsqu'elles sont utilisées dans un mélange binaire en conserve. / Bigeye tuna (Thunnus obesus), yellowfin tuna (Thunnus albacares) and skipjack tuna (Katsuwonus pelanis) are among the most widely used tuna species for canning purposes. Not only substitution but also mixing of tuna species is prohibited by the European regulation for canned tuna products. However, it can be difficult to authenticate the tuna species, due to their high degree of similarity or even when the external morphological characteristics are removed due to filleting before canning. Consequently, involuntary or fraudulent substitutions may occur during the canning process. In this study, the mitochondrial marker from NADH dehydrogenase subunit 2 gene was used to identify bigeye tuna and the mitochondrial marker cytochrome c oxidase subunit II gene was used to identify yellowfin tuna and skipjack tuna, utilizing TaqMan qPCR methodology. Two different qPCR-based methods were developed to quantify the percentage of flesh of each species used for can processing. The first one was based on absolute quantification using standard curves realized with these two markers ; the second one was founded on relative quantification with the universal 12S rRNA gene as the endogenous gene. On the basis of our results, we conclude that our methodology could be applied to authenticate the two closely related tuna species (bigeye tuna and yellowfin tuna) when used in a binary mix in tuna cans.
|
565 |
Analyse de données de biométrologie : aspects méthodologiques et applications / Improving the Statistical Analysis of Biomonitoring Data : Methods and ApplicationsMartin-Rémy, Aurélie 12 December 2018 (has links)
De nombreuses études de biométrologie sont menées à l’INRS, pour évaluer l’exposition professionnelle à des substances chimiques, en France, et pour compléter les connaissances en proposant des valeurs de références destinées à protéger des salariés exposés à ces substances. Ces études consistent à mesurer simultanément l’imprégnation biologique et l’exposition atmosphérique à une substance, chez des salariés exposés à celle-ci. La relation entre ces mesures biologiques et atmosphériques est ensuite estimée à travers un modèle de régression linéaire. Lorsque que cette relation existe et que la voie d’absorption du toxique est essentiellement inhalatoire, il est ensuite possible de dériver une Valeur Limite Biologique (VLB) à partir de la Valeur Limite d’Exposition Professionnelle (VLEP-8h) du toxique. Deux aspects de ces données ont été identifiés, qui ne sont pas ou seulement partiellement prises en compte dans les modélisations statistiques courantes : la censure due aux limites de détection (LD)/quantification (LQ) des mesures biologiques et atmosphériques et la variabilité inter-individuelle. Ignorer ces deux particularités lors de la modélisation mène à une perte de puissance statistique et à de potentielles conclusions biaisées. Les travaux menés dans le cadre de cette thèse ont permis d’adapter le modèle de régression à ces deux caractéristiques, dans un cadre bayésien. L’approche proposée repose sur la modélisation des mesures atmosphériques à l’aide de modèles à effets aléatoires prenant en compte les valeurs inférieures à la LD/LQ, et sur la modélisation simultanée des mesures biologiques, supposée être linéairement dépendantes sur une échelle logarithmique, de l'exposition atmosphérique, tout en tenant compte de la variabilité inter-individuelle. Ce travail a donné lieu à une publication scientifique dans une revue à comité de lecture. L’application de cette méthodologie a été réalisée sur des jeux d’exposition professionnelle au béryllium et au chrome, après avoir été cependant adaptée aux caractéristiques toxicocinétiques de ces deux substances. Il a ainsi été possible de proposer une VLB pour le béryllium (0,06 µg/g créatinine). L’exploitation de mesures de chrome dans deux secteurs d’activités différents (exposition professionnelle aux peintures de chromates, et exposition professionnelle dans le secteur du chromage électrolytique) a permis de mettre en évidence que le chrome urinaire dépend essentiellement de l’exposition au chrome VI, le chrome non VI ayant moins d’impact. Nous n’avons pas pu montrer de relation entre la solubilité du CrVI et le chrome urinaire. Une VLB de 0,41 µg/g créatinine, de l’ordre de la Valeur Biologique de Référence (VBR) proposée par l’ANSES (0,54 µg/g créatinine), a été estimée pour l’exposition professionnelle aux peintures de chromates, et une VLB de 1,85 µg/g créatinine a été estimée pour l’exposition professionnelle dans le secteur du chromage électrolytique, qui est en cohérence avec la VLB proposée par l’ANSES dans ce secteur, à savoir 1,8 µg/g créatinine / Many biomonitoring studies are conducted at INRS, in order to assess occupational exposure to chemicals in France, and to propose reference values to protect workers exposed to these substances. These studies consist in measuring simultaneously biological and airborne exposure of workers exposed to a toxic substance. The relationship between these biological and airborne measurements is then estimated through a linear regression model. When this relationship exists and the route of absorption of the toxic is essentially inhalatory, it is possible to derive a Biological Limit Value (BLV) from the Occupational Exposure Limit Value (OEL) of the toxic substance. However, two characteristics of these data have been identified, which are not or only partially taken into account in the current statistical modelling: the left-censoring due to limits of detection (LoD)/quantification (LoQ) of biological and airborne measurements, and the between-individual variability. Ignoring both of these features in modelling leads to a loss of statistical power and potentially biased conclusions. The work carried out in this thesis allowed us to adapt the regression model to these two characteristics, in a Bayesian framework. The proposed approach is based on the modelling of airborne measurements using random effects models adapted for values below the LoD / LoQ, and on the simultaneous modelling of biological measurements, assumed to depend linearly on a logarithmic scale, on the airborne exposure, while taking into account between-subject variability. This work resulted in a scientific publication in a peer-reviewed journal. This methodology has been applied on beryllium and chromium occupational exposure datasets, after adaptation to the toxicokinetic characteristics of these two substances. It has thus been possible to propose a BLV for beryllium (0.06 μg / g creatinine). The analysis of chromium measurements in two different sectors of activity (occupational exposure to chromate paints, and occupational exposure in the electroplating sector) made it possible to show that urinary chromium depends mainly on airborne exposure to VI chromium, non-VI chromium having less impact. We were not able to show a relationship between the solubility of airborne VI chromium and urinary chromium. A BLV of 0.41 μg / g creatinine, close to the Biological Guidance Value (BGV) proposed by ANSES (0.54 μg / g creatinine), was estimated for occupational exposure to chromate paints, and a BLV of 1.85 μg/g creatinine was obtained for occupational exposure in the electrolytic chromium plating sector, which is consistent with the ANSES proposed BLV in this sector, i-e 1.8 μg / g creatinine
|
566 |
Recherche d'une description optimum des sources et systèmes vibroacoustiques pour la simulation du bruit de passage des véhicules automobiles / Research for an optimal description of vibro-acoustic sources and systems for the simulation of vehicle pass-by noiseHamdad, Hichem 20 December 2018 (has links)
Pour commercialiser un véhicule, les constructeurs automobiles doivent se soumettre à la réglementation sur le bruit extérieur. Le règlement de la commission économique pour l'Europe, ECE R51.03, spécifie les niveaux admissibles que peut rayonner un véhicule automobile en roulage. Ce règlement est entré en vigueur depuis le 1er juillet 2016 pour remplacer l'ancien règlement ECE R51.02 (changement de méthode d’essai et sévérisation des niveaux de bruit admissibles). La diminution drastique des niveaux sonores tolérés se fait en trois étapes : passage de 74 dB (A) sous l'ancien règlement, à 68 dB (A) en 2024. Par conséquent, les constructeurs ainsi que les fournisseurs automobiles seront confrontés à un grand défi pour atteindre cet objectif. Ainsi, l'objectif de ces travaux de thèse consiste à développer une aide à la modélisation totale du bruit de passage d’un véhicule, comme le préconisent les essais réglementaires. Le but est de construire des modèles optimaux pour prévoir et évaluer avec précision le bruit que peut rayonner un véhicule en roulage plus tôt dans son cycle de développement, i.e. avant l'étape d'industrialisation. Il faut alors se placer dans la recherche d'un compromis entre précision des estimations, sensibilité aux paramètres, robustesse de la méthode et efficacité numérique. / Currently, to put a vehicle on market, car manufacturers must comply to a certification test of exterior noise. The regulation of the United Nations Economic Commission for Europe, ECE R51-03, specifies permissible levels a rolling motor vehicle can emit. This regulation is applied since July 1st, 2016, to replace the old regulation ECE R51-02 (test method change and tightening of permissible levels). The drastic reduction in noise levels will be done in 3 steps: from 74 dB (A) under the old regulation to 68 dB (A) in 2024. Therefore, manufacturers as well as their suppliers will face a great challenge to achieve this goal. The objective of this thesis is to develop an aid to the modeling of the pass-by noise of a vehicle, as called for in regulatory testing. The goal is to predict and evaluate accurately the noise emissions earlier in the vehicle development cycle, i.e. before the industrialization stage. We must then seek a trade-off between accuracy of estimates, sensitivity to parameters, robustness of the method and numerical efficiency.
|
567 |
De la Réforme Sociale à l’Optimisation du Risque-Rendement : une compréhension du processus de gouvernementalisation au travers de l’histoire d’une Banque Ouvrière en Amérique Latine. / From social reform to risk and return optimization : the case of a Workers’ Bank in Latin AmericaCuenca Botey, Luis-Emilio 07 July 2015 (has links)
Parmi l’ensemble des organisations, les banques ont trois caractéristiques majeures : la prééminence des calculs dans la définition des cours de l’action de l’organisation ; la construction de mécanismes d’examen et de contrôle du comportement de leurs clients qui sont, en termes comptables, leurs actifs ; un rôle essentiel dans le cadrage des comportements économiques dans les sociétés modernes. Ainsi, tous les projets bancaires se construisent à partir des calculs mais aussi au travers de paradigmes liés à l’économie politique et aux injonctions morales qui leur sont concomitantes. Cette thèse se propose de contribuer à la connaissance des pratiques bancaires et de leur rôle dans la construction d’individus gouvernés par une certaine raison économique. Pour ce faire nous nous sommes intéressés à l’histoire socio-technique de la Banque Populaire et pour le développement communautaire du Costa Rica. Nous avons construit cette histoire à trois niveaux différents. D’abord le niveau des ‘discours du gouvernement’ qui a été étudié grâce à la consultation d’archives portant sur les discussions des lois définissant le cadre normatif de la Banque à l’Assemblée législative du Costa Rica. L’analyse de ces discussions nous a permis d’identifier cinq rationalités politiques se disputant l’hégémonie pour définir les conceptions de contrôle de l’organisation au cours de son histoire. Puis, nous nous sommes intéressés au niveau de la prise de décision stratégique. Nous l’avons étudié grâce à la consultation des comptes rendus portant sur des disputes concernant la gestion actif-passif de la banque de 1969 à 2010. Lors de l’analyse de ces discussions nous avons montré comment interagissent les technologies de calcul avec les rationalités politiques identifiées au premier niveau de la recherche et les trajectoires sociales et politiques des administrateurs participant dans les disputes. Ainsi, nous avons montré les modalités par lesquelles se déplacent les épreuves de justification permettant d’arriver à des accords sur le budget de crédit de la banque. Enfin, le troisième niveau de la thèse est une reconstruction historique des dispositifs d’évaluation des demandeurs de crédit. Au cours de cette partie nous montrons les relations qui existent entre la manière d’équilibrer le bilan et les formes d’évaluation et valorisation des demandeurs de crédit. Notre recherche s’inscrit dans la ligne des travaux portant sur une étude de l’économie politique par les instruments de gestion. Elle discute avec les études gouvernementalistes en comptabilité et propose un déplacement dans la manière de comprendre le déploiement de la rationalité économique dans le fonctionnement des organisations. / In the world of organizations, banks are characterized by three particular elements: the preeminence of calculations in defining the course of action of the organization; building control and evaluation devices for customers, who, in accounting terms, are their assets; the key role they play in the dissemination of economic rationality in society. Therefore, all banks are based on calculations, and also on paradigms from political economy and its implicit moral imperatives. However, relations between these constitutive dimensions of the banking practices have been little explored by research in accounting. The aim of this work is to contribute to a better knowledge of banking practices and its role in the construction of individuals governed by economic reason. To this end, this work was conducted with close reference to the social and technical history of a particular banking organization, Costa Rica’s Banco Popular y de Desarrollo Comunal (BPDC). The case study has three levels. First, the “governmental discourse” level, which we studied through systematic analysis of the original files and amendments of the organic law of BPDC. In this analysis we identified five political rationales that have historically disputed hegemony in the definition of the conception of control of the organization. Secondly, we studied the level of strategic decision, emphasizing the conflicts linked to the management of assets and liabilities. In this part we put in evidence the relationship between calculative technologies and political rationales identified in the previous level and we show the ways in which the evidence of justification was displaced to reach agreements and make decisions. Finally, the third level of the study has to do with the interaction between the borrowers and the organization. To address it, we reconstructed the history of the devices used to evaluate the borrowers. Thus, we show the relationship between ways of resolving conflicts at the strategic level of the organization and ways to assess credit risk. This work is related to current research trends that study relationships between political economy and management tools. Its aim is to discuss with governmentality studies in accounting. Its main contribution is the construction of a different approach to understand the way in which economic rationality is diffused into the functioning of organizations.
|
568 |
Data assimilation and uncertainty quantification in cardiovascular biomechanics / Assimilation de données et quantification des incertitudes en biomécanique cardiovasculaireLal, Rajnesh 14 June 2017 (has links)
Les simulations numériques des écoulements sanguins cardiovasculaires peuvent combler d’importantes lacunes dans les capacités actuelles de traitement clinique. En effet, elles offrent des moyens non invasifs pour quantifier l’hémodynamique dans le cœur et les principaux vaisseaux sanguins chez les patients atteints de maladies cardiovasculaires. Ainsi, elles permettent de recouvrer les caractéristiques des écoulements sanguins qui ne peuvent pas être obtenues directement à partir de l’imagerie médicale. Dans ce sens, des simulations personnalisées utilisant des informations propres aux patients aideraient à une prévision individualisée des risques. Nous pourrions en effet, disposer des informations clés sur la progression éventuelle d’une maladie ou détecter de possibles anomalies physiologiques. Les modèles numériques peuvent fournir également des moyens pour concevoir et tester de nouveaux dispositifs médicaux et peuvent être utilisés comme outils prédictifs pour la planification de traitement chirurgical personnalisé. Ils aideront ainsi à la prise de décision clinique. Cependant, une difficulté dans cette approche est que, pour être fiables, les simulations prédictives spécifiques aux patients nécessitent une assimilation efficace de leurs données médicales. Ceci nécessite la solution d’un problème hémodynamique inverse, où les paramètres du modèle sont incertains et sont estimés à l’aide des techniques d’assimilation de données.Dans cette thèse, le problème inverse pour l’estimation des paramètres est résolu par une méthode d’assimilation de données basée sur un filtre de Kalman d’ensemble (EnKF). Connaissant les incertitudes sur les mesures, un tel filtre permet la quantification des incertitudes liées aux paramètres estimés. Un algorithme d’estimation de paramètres, basé sur un filtre de Kalman d’ensemble, est proposé dans cette thèse pour des calculs hémodynamiques spécifiques à un patient, dans un réseau artériel schématique et à partir de mesures cliniques incertaines. La méthodologie est validée à travers plusieurs scenarii in silico utilisant des données synthétiques. La performance de l’algorithme d’estimation de paramètres est également évaluée sur des données expérimentales pour plusieurs réseaux artériels et dans un cas provenant d’un banc d’essai in vitro et des données cliniques réelles d’un volontaire (cas spécifique du patient). Le but principal de cette thèse est l’analyse hémodynamique spécifique du patient dans le polygone de Willis, appelé aussi cercle artériel du cerveau. Les propriétés hémodynamiques communes, comme celles de la paroi artérielle (module de Young, épaisseur de la paroi et coefficient viscoélastique), et les paramètres des conditions aux limites (coefficients de réflexion et paramètres du modèle de Windkessel) sont estimés. Il est également démontré qu’un modèle appelé compartiment d’ordre réduit (ou modèle dimension zéro) permet une estimation simple et fiable des caractéristiques du flux sanguin dans le polygone de Willis. De plus, il est ressorti que les simulations avec les paramètres estimés capturent les formes attendues pour les ondes de pression et de débit aux emplacements prescrits par le clinicien. / Cardiovascular blood flow simulations can fill several critical gaps in current clinical capabilities. They offer non-invasive ways to quantify hemodynamics in the heart and major blood vessels for patients with cardiovascular diseases, that cannot be directly obtained from medical imaging. Patient-specific simulations (incorporating data unique to the individual) enable individualised risk prediction, provide key insights into disease progression and/or abnormal physiologic detection. They also provide means to systematically design and test new medical devices, and are used as predictive tools to surgical and personalize treatment planning and, thus aid in clinical decision-making. Patient-specific predictive simulations require effective assimilation of medical data for reliable simulated predictions. This is usually achieved by the solution of an inverse hemodynamic problem, where uncertain model parameters are estimated using the techniques for merging data and numerical models known as data assimilation methods.In this thesis, the inverse problem is solved through a data assimilation method using an ensemble Kalman filter (EnKF) for parameter estimation. By using an ensemble Kalman filter, the solution also comes with a quantification of the uncertainties for the estimated parameters. An ensemble Kalman filter-based parameter estimation algorithm is proposed for patient-specific hemodynamic computations in a schematic arterial network from uncertain clinical measurements. Several in silico scenarii (using synthetic data) are considered to investigate the efficiency of the parameter estimation algorithm using EnKF. The usefulness of the parameter estimation algorithm is also assessed using experimental data from an in vitro test rig and actual real clinical data from a volunteer (patient-specific case). The proposed algorithm is evaluated on arterial networks which include single arteries, cases of bifurcation, a simple human arterial network and a complex arterial network including the circle of Willis.The ultimate aim is to perform patient-specific hemodynamic analysis in the network of the circle of Willis. Common hemodynamic properties (parameters), like arterial wall properties (Young’s modulus, wall thickness, and viscoelastic coefficient) and terminal boundary parameters (reflection coefficient and Windkessel model parameters) are estimated as the solution to an inverse problem using time series pressure values and blood flow rate as measurements. It is also demonstrated that a proper reduced order zero-dimensional compartment model can lead to a simple and reliable estimation of blood flow features in the circle of Willis. The simulations with the estimated parameters capture target pressure or flow rate waveforms at given specific locations.
|
569 |
The metabolic consequences of gene knockout to pathway flux in trypanosomes / The metabolic consequences of gene knockout to pathway flux in trypanosomesFatarova, Maria 23 May 2017 (has links)
Le contexte de ce projet de thèse était d’approfondir la compréhension du métabolisme de Trypanosoma brucei. Les trypanosomes utilisent différents types de sources de carbone, des hydrates de carbone ainsi que des acides aminés pour alimenter leurs besoins énergétiques et biosynthétiques (conditions imitant réellement l'environnement dans la mouche tse-tse). Les différences de thioesters d'acyl-CoA sont encore inconnues dans ces conditions. Une telle élucidation est essentielle pour comprendre les adaptations métaboliques de l'organisme au cours de son cycle de vie. Cet objectif pourrait être complété par une combinaison d'analyses sensibles de divers groupes de métabolites, de délétions dirigées de gènes ou de régulations négatives. Ces derniers développements intègrent un flux de travail complet d'analyse des flux métaboliques par 13C à l’état-instationnaire. Ce flux de travail combine les méthodes existantes pour la collecte d'échantillons, la métabolomique quantitative basée sur MS et l'analyse isotopique d'acides organiques, d'acides aminés, de composés phosphorylés en plus des thioesters d'acyl Coenzyme A (acyl-CoAs), qui représentent un point central entre le métabolisme central du carbone et les voies anaboliques. Ce flux de travail a d'abord été évalué et validé sur l'organisme modèle Escherichia coli et a fourni de nouvelles idées sur son fonctionnement métabolique. Par la suite, ce flux de travail a ensuite été exploité pour étudier le métabolisme de T. brucei, pour lequel les résultats préliminaires sont décrits et discutés dans cette thèse. / Unusual metabolism of protozoan parasite causing deadly sleeping sickness, Trypanosoma brucei, has been enigmatic for many years. In the past decades, targeted genetic perturbations combined with metabolic analysis have advanced the view on complex compartmentalized metabolism of this organism, but acyl-CoA metabolism on the crossroad between catabolic and anabolic pathways, remains largely uncharacterized. Present work aims at clarifying mitochondrial operation and topology of acyl-CoA network of T. brucei, as well as its interconnections with the rest of metabolism. This has required the development of a complete framework for investigation of acyl-CoA metabolism in T. brucei integrating isotope labeling experiments with metabolite quantification. Sensitive LC-MS method for identification and quantification of acyl-CoAs based on high-resolution mass spectrometry (HRMS) with LTQ-OrbiTrap has been established and applied to investigate acyl-CoA metabolism in the protozoan parasite, as well as in the model organism in systems and synthetic biology, Escherichia coli. Complete workflow from cell cultivation, measurement of extracellular fluxes and analysis of isotopic profile which is result of enzyme-specific incorporation of isotopic tracer allowed modelling of metabolic network and calculation of metabolic fluxes. The entire workflow has been biologically validated and has clarified the link between acyl-CoA and central carbon metabolism in E. coli. The proposed framework has been adapted to T. brucei, for which several sample collection methods have been evaluated thoroughly. It was possible to extract, identify and quantify main acyl-CoA species produced from glucose catabolism. This optimised setup for acyl-CoA analysis will allow collection of data for NMR-based analysis of metabolic end products as well as collection of intracellular metabolites from same sample.
|
570 |
Rôle des médicaments antiangiogéniques et de l’expression des transporteurs d’efflux de la barrière hémato-encéphalique dans la modulation du passage intracérébral et intratumoral des médicaments utilisés dans le traitement du glioblastome / Impact of angiogenesis inhibitors and efflux transporters expression on brain and tumor dstribution of chemotherapy used in glioblastoma treatmentGoldwirt, Lauriane 08 October 2014 (has links)
Les glioblastomes sont les tumeurs cérébrales les plus fréquentes avec une incidence en France de l'ordre de 4 nouveaux cas par an et pour 100 000 habitants (2400/ an). Le traitement standard pharmacologique des glioblastomes nouvellement diagnostiqués consiste en première ligne en une administration de témozolomide (75 mg/m2/j) pendant la radiothérapie, suivie d’une consolidation de 6 cycles. Cependant, malgré ce traitement, la médiane de survie n’est que de 15 mois et de 3 à 9 mois pour les rechutes. De nouvelles approches thérapeutiques sont donc indispensables. Parmi elles, ont été évalués le recours à d’autres chimiothérapies (irinotecan) et à l’inhibition de l’angiogénèse. L'angiogenèse est en effet un processus critique dans la progression GBM. L'inhibition de l'angiogenèse, induisant une réduction des vaisseaux sanguins, permet une diminution de l’apport des nutriments et d'oxygène à la tumeur. De manière générale, l’efficacité des traitements du glioblastome est soumise, dans un premier temps, à leur passage intra-cérébral au travers de la barrière hémato-encéphalique (BHE). L’objectif de notre travail était d’une part d’étudier l’impact de l’expression du transporteur d’efflux ABCB1 sur la distribution cérébrale du témozolomide (TMZ) et de l’irinotecan (CPT-11), et d’autre part, d’évaluer le rôle du bevacizumab (BVZ)(inhibiteur de l’angiogénèse) dans la modulation du passage intra-cérébral et intra-tumoral du TMZ et du CPT-11. A l'aide d'une étude pharmacocinétique comparative chez les souris CF1 mdr1a (+/+) et les souris CF1 mdr1a (-/-), nous avons mis en évidence un efflux actif du TMZ, du CPT-11 et de son métabolite actif le SN-38 du cerveau vers le plasma, impliquant ABCB1 au niveau de la BHE. Nous avons également démontré in vivo que le TMZ s'accumule dans la tumeur cérébrale et que le prétraitement par BVZ augmente la distribution tumorale de TMZ. En revanche, le BVZ n’a montré aucun effet sur la distribution cérébrale ou tumorale du CPT-11. Le BVZ apparaitrait donc comme un moyen intéressant d’augmenter la distribution intratumorale du TMZ. Dans ce même objectif, une collaboration initiée dans le cadre de cette thèse a permis de mettre en évidence l’intérêt de l’utilisation d’ultrasons dans l’ouverture de la BHE et l’amélioration de la distribution cérébrale des médicaments. / Glioblastomas are the most common brain tumors occurring in France with an incidence of 4 new cases per year per 100 000 population (2400/year). The gold standard pharmacological treatment of newly diagnosed glioblastoma relies on temozolomide administration (75 mg/m2/d) concomitant to radiotherapy, followed by six cycles consolidation. However, despite this treatment, the median survival is only 15 months and relapse occurs within 3 to 9 months. New therapeutic approaches are needed. Among them, other chemotherapies (irinotecan) and inhibition of angiogenesis were explored. Angiogenesis is a critical process in GBM progression. Inhibition of angiogenesis, inducing a reduction of the blood vessels, reduces supply of nutrients and oxygen to the tumor. The effectiveness of GBM treatment is subjected to intra-brain diffusion through the blood-brain barrier. The objective of this study was firstly to study the impact of efflux transporter ABCB1 brain expression on temozolomide (TMZ) and irinotecan (CPT-11) brain distribution, and secondly, to assess the role of bevacizumab (BVZ)(angiogenesis inhibitor) in the modulation of TMZ and CPT-11 brain and tumor distribution. Using a comparative pharmacokinetic study in CF1 mdr1a (+/+) and CF1 mdr1a (-/-) mice, we demonstrated an active efflux of TMZ, CPT-11 and its active metabolite SN-38 from the brain to the plasma involving ABCB1. We also demonstrated in vivo that TMZ accumulates in brain tumor and BVZ pretreatment increased TMZ tumor distribution. However no effect of BVZ on CPT-11 brain or tumor distribution was evidenced. Therefore BVZ would appear to be an interesting way to increase TMZ tumor distribution. The same objective was pursued through a different approach using ultrasound unfocused to open the BBB (Carthera collaboration).
|
Page generated in 0.0561 seconds