131 |
Acquisition/apprentissage des relatives en français par des étudiants vietnamiens en FLEVu, Ha Nguyen January 2008 (has links)
No description available.
|
132 |
Data fusion and collaborative state estimation in wireless sensor networks / Fusion de données et estimation collaborative d'état dans les réseaux de capteurs sans filHaj Chhadé, Hiba 01 June 2015 (has links)
L'objectif de la thèse est de développer des algorithmes de fusion de données recueillies à l’aide d'un réseau de capteurs sans fil afin de localiser plusieurs sources émettant un agent chimique ou biologique dans l'air. Ces capteurs détectent la concentration de la substance émise, transportée par advection et diffusion, au niveau de leurs positions et de communiquer cette information à un centre de traitement. L’information recueillie de façon collaborative est d'abord utilisée pour localiser les capteurs déployés au hasard et ensuite pour localiser les sources. Les applications comprennent, entre autres, la surveillance environnementale et la surveillance de sites sensibles ainsi que des applications de sécurité dans le cas d'une libération accidentelle ou intentionnelle d'un agent toxique. Toutefois, l'application considérée dans la thèse est celle de la détection et la localisation de mines terrestres. Dans cette approche, les mines sont considérées comme des sources émettrices de produits chimiques explosifs.La thèse comprend une contribution théorique où nous étendons l'algorithme de propagation de la croyance, un algorithme de fusion de données bien connu et largement utilisé pour l'estimation collaborative d'état dans les réseaux de capteurs, au cadre des méthodes à erreurs bornées. Le nouvel algorithme est testé sur le problème de l'auto-localisation dans les réseaux de capteurs statiques ainsi que l'application de suivi d'un objet mobile en utilisant un réseau de capteurs de distance. Autres contributions comprennent l'utilisation d'une approche probabiliste bayésienne avec des techniques d'analyse de données pour localiser un nombre inconnu de sources émettrices de vapeur. / The aim of the thesis is to develop fusion algorithms for data collected from a wireless sensor network in order to locate multiple sources emitting some chemical or biological agent in the air. These sensors detect the concentration of the emitted substance, transported by advection and diffusion, at their positions and communicate this information to a treatment center. The information collected in a collaborative manner is used first to locate the randomly deployed sensors and second to locate the sources. Applications include, amongst others, environmental monitoring and surveillance of sensitive sites as well as security applications in the case of an accidental or intentional release of a toxic agent. However, the application we consider in the thesis is that of landmine detection and localization. In this approach, the land mines are considered as sources emitting explosive chemicals. The thesis includes a theoretical contribution where we extend the Belief Propagation algorithm, a well-known data fusion algorithm that is widely used for collaborative state estimation in sensor networks, to the bounded error framework. The novel algorithm is tested on the self-localization problem in static sensor networks as well as the application of tracking a mobile object using a network of range sensors. Other contributions include the use of a Bayesian probabilistic approach along with data analysis techniques to locate an unknown number of vapor emitting sources.
|
133 |
Latrogénie médicamenteuse et admissions en réanimation : investigation des principales causes / Adverse drug event and intensive care unit related admissions : investigation of main causesJolivot, Pierre-Alain 15 December 2016 (has links)
Les événements indésirables médicamenteux (EIM) regroupent à la fois les effets indésirables des médicaments (ADR : Adverse Drug Reactions), considérés comme non évitables et les erreurs médicamenteuses (EM), considérées comme évitables. L’objectif de cette thèse est d’étudier les EIM conduisant à une admission en réanimation.Dans un premier temps, nous avons effectué une revue systématique de la littérature portant sur l’incidence des hospitalisations en réanimation pour EIM. Au total, 11 études ont été intégrées. L’incidence des EIM nécessitant une admission en réanimation variait de 0,37 à 27,4 %. Au total, 17,5 à 85,7 % de ces EIM étaient jugés évitables. Nous avons mené dans un second temps une étude observationnelle d’une durée d’un an dans un service de réanimation médicale d’un hôpital universitaire. Cette étude avait pour objectif d’évaluer l’incidence, l’évitabilité, la sévérité, le coût des EIM responsables d’admissions en réanimation et d’identifier les causes amorces à l’origine des EM.Au total, 743 séjours ont été inclus dont 102 (13,7 %) étaient liés à une EM et 71 (9,6 %) à un ADR. Le taux d’événements évitables était ainsi de 0,59. La non-observance des patients à leur traitement médicamenteux était la principale cause amorce des EM (n = 31/102). Les 102 séjours évitables liés à une EM représentaient un total de 528 journées d’hospitalisation en réanimation, occupant ainsi en moyenne 1,4 lit par jour sur une période d’un an pour un coût total de 747 651 €.Ce travail conclue sur la nécessité d’effectuer des études complémentaires afin d’évaluer les moyens à mettre en œuvre pour réduire l’incidence des EIM responsables d’admissions en réanimation. / Adverse drug events (ADE) include adverse drug reactions (ADR), considered as not preventable and medication errors (ME), considered as preventable. The aim of this thesis is to describe ADE responsible for ICU admissions. First, we conducted a systematic review dealing with the incidence of ADE requiring ICU admission in adult patients. A total of 11 studies were included in the meta-analysis. The reported incidences of ADE requiring ICU admission ranged from 0.37 to 27.4%. Preventable events accounted for 17.5 to 85.7% of the events.To get more insight into this topic and to complete the published data, we performed a one-year observational study in a medical ICU of a teaching parisian hospital. The objectives of the study were to estimate the incidence of ICU admissions due to ADE, to assess preventability, severity and costs of these ADE and to determine the leading causes of medication errors (preventable ADE). A total of 743 admissions were included with 102 stays (13.7%) related to ME and 71 (9.6%) related to ADR. Medication non-compliance was the main leading cause of ME (n = 31/102). The 102 medication error-related admissions accounted for a total of 528 days of hospitalization in the ICU, requiring a mean of 1.4 ICU beds per day over the one-year period, with an associated total cost amounting to 747,651 €.This work concludes that further studies should be performed to assess ways to reduce the incidence of ADE responsible for ICU admissions.
|
134 |
Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques / High accuracy numerical methods and scientific computing for the coupling of hyperbolic modelsHaddaoui, Khalil 07 July 2016 (has links)
La simulation numérique adaptative d'écoulements présentant des phénomènes multi-échelles s'effectue généralement au moyen d'une hiérarchie de modèles différents selon l'échelle mise en jeu et le niveau de précision requis. Ce type de modélisation numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l'analyse et à la mise en œuvre de méthodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d'équations aux dérivées partielles hyperboliques.Dans une première partie, nous développons et analysons une méthode numérique dédiée au couplage interfacial des équations d'Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d'une loi de pression distincte et l'interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l'interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l'interface (typiquement des pertes de charge) et sa définition permet l'application de plusieurs stratégies de couplage. Notre méthode d'approximation repose sur les techniques d'approximation par relaxation de type Suliciu. La résolution exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L'implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu'il est possible de contrôler l'écoulement à l'interface de couplage en calculant des poids solutions de problèmes d'optimisation sous contraintes.La deuxième partie de cette thèse est dédiée au développement de deux schémas numériques d'ordre arbitrairement élevé en espace pour l'approximation des solutions stationnaires du problème mixte associé au modèle de Jin et Xin. Nos schémas d'approximation reposent sur la méthode de Galerkin discontinue. L’approximation des solutions du problème mixte par notre premier schéma fait intervenir uniquement des erreurs de discrétisation tandis que notre deuxième schéma est constitué à la fois d'erreurs de modélisation et de discrétisation. L'erreur de modélisation provient du remplacement, dans certaines régions spatiales, de la résolution du modèle de relaxation par celle de l'équation scalaire équilibre associée. Sous l'hypothèse d'une interface de couplage éventuellement caractéristique, la résolution du problème de Riemann associé au modèle couplé nous permet de construire un schéma numérique d'ordre arbitrairement élevé prenant en compte l'éventuelle existence de couches limites à l'interface de couplage. Enfin, la mise en œuvre de ces méthodes nous permet d'analyser quantitativement et qualitativement les erreurs de modélisation et de discrétisation commises lors de l'utilisation du schéma couplé. Ces erreurs sont fonction du niveau de raffinement de maillage utilisé, du degré de polynôme choisi et de la position de l'interface de couplage. / The adaptive numerical simulation of multiscale flows is generally carried out by means of a hierarchy of different models according to the specific scale into play and the level of precision required. This kind of numerical modeling involves complex multiscale coupling problems. This thesis is thus devoted to the development, analysis and implementation of efficient methods for solving coupling problems involving hyperbolic models.In a first part, we develop and analyze a coupling algorithm for one-dimensional Euler systems. Each system of conservation laws is closed with a different pressure law and the coupling interface separating these models is assumed fix and thin. The transmission conditions linking the systems are modelled thanks to a measure source term concentrated at the coupling interface. The weight associated to this measure models the losses of conservation and its definition allows the application of several coupling strategies. Our method is based on Suliciu's relaxation approach. The exact resolution of the Riemann problem associated to the relaxed system allows us to design an extremely accurate scheme for the coupling model. This scheme preserves equilibrium solutions of the coupled problem and can be used for general pressure laws. Several numerical experiments assess the performances of our scheme. For instance, we show that it is possible to control the flow at the coupling interface when solving constrained optimization problems for the weights.In the second part of this manuscript we design two high order numerical schemes based on the discontinuous Galerkin method for the approximation of the initial-boundary value problem associated to Jin and Xin's model. Our first scheme involves only discretization errors whereas the second approximation involves both modeling and discretization errors. Indeed in the second approximation, we replace in some regions the resolution of the relaxation model by the resolution of its associated scalar equilibrium equation. Under the assumption of a possible characteristic coupling interface, we exactly solve the Riemann problem associated to the coupled model. This resolution allows us to design a high order numerical scheme which captures the possible boundary layers at the coupling interface. Finally, the implementation of our methods enables us to analyze quantitatively and qualitatively the modeling and discretization errors involved in the coupled scheme. These errors are functions of the mesh size, the degree of the polynomial approximation and the position of the coupling interface.
|
135 |
Analyse métabolomique multidimensionnelle : applications aux erreurs innées du métabolisme / Multidimensional metabolomics analysis : application to Inborn Errors of MetabolismTebani, Abdellah 05 July 2017 (has links)
La médecine de précision (MP) est un nouveau paradigme qui révolutionne la pratique médicale actuelle et remodèle complètement la médecine de demain. La MP aspire à placer le patient au centre du parcours de soins en y intégrant les données médicales et biologiques individuelles tout en tenant compte de la grande diversité interindividuelle. La prédiction des états pathologiques chez les patients nécessite une compréhension dynamique et systémique. Les erreurs innées du métabolisme (EIM) sont des troubles génétiques résultant de défauts dans une voie biochimique donnée en raison de la déficience d'une enzyme, de son cofacteur ou d’un transporteur. Les EIM ne sont plus considérées comme des maladies monogéniques mais tendent à être plus complexes et multifactorielles. Le profil métabolomique permet le dépistage d’une pathologie, la recherche de biomarqueurs et l’exploration des voies métaboliques mises en jeu. Dans ce travail de thèse, nous avons utilisé l’approche métabolomique qui est particulièrement pertinente pour les EIM compte tenu de leur physiopathologie de base qui est étroitement liée au métabolisme. Ce travail a permis la mise en place d’une méthodologie métabolomique non ciblée basée sur une stratégie analytique multidimensionnelle comportant la spectrométrie de masse à haute résolution couplée à la chromatographie liquide ultra-haute performance et la mobilité ionique. La mise en place de la méthodologie de prétraitement, d’analyse et d’exploitation des données générées avec des outils de design expérimental et d’analyses multivariées ont été aussi établies. Enfin, cette approche a été appliquée pour l’exploration des EIM avec les mucopolysaccharidoses comme preuve de concept. Les résultats obtenus suggèrent un remodelage majeur du métabolisme des acides aminés dans la mucopolysaccharidose de type I. En résumé, la métabolomique pourrait être un outil complémentaire pertinent en appui à l’approche génomique dans l’exploration des EIM. / The new field of precision medicine is revolutionizing current medical practice and reshaping future medicine. Precision medicine intends to put the patient as the central driver of healthcare by broadening biological knowledge and acknowledging the great diversity of individuals. The prediction of physiological and pathological states in patients requires a dynamic and systemic understanding of these interactions. Inborn errors of metabolism (IEM) are genetic disorders resulting from defects in a given biochemical pathway due to the deficiency of an enzyme, its cofactor or a transporter. IEM are no longer considered to be monogenic diseases, which adds another layer of complexity to their characterization and diagnosis. To meet this need for faster screening, the metabolic profile can be a promising candidate given its ability in disease screening, biomarker discovery and metabolic pathway investigation. In this thesis, we used a metabolomic approach which is particularly relevant for IEM given their basic pathophysiology that is tightly related to metabolism. This thesis allowed the implementation of an untargeted metabolomic methodology based on a multidimensional analytical strategy including high-resolution mass spectrometry coupled with ultra-high-performance liquid chromatography and ion mobility. This work also set a methodology for preprocessing, analysis and interpretation of the generated data using experimental design and multivariate data analysis. Finally, the strategy is applied to the exploration of IEM with mucopolysaccharidoses as a proof of concept. The results suggest a major remodeling of the amino acid metabolisms in mucopolysaccharidosis type I. In summary, metabolomic is a relevant complementary tool to support the genomic approach in the functional investigations and diagnosis of IEM.
|
136 |
Application du codage réseau dans l'environnement sans fil : conditions de codage et contrôle de redondance adaptatif / Application of network coding in wireless networks : coding conditions and adaptive redundancy controlVu, Thuong Van 14 April 2014 (has links)
Depuis 2001, le codage réseau a devenu une technique de communication qui permet des meilleures performances réseaux. Au lieu de relayer les paquets séparément, le codage réseau permet aux noeuds réseaux de combiner plusieurs paquets natifs en un seul paquet codé. Le réseau peut réduire le nombre de transmissions, réduire le temps de transfert et augmenter le débit de transmission. Le codage réseau ne suit pas l'hypothèse dans laquelle l'information reste séparée et invariable dans chaque paquet de la source à la destination. Dans le codage réseau, les informations transportées dans les paquets ne doivent pas être endommagées mais elles peuvent être mixées et transformées. Dans le contexte de cette thèse, nous contribuons dans deux directions: l'augmentation de la capacité du réseau et la fiabilité de la transmission contre les erreurs aléatoires. Pour augmenter la capacité du réseau, nous avons défini des nouvelles conditions de codage dans le codage réseau inter-flux. Pour fournir la fiabilité de la transmission, nous avons proposé de nouveaux protocoles de codage réseau. Les résultats de simulations via NS-2 ont montré les améliorations importantes des performances. / Since its first introduction in 2001, network coding has gained a significant attention from the research communities in the need of improving the way of communication in computer networks. In short, network coding is a technique which allows the nodes to combine several native packets into one coded packet for transmission (i.e, coding packets) instead of simply forwarding packets one by one. With network coding, a network can save the number of transmissions to reduce data transfer time and increase throughput. This breaks the great assumption about keeping information separate and whole. Information must not be tampered but it can be mixed, and transformed. In the scope of the thesis, we focus on two main benefits of network coding: throughput improvement and transmission reliability against random losses. For the throughput improvement, we use inter-flow network coding and extend the coding conditions. For transmission reliability, we use intra-flow network coding and suggest new coding schemes. The obtained results via NS-2 simulations are quite promising.
|
137 |
Approche hiérarchique bayésienne pour la prise en compte d’erreurs de mesure d’exposition chronique et à faible doses aux rayonnements ionisants dans l’estimation du risque de cancers radio-induits : Application à une cohorte de mineurs d’uranium / Bayesian Hierarchical Approach to Deal with Protracted Low-Dose Exposure Measurement Errors to Ionizing Radiations in Estimating the Risk of Radiation-Induced Cancers : Application to a Uranium Miners CohortHoffmann, Sabine 12 December 2017 (has links)
En épidémiologie des rayonnements ionisants, les erreurs de mesure d’exposition et l’incertitude sur le calcul de la dose absorbée à l’organe constituent des sources d’incertitude importantes entrant en jeu dans la modélisation et l’estimation des relations dose-réponse d’intérêt. Celles-ci peuvent être de nature très complexes dans le cadre d’études de cohortes professionnelles et sont ainsi rarement prises en compte dans ce domaine. Pourtant, lorsque les erreurs de mesure d’exposition ne sont pas ou mal prises en compte, elles peuvent mener à des estimateurs de risque biaisés, à une perte de puissance statistique ainsi qu’à une déformation de ces relations dose-réponse. L’objectif de ce travail est de promouvoir l’utilisation de l’approche hiérarchique bayésienne pour la prise en compte explicite et simultanée des erreurs de mesure d’exposition et des incertitudes de dose intervenant dans les estimations de risques sanitaires radio-induits dans les études de cohortes professionnelles. Plus spécifiquement, des modèles hiérarchiques ont été proposés et inférés afin d’affiner l’estimation actuelle du risque de décès par cancer du poumon associé à une exposition chronique et à faibles doses au radon et ses descendants à vie courte à partir de données issues de la cohorte française des mineurs d’uranium. Ces modèles, connus pour leur souplesse et leur pertinence pour la prise en compte de sources d’incertitude multiples et complexes, sont basés sur une combinaison de sous-modèles probabilistes conditionnellement indépendants. Afin de quantifier l’impact de l’existence d’erreurs de mesure d’exposition partagées et non-partagées sur l’estimation du risque et sur la forme de la relation exposition-risque dans les études de cohortes professionnelles, une étude par simulations a été conduite dans laquelle différentes structures complexes mais réalistes d’erreurs de mesure (pouvant par ailleurs varier dans le temps) ont été considérées. Une élicitation de lois a priori reflétant l’incertitude relative au débit respiratoire - un paramètre important intervenant dans le calcul de la dose absorbée au poumon – a été conduite auprès de trois experts des conditions d’exposition dans les mines d’uranium française et des méthodes de combinaison de dires d’experts ont été mises en œuvre et comparées. Enfin, des algorithmes Monte-Carlo par Chaînes de Markov ont été implémentés sous Python pour mener l’inférence bayésiennes des différents modèles hiérarchiques proposés et ainsi, obtenir des estimations corrigées du risque de décès par cancer du poumon radio-induit dans la cohorte française des mineurs d’uranium. / In radiation epidemiology, exposure measurement error and uncertain input parameters in the calculation of absorbed organ doses are among the most important sources of uncertainty in the modelling of the health effects of ionising radiation. As the structures of exposure and dose uncertainty arising in occupational cohort studies may be complex, these uncertainty components are only rarely accounted for in this domain. However, when exposure measurement is not or only poorly accounted for, it may lead to biased risk estimates, a loss in statistical power and a distortion of the exposure-response relationship. The aim of this work was to promote the use of the Bayesian hierarchical approach to account for exposure and dose uncertainty in the estimation of the health effects associated with exposure to ionising radiation in occupational cohorts. More precisely, we proposed several hierarchical models and conducted Bayesian inference for these models in order to obtain corrected risk estimates on the association between exposure to radon and its decay products and lung cancer mortality in the French cohort of uranium miners. The hierarchical appraoch, which is based on the combination of sub-models that are linked via conditional independence assumptions, provides a flexible and coherent framework for the modelling of complex phenomena which may be prone to multiple sources of uncertainty. In order to compare the effects of shared and unshared exposure uncertainty on risk estimation and on the exposure-response relationship we conducted a simulation study in which we supposed complex and potentially time-varying error structures that are likely to arise in an occupational cohort study. We elicited informative prior distributions for average breathing rate, which is an important input parameter in the calculation of absorbed lung dose, based on the knowledge of three experts on the conditions in French uranium mines. In this context, we implemented and compared three approaches for the combination of expert opinion. Finally, Bayesian inference for the different hierarchical models was conducted via a Markov chain Monte Carlo algorithm implemented in Python to obtain corrected risk estimates on the lung cancer mortality in the French cohort of uranium miners associated with exposure to radon and its progeny.
|
138 |
Recherche et validation de biomarqueurs lipidiques du globule rouge par chromatographie en phase liquide couplée à la spectrométrie de masse. Application au diagnostic et au suivi thérapeutique de la maladie de Gaucher / Research and validation of red blood cell lipid biomarkers based on liquid chromatography-tandem mass spectrometry. Application to the diagnosis and monitoring of Gaucher diseaseChipeaux, Caroline 18 December 2019 (has links)
Chez l’homme, les erreurs innées du métabolisme des lipides sont dues à des déficits enzymatiques, entraînant une accumulation intracellulaire de substrats lipidiques. Il en résulte un large éventail de symptômes tels que des atteintes viscérales, osseuses et dans certains cas neurologiques. En outre, de nombreux patients atteints de ce type de maladie présentent des anomalies hématologiques et vasculaires attribuées à des anomalies rhéologiques du globule rouge (GR). Ces observations ont conduit à l’hypothèse de l’existence d’un lien entre les propriétés anormales du GR et sa composition lipidique. Or actuellement, le profil lipidique du GR normal reste méconnu. Cependant, le diagnostic précoce de ces troubles est d’une importance capitale pour la prise en charge des patients, notamment dans les cas où un traitement correctif est disponible. La maladie de Gaucher (MG) de type 1, qui est une maladie lysosomale caractérisée par un déficit en β-glucocérébrosidase et pour laquelle un traitement enzymatique substitutif (ERT) est proposé, en est le meilleur exemple. D’où l’intérêt de disposer d’un outil simple et rapide de diagnostic de ce type de maladie.Dans le cas de la MG, le diagnostic repose encore sur la mise en évidence, laborieuse, du déficit enzymatique. Néanmoins, des travaux récents suggèrent que les anomalies rhéologiques du GR pourraient être dues à l’accumulation de quatre sphingolipides, le glucosylcéramide, la glucosylsphingosine, la sphingosine et la sphingosine-1-phosphate, qui seraient de bons candidats biomarqueurs. Or, les méthodes actuelles de dosage de ces sphingolipides nécessitent au moins deux étapes chromatographiques, avec pour chacune une étape longue et fastidieuse de préparation de l’échantillon, ce qui ne facilite guère une approche lipidomique de ce sujet. En outre, seul le glucosylcéramide a été dosé dans le GR tandis que les trois autres sphingolipides n’ont été dosés que dans le plasma. Ces candidats biomarqueurs restent donc à valider.Dans cette thèse, nous avons développé et validé une méthode simple et rapide, par UHPLC-MS/MS, de dosage simultané des 4 sphingolipides impliqués dans la MG. L’application de cette méthode à des GR provenant de patients atteints de la MG, en collaboration avec l’Institut National de Transfusion Sanguine et la société Shire, nous a permis de : 1- valider un biomarqueur parmi les quatre proposés et de montrer que les trois autres n’étaient pas suffisamment spécifiques ; 2- vérifier l’efficacité du traitement ERT actuellement proposé et 3- confirmer l’hypothèse de départ reliant les anomalies rhéologiques du GR à sa composition lipidique.De même, une étude systématique des conditions opératoires nous a permis de généraliser la méthode proposée à l’identification et au dosage de l’ensemble des sphingolipides présents dans un GR ainsi que des phospholipides, constituants majoritaires de sa membrane. Appliquée à la quantification simultanée d’une trentaine de sphingolipides et de phospholipides dans le GR normal et celui de la MG, cette méthode nous a permis de mettre en évidence l’implication d’autres lipides polaires dans la maladie de Gaucher, outre les 4 sphingolipides jusqu’alors proposés. De même, il est prévu de l’adapter à moyen terme pour le profilage total, par classe, de tous les lipides présents dans le GR.Enfin, nous avons évalué d’autres techniques de SM telles que la haute résolution et la mobilité ionique (TWIMS et DIMS) dans le but d’affiner la recherche de nouveaux biomarqueurs, notamment par l’identification des lipides isomères non discriminables par les techniques de MS conventionnelles. Grâce à une collaboration avec le Laboratoire de Chimie Physique (LCP, CNRS UMR 8000) nous avons montré la faisabilité de cette approche en séparant en DIMS deux isomères : la galactosylsphingosine 18:1 et la glucosylsphingosine 18:1 et nous poursuivons actuellement cette étude pour séparer d’autres couples d’isomères. / In humans, hereditary disorders of lipid metabolism are due to enzyme deficiencies, resulting in intracellular accumulation of lipid substrates. This results in a wide range of symptoms such as visceral, bone and in some cases neurological disorders. Furthermore, many patients suffering such diseases have hematologic and vascular symptoms attributed to red blood cell (RBC) rheological abnormalities. These observations led to a hypothesis linking RBC abnormal properties to its lipid composition. However, the lipid profile of normal RBC remains unknown to date. Early diagnosis of these conditions is of importance notably when a therapy is available. This is the case for Gaucher disease (GD) type 1, a lysosomal disorder characterized by β-glucocerebrosidase deficiency, where an enzyme replacement therapy (ERT) is proposed. Hence, the availability of a simple and rapid tool of diagnosis of such a disorder is of great importance, notably for a better patient care and monitoring.To the best of our knowledge, standard diagnosis procedures and monitoring of GD patients are still based on the tedious evaluation of enzyme deficiency. Nevertheless, recent works suggest that these rheological disorders may be due to the accumulation of four sphingolipids, glucosylceramide, glucosylsphingosine, sphingosine and sphingosine-1-phosphate, which could be considered as relevant biomarkers. However, most of current determination methods of these sphingolipids require at least two liquid chromatographic runs, each with a time-consuming sample preparation step that does not facilitate a lipidomic approach. In addition, only glucosylceramide was quantified in RBC while the other three sphingolipids were quantified only in plasma. Thus, these biomarker candidates remain to be validated.In this PhD, we describe a simple and rapid UHPLC-MS/MS method of simultaneous determination of the 4 sphingolipids involved in GD in both plasma and RBC. The application of this method to RBC from GD patients, in collaboration with the Institut National de Transfusion Sanguine and Shire (USA), allowed us: 1- to validate one biomarker among the four proposed candidates and to show that the other three candidates are not specific; 2- to check the efficiency of the proposed ERT and 3- to confirm the initial hypothesis linking the RBC rheological abnormalities to its lipid composition.Also, a systematic study of the operating conditions allowed us to generalize the proposed method to the determination of not only all the sphingolipids present in RBC but also all phospholipids, which are the major constituents of its membrane. The application of the later method to the simultaneous quantification of thirty sphingolipids and phospholipids in normal and GD RBCs, allowed us to validate it and to unravel the involvement of other candidate biomarkers of GD, different from the 4 previous sphingolipids. Providing appropriate modifications, this method is intended to be used for the profiling of all lipid classes in plasma and RBC. This is our main objective in the medium-term.Finally, we evaluated other modern MS techniques such as high resolution (HRMS) and ion mobility (TWIMS and DIMS) in order to refine the investigation of new biomarker candidates, including the separation of lipid isomers that cannot be discriminated by conventional MS techniques. Indeed, in collaboration with the Laboratoire de Chimie Physique (LCP, CNRS UMR 8000), we here show the feasibility of this approach by achieving the separation of two isomers, by the DIMS technique: galactosylsphingosine 18:1 and glucosylsphingosine 18:1, which cannot be separated by conventional methods. We are currently pursuing these investigations in order to separate other isomers.
|
139 |
Modélisation et caractérisation des défauts de structure de machine-outil 5 axes pour la mesure in-process / Modelling and identification of geometric errors on 5-axis machine tools with the aim of in-process measurementViprey, Fabien 18 November 2016 (has links)
Le principe de la métrologie en cours d’usinage est d'obtenir des données de mesure directement dans le flot de production. Ce principe fait suite au besoin croissant des industriels de réaliser des mesures en ligne durant une opération ou entre deux opérations d'usinage en employant le moyen de production pour mesurer la pièce usinée. La maîtrise des sources d’erreur de mesure telles que les erreurs géométriques est une condition sine qua non pour garantir la métrologie dimensionnelle traçable directement sur les machines-outils. Ces travaux portent sur la modélisation géométrique de machine-outil 5 axes, basée sur une paramétrisation normalisée des erreurs géométriques. Ce modèle est simulé et simplifié par l’utilisation d’une machine virtuelle développée comme un outil d’aide à la compréhension et à la visualisation des effets des erreurs géométriques sur l’erreur volumétrique. Un nouvel étalon matériel thermo-invariant a été développé : la Multi-Feature Bar. Raccordé à la définition internationale du mètre par un étalonnage et une intercomparaison européenne, il permet d’envisager des mesures traçables sur machine-outil dans un environnement hostile. L’identification de trois paramètres intrinsèques à cet étalon, couplée à une procédure de mesure, assure une identification complète et traçable des erreurs de mouvement d’axes linéaires. Suite à cela, l’identification des erreurs entre axes est quant à elle basée sur une analyse de combinaisons de paramètres suffisants pour caractériser au mieux l’erreur volumétrique. Une procédure d’identification des paramètres du modèle est proposée en minimisant la dérive temporelle de la structure ainsi que les effets des erreurs de mouvement précédemment identifiées. Une analyse de sensibilité des paramètres de réglages de la procédure de mesure ainsi que des effets de bruits permet de garantir la qualité de l’identification proposée. / In-process metrology consists in obtaining measurement data directly into the manufacturing process. This method results from an increasing need of manufacturers to carry out on-line measurements during one manufacturing task or between two manufacturing tasks by using the mean of production to measure the machined part. Monitoring the sources of errors like geometric errors is one of the prerequisites to ensure the traceable dimensional metrology directly on the machine tool.This thesis deals with the geometric modeling of 5-axis machine tool based on a standardized parameterization of geometric errors. This model is simulated and simplified by the use of a virtual machine developed in order to help understand and visualize the effects of geometric errors on the volumetric error.A new standard thermo-invariant material namely Multi-Feature Bar has been developed.After its calibration and after a European intercomparison, it provides a direct metrological traceability to the SI meter for dimensional measurement on machine tool in a hostile environment. The identification of three intrinsic parameters of this standard, coupled with a measurement procedure ensures complete and traceable identification of motion errors of linear axes. The identification of position and orientation errors of axis is based on an analysis of combinations of necessary parameters to characterize volumetric error and at best. A model parameter identification procedure is proposed by minimizing the time drift of the structural loop and the effects of previously identified motion errors. Asensitivity analysis of the measurement procedure settings and of the noise effects ensures the quality of this proposed identification.
|
140 |
Planification de la direction et de l'amplitude des mouvements d'atteinte : études psychophysique et neurophysiologiqueMessier, Julie 08 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Les travaux présentés dans cette thèse portent sur les mécanismes centraux impliqués dans la planification de la direction et de l'amplitude d'atteintes manuelles vers des cibles visuelles. Les résultats de plusieurs études psychophysiques suggèrent que le système nerveux central utilise une règle générale d'organisation qui consiste à planifier la direction et l'amplitude d'atteintes manuelles par l'intermédiaire de deux canaux de traitement indépendants. Nous avons évalué cette hypothèse en testant l'effet de différentes conditions sensorimotrices sur la nature des erreurs de direction et d'amplitude d'atteintes manuelles. Un système d'analyse de mouvement (Optotrak) a permis revaluation des erreurs produites lors d'atteintes manuelles vers des cibles visuelles. Sept sujets ont exécuté des mouvements d'atteintes vers des cibles situées à 5 distances différentes le long de 5 directions différentes dans deux conditions expérimentales. Dans la tâche l, les sujets devaient orienter le regard vers une cible visuelle présentée sur un plan horizontal, puis fermer les yeux, et effectuer un pointage manuel en direction de cette cible. Dans la tâche 2, les pointages manuels étaient effectués vers les mêmes positions spatiales que dans la tâche l, mais, les cibles étaient présentées sur un plan vertical. Dans ces deux tâches, les erreurs variables de distance ont été plus grandes que les erreurs variable de direction. Cependant, dans la tâche 2, ces erreurs variables ont présenté une gradation différente en fonction de l'amplitude des mouvements. Cette influence différente de la nature des transformations sensorimotrices sur les erreurs variables de direction et d'amplitude d'atteintes manuelles supporte l'hypothèse que le SNC planifie ces deux paramètres par des canaux de traitement distincts. Une analyse subséquente a porté sur une prédiction de cette conclusion. Si les patrons dans la variabilité finale des pointages manuels reflètent les processus de planification motrice qui précèdent l'initiation des mouvements, ces derniers devraient présenter une étroite correspondance avec les patrons dans la variabilité initiale d'atteintes manuelles. L'analyse comparée des distributions des positions spatiales des sommets d'accélération et de vitesse ainsi que des points finaux d'atteintes manuelles a montré que les positions finales ne sont pas entièrement déterminées lors de l'initiation des mouvements suggérant que la planification et l'exécution ne sont pas des étapes sérielles strictes. Cependant, l'indépendance de la variabilité spatiale de direction et d'amplitude le long des trajectoires de mouvements a suggéré une planification indépendante de ces paramètres au cours du temps. Une approche neurophysiologique a été utilisée afin d'évaluer les fondements neuronaux des canaux de traitement indépendants par lesquels la direction et l'amplitude des mouvements d'atteintes sont planifiées. L'activité de 162 cellules du cortex prémoteur dorsal (PMd) a été enregistrée dans 2 hémisphères d'un singe rhésus alors qu'il effectuait des mouvements d'atteinte vers 24 cibles visuelles situées à 3 différentes distances le long de 8 directions différentes. Dans cette tâche expérimentale, un indice visuospatial présenté durant 500 ms indique la position vers laquelle une atteinte manuelle devait être dirigée après une période de délais (l 000-2500 ms). Ensuite, un deuxième indice (visuel, non-spatial) donne l'instruction au singe d'initier un mouvement en direction de la position mémorisée de la cible. Durant la présentation de la cible, l’activité des cellules individuelles de PMd est préférentiellement liée à la direction du mouvement à produire. Ensuite, au cours des événements successifs, elle montre une augmentation graduelle de la modulation en fonction de la distance de la cible. Les fréquentes interactions entre l'encodage de la direction et de l'amplitude dans la décharge de cellules individuelles de PMd suggère que les canaux de traitement pour la planification de la direction et de l'amplitude n'impliquent pas deux populations distinctes de cellules dans le cortex PMd. L'augmentation progressive de la convergence de l'expression de ces paramètres au cours du temps pourrait refléter une représentation intermédiaire interposée entre les canaux de traitement indépendants et un code approprié pour la spécification éventuelle des forces et de l'activité musculaire.
|
Page generated in 0.0608 seconds