Spelling suggestions: "subject:"erreurs."" "subject:"horreurs.""
191 |
Systèmes de numérisation hautes performances - Architectures robustes adaptées à la radio cognitive.Song, Zhiguo 17 December 2010 (has links) (PDF)
Les futures applications de radio cognitive requièrent des systèmes de numérisation capables de convertir alternativement ou simultanément soit une bande très large avec une faible résolution soit une bande plus étroite avec une meilleure résolution, ceci de manière versatile (i.e. par contrôle logiciel). Pour cela, les systèmes de numérisation basés sur les Bancs de Filtres Hybrides (BFH) sont une solution attractive. Ils se composent d'un banc de filtres analogiques, un banc de convertisseurs analogique-numérique et un banc de filtres numériques. Cependant, ils sont très sensibles aux imperfections analogiques. L'objectif de cette thèse était de proposer et d'étudier une méthode de calibration qui permette de corriger les erreurs analogiques dans la partie numérique. De plus, la méthode devait être implémentable dans un système embarqué. Ce travail a abouti à une nouvelle méthode de calibration de BFH utilisant une technique d'Égalisation Adaptative Multi-Voies (EAMV) qui ajuste les coefficients des filtres numériques par rapport aux filtres analogiques réels. Cette méthode requiert d'injecter un signal de test connu à l'entrée du BFH et d'adapter la partie numérique afin de reconstruire le signal de référence correspondant. Selon le type de reconstruction souhaité (d'une large-bande, d'une sous-bande ou d'une bande étroite particulière), nous avons proposé plusieurs signaux de test et de référence. Ces signaux ont été validés en calculant les filtres numériques optimaux par la méthode de Wiener-Hopf et en évaluant leurs performances de ces derniers dans le domaine fréquentiel. Afin d'approcher les filtres numériques optimaux avec une complexité calculatoire minimum, nous avons implémenté un algorithme du gradient stochastique. La robustesse de la méthode a été évaluée en présence de bruit dans la partie analogique et de en tenant compte de la quantification dans la partie numérique. Un signal de test plus robuste au bruit analogique a été proposé. Les nombres de bits nécessaires pour coder les différentes données dans la partie numérique ont été dimensionnés pour atteindre les performances visées (à savoir 14 bits de résolution). Ce travail de thèse a permis d'avancer vers la réalisation des futurs systèmes de numérisation basés sur les BFH.
|
192 |
Physiopathologie des maladies métaboliques héréditaires des acyls-Coenzyme A révélée par l’étude d’un modèle animal déficient en 3-hydroxy-3-méthylglutaryl-Coenzyme A lyaseGauthier, Nicolas 04 1900 (has links)
La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA. / Most conditions detected by expanded newborn screening result from deficiency of one of the enzymes that degrade acyl-CoA esters in mitochondria. The role of acyl-CoAs in the pathophysiology of these disorders is poorly understood, in part because CoA esters are intracellular and samples are not generally available from human patients. We created a mouse model of one such condition, deficiency of 3-hydroxy-3-methylglutaryl-CoA lyase (HL), in liver (HLLKO mice). HL catalyses a reaction of ketone body synthesis and of leucine degradation. Chronic HL deficiency and acute crises each produced distinct abnormal liver acyl-CoA patterns, which would not be predictable from levels of urine organic acids and plasma acylcarnitines. In HLLKO hepatocytes, ketogenesis was undetectable. Measures of Krebs cycle flux diminished following incubation of HLLKO mitochondria with the leucine metabolite 2-ketoisocaproate (KIC). HLLKO mice also had suppression of the normal hyperglycemic response to a systemic pyruvate load, a measure of gluconeogenesis. Hyperammonemia and hypoglycemia, cardinal features of many inborn errors of acyl-CoA metabolism, occurred spontaneously in some HLLKO mice and were inducible by administering KIC. KIC loading also increased levels of several leucine-related acyl-CoAs and reduced acetyl-CoA levels. Ultrastructurally, hepatocyte mitochondria of KIC-treated HLLKO mice show marked swelling. KIC-induced hyperammonemia improved following administration of carglumate (N-carbamyl-L-glutamic acid), which bypasses an acetyl-CoA-dependent reaction essential for urea cycle function, thus demonstrating an acyl-CoA-related mechanism for this complication. In a second animal model of an inborn error of acyl-CoA metabolism, short chain acyl-CoA dehydrogenase (SCAD)-deficient mice, the main finding in liver acyl-CoAs is increased butyryl-CoA, particularly during fasting or after enteral loading with medium chain triglyceride precursor of butyryl-CoA.
|
193 |
Plans d'expérience optimaux en régression appliquée à la pharmacocinétique / Optimal sampling designs for regression applied to pharmacokineticBelouni, Mohamad 09 October 2013 (has links)
Le problème d'intérêt est d'estimer la fonction de concentration et l'aire sous la courbe (AUC) à travers l'estimation des paramètres d'un modèle de régression linéaire avec un processus d'erreur autocorrélé. On construit un estimateur linéaire sans biais simple de la courbe de concentration et de l'AUC. On montre que cet estimateur construit à partir d'un plan d'échantillonnage régulier approprié est asymptotiquement optimal dans le sens où il a exactement la même performance asymptotique que le meilleur estimateur linéaire sans biais (BLUE). De plus, on montre que le plan d'échantillonnage optimal est robuste par rapport à la misspecification de la fonction d'autocovariance suivant le critère du minimax. Lorsque des observations répétées sont disponibles, cet estimateur est consistant et a une distribution asymptotique normale. Les résultats obtenus sont généralisés au processus d'erreur de Hölder d'indice compris entre 0 et 2. Enfin, pour des tailles d'échantillonnage petites, un algorithme de recuit simulé est appliqué à un modèle pharmacocinétique avec des erreurs corrélées. / The problem of interest is to estimate the concentration curve and the area under the curve (AUC) by estimating the parameters of a linear regression model with autocorrelated error process. We construct a simple linear unbiased estimator of the concentration curve and the AUC. We show that this estimator constructed from a sampling design generated by an appropriate density is asymptotically optimal in the sense that it has exactly the same asymptotic performance as the best linear unbiased estimator (BLUE). Moreover, we prove that the optimal design is robust with respect to a misspecification of the autocovariance function according to a minimax criterion. When repeated observations are available, this estimator is consistent and has an asymptotic normal distribution. All those results are extended to the error process of Hölder with index including between 0 and 2. Finally, for small sample sizes, a simulated annealing algorithm is applied to a pharmacokinetic model with correlated errors.
|
194 |
C'est en traduisant qu'on devient traduiseron / You become a translator by translatingVicari, Eliana 19 December 2013 (has links)
Articulée en trois chapitres, cette thèse qui vise à endiguer la toute-puissance de la traductologie porte, d’abord, sur l’analyse d’un extrait de Simenon inséré dans La belle Hortense, puis sur l’examen des erreurs relevées dans 40 versions d’étudiants de l’université de Venise confrontés avec un passage d’Agnès Desarthe et, enfin, sur la traduction du « Maladroit » de Raymond Queneau par Umberto Eco. Comme le titre l’indique, cette thèse revendique l’importance de la pratique. Ce n’est pas à force d’étudier des grammaires qu’un jour on se réveille écrivain, une plume ou un clavier à la main. De même, c’est une évidence, on ne devient pas traducteur sans traduire, bien que l’exercice ne puisse garantir l’excellence du résultat. C’est un truisme, une lapalissade dont il n’est pas inutile de rappeler la vérité, à un moment où la traductologie devient de plus en plus envahissante. Comme toute théorie, elle tend à l’abstraction et à la généralisation, tandis que la pratique, elle, se confronte au hic et nunc. C’est pour cela même qu’elle risque de se révéler non seulement inadéquate, mais aussi dangereuse. Car la littérature, loin d’être l’application de la norme, est le lieu de l’écart. Or, il est difficile de résister à l’autorité d’un dictionnaire, d’un traductologue ou d’un critique, plus difficile encore s’ils sont auréolés de prestige. Toute traduction comporte deux phases. La première est axée sur une analyse stylistique du texte-source et implique une excellente maîtrise de la langue et de la culture de son monde d’origine. C’est le moment de l’esclavage où le traducteur est complètement au service de l’auteur, où il cherche à comprendre sans juger, où – tel un amoureux – il écoute sa voix pour pouvoir l’interpréter. Mais le moment de l’esclavage qui enchaîne au texte originel est aussi le moment de l’apprentissage, le moment où le traducteur peut pénétrer les secrets d’une écriture d’auteur. Sans cette phase préalable, on ne devrait même pas parler de traduction. Si on ne lit pas attentivement – à la loupe – l’œuvre qu’on doit transplanter ou si on ne connaît pas assez la matière dont elle est faite, on finit par se fier aux dictionnaires, par appliquer des recettes toutes faites. C’est une autre voix que celle de l’auteur que l’on entendra, alors, au-delà des frontières. C’est dans cette phase que des préjugés ou des brouillages théoriques assez enracinés ou assez puissants sont intervenus, d’après mon analyse, dans les extraits examinés. Ils ont entraîné la banalisation de Simenon (mais non de Roubaud qui emprunte ses mots) aussi bien que la plupart des incorrections des étudiants (souvent induites paradoxalement par l’usage du dictionnaire). Ils ont poussé également Umberto Eco à remanier radicalement un texte de Raymond Queneau qu’il avait considéré comme l’un des moins réussis, alors qu’il est sans aucun doute l’un des plus importants – et peut-être le plus important - des Exercices de style. Dans la deuxième phase, le traducteur qui accepte d’écrire sous contrainte – sous les contraintes que lui impose le texte-source – connaît aussi la joie de la liberté. Car la contrainte le libérera et le poussera à exploiter toutes les potentialités insoupçonnées, toutes les ressources de la langue et de la culture d’arrivée pour rendre le plus fidèlement la voix de l’auteur, auquel l’analyse et la compréhension l’ont enchaîné. C’est un effort de Sisyphe, mais qui peut rendre heureux. Car c’est aussi en traduisant qu’on devient écriveron. / Set out in three chapters, this thesis which has the aim of investigating the omniscience of translation, starts out by analyzing an extract from Simenon in La Belle Hortense then moves to a study of the mistakes made in 40 translations by students at the University of Venice from a text by Agnès Desarthe and, finally, looks at the translation by Umberto Eco of Raymond Queneau's "Maladroit".As its title suggests, this thesis underlines the importance of practice. One does not suddenly wake up a writer one morning, a pen at the ready simply because one has studied grammar.At the same time one obviously does not become a translator without translating, although practice in itself does not guarantee the excellence of the outcome. This is a truism worth remembering at a moment when translation studies are becoming more and more invasive. Like every theory it tends towards abstraction and generalization while practice concerns itself with the here and now. But it is exactly for this that it risks revealing itself not only as inadequate but also dangerous. For literature, far from being the application of the norm, is where the gap exists. However it is difficult to resist the authority of a dictionary, of a translation expert or of a critic, even more so if they are surrounded by a halo of prestige.Every translation consists of two phases. The first is based on a stylistic analysis of the source text and implies an excellent mastery of the language and of the culture from where it originates. This is the moment of enslavement when the translator is at the complete service of the author, where he tries to understand without judging, like a lover, he listens to his voice so that he can interpret it. But the stage of enslavement which chains one to the original text is also the moment of apprenticeship, the moment when the translator can enter into the secrets of an author's writing. Without this initial phase, one should not even speak of translation. If one does not read carefully, as under a magnifying glass, the work that one must transplant and where one does not know sufficiently what makes it up, one ends up by relying too much on dictionaries, to apply ready-made solutions. There is another voice apart from the author's that one must hear, beyond the normal boundaries.It is in this phase that well-rooted and strong prejudices or theoretical garble, according to my analysis, have intervened in the extracts examined. They have caused a banalisation of Simenon (but not of Roubaud who borrowed his words) as well as most of the errors of the students (and often brought about, paradoxically, the use of dictionaries). In the same way they pushed Umberto Eco to meddle radically with a text of Raymond Queneau that he considered one of the latter's less successful ones, even though it is one of the most important, and perhaps the most important, in Exercices de style.In the second phase, the translator who accepts to write under constraint, under the constraints imposed by the source text, also knows the joy of liberty. Because the constraint will free him and push him to take full advantage of unexpected potentiality, of all the resources of the language and culture and to render the voice of the author in the most faithful way, and to whom the analysis and comprehension chained him. It is the work of Sisyphus but which can create contentment. Because it is also by translating that one becomes a writer.
|
195 |
Contribution à l'identification de systèmes non-linéaires en milieu bruité pour la modélisation de structures mécaniques soumises à des excitations vibratoiresSigrist, Zoé 04 December 2012 (has links)
Cette thèse porte sur la caractérisation de structures mécaniques, au travers de leurs paramètres structuraux, à partir d'observations perturbées par des bruits de mesure, supposés additifs blancs gaussiens et centrés. Pour cela, nous proposons d'utiliser des modèles à temps discret à parties linéaire et non-linéaire séparables. La première permet de retrouver les paramètres recherchés tandis que la seconde renseigne sur la non-linéarité présente. Dans le cadre d'une modélisation non-récursive par des séries de Volterra, nous présentons une approche à erreurs-dans-les-variables lorsque les variances des bruits ne sont pas connues ainsi qu'un algorithme adaptatif du type LMS nécessitant la connaissance de la variance du bruit d'entrée. Dans le cadre d'une modélisation par un modèle récursif polynomial, nous proposons deux méthodes à partir d'algorithmes évolutionnaires. La première inclut un protocole d'arrêt tenant compte de la variance du bruit de sortie. Dans la seconde, les fonctions fitness sont fondées sur des fonctions de corrélation dans lesquelles l'influence du bruit est supprimée ou compensée. / This PhD deals with the caracterisation of mechanical structures, by its structural parameters, when only noisy observations disturbed by additive measurement noises, assumed to be zero-mean white and Gaussian, are available. For this purpose, we suggest using discrete-time models with distinct linear and nonlinear parts. The first one allows the structural parameters to be retrieved whereas the second one gives information on the nonlinearity. When dealing with non-recursive Volterra series, we propose an errors-in-variables (EIV) method to jointly estimate the noise variances and the Volterra kernels. We also suggest a modified unbiased LMS algorithm to estimate the model parameters provided that the input-noise variance is known. When dealing with recursive polynomial model, we propose two methods using evolutionary algorithms. The first includes a stop protocol that takes into account the output-noise variance. In the second one, the fitness functions are based on correlation criteria in which the noise influence is removed or compensated.
|
196 |
Combining checkpointing and other resilience mechanisms for exascale systems / L'utilisation conjointe de mécanismes de sauvegarde de points de reprise (checkpoints) et d'autres mécanismes de résilience pour les systèmes exascalesBentria, Dounia 10 December 2014 (has links)
Dans cette thèse, nous nous sommes intéressés aux problèmes d'ordonnancement et d'optimisation dans des contextes probabilistes. Les contributions de cette thèse se déclinent en deux parties. La première partie est dédiée à l’optimisation de différents mécanismes de tolérance aux pannes pour les machines de très large échelle qui sont sujettes à une probabilité de pannes. La seconde partie est consacrée à l’optimisation du coût d’exécution des arbres d’opérateurs booléens sur des flux de données.Dans la première partie, nous nous sommes intéressés aux problèmes de résilience pour les machines de future génération dites « exascales » (plateformes pouvant effectuer 1018 opérations par secondes).Dans le premier chapitre, nous présentons l’état de l’art des mécanismes les plus utilisés dans la tolérance aux pannes et des résultats généraux liés à la résilience.Dans le second chapitre, nous étudions un modèle d’évaluation des protocoles de sauvegarde de points de reprise (checkpoints) et de redémarrage. Le modèle proposé est suffisamment générique pour contenir les situations extrêmes: d’un côté le checkpoint coordonné, et de l’autre toute une famille de stratégies non-Coordonnées. Nous avons proposé une analyse détaillée de plusieurs scénarios, incluant certaines des plateformes de calcul existantes les plus puissantes, ainsi que des anticipations sur les futures plateformes exascales.Dans les troisième, quatrième et cinquième chapitres, nous étudions l'utilisation conjointe de différents mécanismes de tolérance aux pannes (réplication, prédiction de pannes et détection d'erreurs silencieuses) avec le mécanisme traditionnel de checkpoints et de redémarrage. Nous avons évalué plusieurs modèles au moyen de simulations. Nos résultats montrent que ces modèles sont bénéfiques pour un ensemble de modèles d'applications dans le cadre des futures plateformes exascales.Dans la seconde partie de la thèse, nous étudions le problème de la minimisation du coût de récupération des données par des applications lors du traitement d’une requête exprimée sous forme d'arbres d'opérateurs booléens appliqués à des prédicats sur des flux de données de senseurs. Le problème est de déterminer l'ordre dans lequel les prédicats doivent être évalués afin de minimiser l'espérance du coût du traitement de la requête. Dans le sixième chapitre, nous présentons l'état de l'art de la seconde partie et dans le septième chapitre, nous étudions le problème pour les requêtes exprimées sous forme normale disjonctive. Nous considérons le cas plus général où chaque flux peut apparaître dans plusieurs prédicats et nous étudions deux modèles, le modèle où chaque prédicat peut accéder à un seul flux et le modèle où chaque prédicat peut accéder à plusieurs flux. / In this thesis, we are interested in scheduling and optimization problems in probabilistic contexts. The contributions of this thesis come in two parts. The first part is dedicated to the optimization of different fault-Tolerance mechanisms for very large scale machines that are subject to a probability of failure and the second part is devoted to the optimization of the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. In the first chapter, we present the related work of the first part and then we introduce some new general results that are useful for resilience on exascale systems.In the second chapter, we study a unified model for several well-Known checkpoint/restart protocols. The proposed model is generic enough to encompass both extremes of the checkpoint/restart space, from coordinated approaches to a variety of uncoordinated checkpoint strategies. We propose a detailed analysis of several scenarios, including some of the most powerful currently available HPC platforms, as well as anticipated exascale designs.In the third, fourth, and fifth chapters, we study the combination of different fault tolerant mechanisms (replication, fault prediction and detection of silent errors) with the traditional checkpoint/restart mechanism. We evaluated several models using simulations. Our results show that these models are useful for a set of models of applications in the context of future exascale systems.In the second part of the thesis, we study the problem of minimizing the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. The problem is to determine the order in which predicates should be evaluated so as to shortcut part of the query evaluation and minimize the expected cost.In the sixth chapter, we present the related work of the second part and in the seventh chapter, we study the problem for queries expressed as a disjunctive normal form. We consider the more general case where each data stream can appear in multiple predicates and we consider two models, the model where each predicate can access a single stream and the model where each predicate can access multiple streams.
|
197 |
Physiopathologie des maladies métaboliques héréditaires des acyls-Coenzyme A révélée par l’étude d’un modèle animal déficient en 3-hydroxy-3-méthylglutaryl-Coenzyme A lyaseGauthier, Nicolas 04 1900 (has links)
La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA. / Most conditions detected by expanded newborn screening result from deficiency of one of the enzymes that degrade acyl-CoA esters in mitochondria. The role of acyl-CoAs in the pathophysiology of these disorders is poorly understood, in part because CoA esters are intracellular and samples are not generally available from human patients. We created a mouse model of one such condition, deficiency of 3-hydroxy-3-methylglutaryl-CoA lyase (HL), in liver (HLLKO mice). HL catalyses a reaction of ketone body synthesis and of leucine degradation. Chronic HL deficiency and acute crises each produced distinct abnormal liver acyl-CoA patterns, which would not be predictable from levels of urine organic acids and plasma acylcarnitines. In HLLKO hepatocytes, ketogenesis was undetectable. Measures of Krebs cycle flux diminished following incubation of HLLKO mitochondria with the leucine metabolite 2-ketoisocaproate (KIC). HLLKO mice also had suppression of the normal hyperglycemic response to a systemic pyruvate load, a measure of gluconeogenesis. Hyperammonemia and hypoglycemia, cardinal features of many inborn errors of acyl-CoA metabolism, occurred spontaneously in some HLLKO mice and were inducible by administering KIC. KIC loading also increased levels of several leucine-related acyl-CoAs and reduced acetyl-CoA levels. Ultrastructurally, hepatocyte mitochondria of KIC-treated HLLKO mice show marked swelling. KIC-induced hyperammonemia improved following administration of carglumate (N-carbamyl-L-glutamic acid), which bypasses an acetyl-CoA-dependent reaction essential for urea cycle function, thus demonstrating an acyl-CoA-related mechanism for this complication. In a second animal model of an inborn error of acyl-CoA metabolism, short chain acyl-CoA dehydrogenase (SCAD)-deficient mice, the main finding in liver acyl-CoAs is increased butyryl-CoA, particularly during fasting or after enteral loading with medium chain triglyceride precursor of butyryl-CoA.
|
198 |
Improving message logging protocols towards extreme-scale HPC systems / Amélioration des protocoles de journalisation des messages vers des systèmes HPC extrême-échelleMartsinkevich, Tatiana V. 22 September 2015 (has links)
Les machines pétascale qui existent aujourd'hui ont un temps moyen entre pannes de plusieurs heures. Il est prévu que dans les futurs systèmes ce temps diminuera. Pour cette raison, les applications qui fonctionneront sur ces systèmes doivent être capables de tolérer des défaillances fréquentes. Aujourd'hui, le moyen le plus commun de le faire est d'utiliser le mécanisme de retour arrière global où l'application fait des sauvegardes périodiques à partir d’un point de reprise. Si un processus s'arrête à cause d'une défaillance, tous les processus reviennent en arrière et se relancent à partir du dernier point de reprise. Cependant, cette solution deviendra infaisable à grande échelle en raison des coûts de l'énergie et de l'utilisation inefficace des ressources. Dans le contexte des applications MPI, les protocoles de journalisation des messages offrent un meilleur confinement des défaillances car ils ne demandent que le redémarrage du processus qui a échoué, ou parfois d’un groupe de processus limité. Par contre, les protocoles existants ont souvent un surcoût important en l’absence de défaillances qui empêchent leur utilisation à grande échelle. Ce surcoût provient de la nécessité de sauvegarder de façon fiable tous les événements non-déterministes afin de pouvoir correctement restaurer l'état du processus en cas de défaillance. Ensuite, comme les journaux de messages sont généralement stockés dans la mémoire volatile, la journalisation risque de nécessiter une large utilisation de la mémoire. Une autre tendance importante dans le domaine des HPC est le passage des applications MPI simples aux nouveaux modèles de programmation hybrides tels que MPI + threads ou MPI + tâches en réponse au nombre croissant de cœurs par noeud. Cela offre l’opportunité de gérer les défaillances au niveau du thread / de la tâche contrairement à l'approche conventionnelle qui traite les défaillances au niveau du processus. Par conséquent, le travail de cette thèse se compose de trois parties. Tout d'abord, nous présentons un protocole de journalisation hiérarchique pour atténuer une défaillance de processus. Le protocole s'appelle Scalable Pattern-Based Checkpointing et il exploite un nouveau modèle déterministe appelé channel-determinism ainsi qu’une nouvelle relation always-happens-before utilisée pour mettre partiellement en ordre les événements de l'application. Le protocole est évolutif, son surcoût pendant l'exécution sans défaillance est limité, il n'exige l'enregistrement d'aucun évènement et, enfin, il a une reprise entièrement distribuée. Deuxièmement, afin de résoudre le problème de la limitation de la mémoire sur les nœuds de calcul, nous proposons d'utiliser des ressources dédiées supplémentaires, appelées logger nodes. Tous les messages qui ne rentrent pas dans la mémoire du nœud de calcul sont envoyés aux logger nodes et sauvegardés dans leur mémoire. À travers de nos expériences nous montrons que cette approche est réalisable et, associée avec un protocole de journalisation hiérarchique comme le SPBC, les logger nodes peuvent être une solution ultime au problème de mémoire limitée sur les nœuds de calcul. Troisièmement, nous présentons un protocole de tolérance aux défaillances pour des applications hybrides qui adoptent le modèle de programmation MPI + tâches. Ce protocole s'utilise pour tolérer des erreurs détectées non corrigées qui se produisent lors de l'exécution d'une tâche. Normalement, une telle erreur provoque une exception du système ce qui provoque un arrêt brutal de l'application. Dans ce cas, l'application doit redémarrer à partir du dernier point de reprise. Nous combinons la sauvegarde des données de la tâche avec une journalisation des messages afin d’aider à la reprise de la tâche qui a subi une défaillance. Ainsi, nous évitons le redémarrage au niveau du processus, plus coûteux. Nous démontrons les avantages de ce protocole avec l'exemple des applications hybrides MPI + OmpSs. / Existing petascale machines have a Mean Time Between Failures (MTBF) in the order of several hours. It is predicted that in the future systems the MTBF will decrease. Therefore, applications that will run on these systems need to be able to tolerate frequent failures. Currently, the most common way to do this is to use global application checkpoint/restart scheme: if some process fails the whole application rolls back the its last checkpointed state and re-executes from that point. This solution will become infeasible at large scale, due to its energy costs and inefficient resource usage. Therefore fine-grained failure containment is a strongly required feature for the fault tolerance techniques that target large-scale executions. In the context of message passing MPI applications, message logging fault tolerance protocols provide good failure containment as they require restart of only one process or, in some cases, a bounded number of processes. However, existing logging protocols experience a number of issues which prevent their usage at large scale. In particular, they tend to have high failure-free overhead because they usually need to store reliably any nondeterministic events happening during the execution of a process in order to correctly restore its state in recovery. Next, as message logs are usually stored in the volatile memory, logging may incur large memory footprint, especially in communication-intensive applications. This is particularly important because the future exascale systems expect to have less memory available per core. Another important trend in HPC is switching from MPI-only applications to hybrid programming models like MPI+threads and MPI+tasks in response to the increasing number of cores per node. This gives opportunities for employing fault tolerance solutions that handle faults on the level of threads/tasks. Such approach has even better failure containment compared to message logging protocols which handle failures on the level of processes. Thus, the work in these dissertation consists of three parts. First, we present a hierarchical log-based fault tolerance solution, called Scalable Pattern-Based Checkpointing (SPBC) for mitigating process fail-stop failures. The protocol leverages a new deterministic model called channel-determinism and a new always-happens-before relation for partial ordering of events in the application. The protocol is scalable, has low overhead in failure-free execution and does not require logging any events, provides perfect failure containment and has a fully distributed recovery. Second, to address the memory limitation problem on compute nodes, we propose to use additional dedicated resources, or logger nodes. All the logs that do not fit in the memory of compute nodes are sent to the logger nodes and kept in their memory. In a series of experiments we show that not only this approach is feasible, but, combined with a hierarchical logging scheme like the SPBC, logger nodes can be an ultimate solution to the problem of memory limitation for logging protocols. Third, we present a log-based fault tolerance protocol for hybrid applications adopting MPI+tasks programming model. The protocol is used to tolerate detected uncorrected errors (DUEs) that happen during execution of a task. Normally, a DUE caused the system to raise an exception which lead to an application crash. Then, the application has to restart from a checkpoint. In the proposed solution, we combine task checkpointing with message logging in order to support task re-execution. Such task-level failure containment can be beneficial in large-scale executions because it avoids the more expensive process-level restart. We demonstrate the advantages of this protocol on the example of hybrid MPI+OmpSs applications.
|
199 |
Metalinguistic knowledge of second language pre-service teachers and the quality of their written corrective feedback : what relations?Benmessaoud, Sirine 06 1900 (has links)
Cette étude quantitative vise à 1) mesurer les connaissances métalinguistiques des futurs enseignants, 2) décrire la qualité de la rétroaction corrective écrite (RCÉ) des futurs enseignants de français langue seconde (FLS), et 3) examiner la relation entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit.
Un groupe de 18 futurs enseignants de français langue seconde inscrit dans le programme de formation initiale des maîtres à Montréal a participé à l'étude. Les participants ont accompli 1) une tâche d’analyse de phrases pour mesurer leurs connaissances métalinguistiques, et 2) une tâche de rétroaction corrective écrite, pour évaluer la qualité de leurs pratiques rétroactives à l’écrit en termes de localisation d'erreur et d'explication métalinguistique fournie. Alors que les analyses descriptives sont effectuées pour répondre aux deux premières questions de la présente étude, des analyses de corrélation ont été réalisées pour déterminer s’il existe des relations entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit.
Les résultats indiquent que 1) la localisation de l'erreur de la RCÉ fournie est précise, mais 2) l'explication métalinguistique l’est moins, 3) il existe une relation entre les connaissances métalinguistiques des futurs enseignants et la qualité de leur rétroaction corrective à l’écrit. / The present quantitative study seeks to 1) measure pre-service teachers’ metalinguistic knowledge, 2) describe the quality of French as a second language (FSL) pre-service teachers’ written corrective feedback (WCF), and 3) examine the relationship between pre-service teachers’ metalinguistic knowledge and the quality of their written corrective feedback (i.e., teachers’ metalinguistic awareness).
A group of 18 French as a second language pre-service teachers following the initial teacher training program in Montreal, participated in the study. Participants were assigned 1) a task of analytical abilities to measure their metalinguistic knowledge, and 2) a task of written corrective feedback provision to evaluate the quality of their written corrective feedback in terms of error location and the metalinguistic explanation provided. Descriptive analyses were undertaken to answer the first two research questions. Correlation analyses were performed to examine whether there exist any relations between pre-service teachers’ metalinguistic knowledge and the quality of their WCF.
Among other things, results indicated that 1) while the error location of WCF provided was precise, 2) the metalinguistic explanation provided by the participants was not accurate, 3) there is a relationship between pre-service teachers’ metalinguistic knowledge and the quality of written corrective feedback.
|
200 |
Évaluation d’un outil informatisé pour soutenir la prescription dans un établissement de santé pédiatrique : sécurité de l’usage des médicaments en pré et post-implantationLiang, Man Qing 06 1900 (has links)
La prescription électronique, définie comme la saisie et la transmission électronique de diverses données de prescriptions (médicaments, requêtes de laboratoires, imagerie), est une technologie qui promet d’augmenter la productivité de l’exécution d’une prescription, de diminuer les erreurs reliées à l’illisibilité des prescriptions manuscrites et d’améliorer l’usage approprié des médicaments. Toutefois, la réalisation des bénéfices associés à cette technologie dépend grandement du contexte local de l’implantation et la configuration du système, qui doivent être adaptés aux besoins de l’établissement de santé et aux pratiques locales des professionnels. Bien que la prescription électronique soit implantée depuis plus d’une décennie dans plusieurs établissements de santé à travers le monde, il s’agit d’une technologie émergente au Québec et au Canada. Le Centre hospitalier universitaire (CHU) Sainte-Justine est l’un des premiers établissements de santé au Québec qui a implanté un système informatisé d’entrée d’ordonnances (SIEO) en 2019. L’outil, développé par un fournisseur local, a été adapté spécifiquement aux besoins de cet hôpital pédiatrique.
Ainsi, l’objectif principal de ce mémoire est d’évaluer les effets de ce SIEO sur la sécurité de l’usage des médicaments. Plus spécifiquement, ce mémoire vise à 1) mesurer et décrire les problèmes liés à l’usage des médicaments avant et après l’implantation du SIEO, 2) identifier les caractéristiques du SIEO qui influencent la sécurité de l’usage des médicaments et 3) formuler des recommandations pour optimiser les bénéfices de l’outil de prescription électronique pour les patients et les utilisateurs. Afin de répondre à ces objectifs, ce travail présente deux études distinctes :
1. Une première analyse heuristique de l’utilisabilité portant spécifiquement sur la vulnérabilité du système a été effectuée en préimplantation du SIEO. Des scénarios visant à identifier les vulnérabilités du système ont été élaborés, puis un score permettant de noter la capacité du système à pallier ces vulnérabilités a été attribué par trois experts indépendants, afin de formuler des recommandations sur le design des fonctionnalités clés de cet outil.
2. Une étude observationnelle pré-post a été menée dans la période précédant l'implantation du système, et suivant l'implantation du système, dans l'unité pilote de pédiatrie générale. L’étude observationnelle est composée de deux volets, soit : a) une analyse des erreurs liées aux prescriptions de médicaments pour un échantillon d’ordonnances rédigées pendant une semaine par une analyse des interventions des pharmaciens et un audit de conformité des prescriptions et b) une analyse pré-post des erreurs liées au circuit du médicament, à partir des rapports d’incidents et accidents déclarés en lien avec le médicament. Les types d'erreurs ont été analysés afin de bien comprendre leur nature, ainsi que le rôle potentiel de la technologie sur la sécurité de l’usage des médicaments. Ces analyses ont été contextualisées par une description des fonctionnalités du SIEO (par l’utilisation d’outils validés pour l’évaluation des SIEO), des flux cliniques (par l’observation directe), et du projet d’implantation (par l’analyse de documents et des discussions avec les parties prenantes) afin de formuler des recommandations visant à optimiser les bénéfices du SIEO.
Le premier article rapporte l'analyse de l'utilisabilité (étude 1) et des problèmes liés à la prescription de médicaments (étude 2a). Les résultats suggèrent que le système d’aide à la décision intégré au SIEO ne disposait pas de fonctionnalités recommandées pour limiter les vulnérabilités liées à l’usage de ce type d’outil. Néanmoins, les erreurs de conformité, qui représentaient la majorité des problèmes de prescription avant l’implantation ont été complètement éliminées par le nouveau SIEO. Toutefois, il n’y a pas eu de différence sur les erreurs de dosage et les autres interventions des pharmaciens. Ainsi, les résultats obtenus confirment qu’il est nécessaire de configurer un système d’aide à la décision avancé et adapté aux soins hospitaliers pédiatriques afin de réduire davantage les erreurs cliniques liées aux ordonnances de médicaments.
Le deuxième article présente l’analyse des rapports d’incidents et accidents (étude 2b), et vise à estimer les effets du SIEO sur la sécurité de l'usage des médicaments, ainsi que mieux comprendre les erreurs de médicaments dans l’ensemble du processus des soins. L’article met en évidence le rôle important de la prescription électronique dans la simplification des étapes de la relève, de la transmission et de la transcription de la prescription. De plus, l'amélioration de l’utilisabilité de la feuille d’administration des médicaments électronique (FADMe) pourrait contribuer à réduire davantage le nombre d'erreurs liées au médicament.
Ces deux articles permettent d’explorer les liens entre les caractéristiques du SIEO et les effets sur la sécurité de l’usage des médicaments, durant l’étape de prescription spécifiquement ainsi qu’à travers l’entièreté du circuit du médicament. Des recommandations sur l’utilisabilité du système et des stratégies de prévention sont présentées afin de réduire les erreurs liées au médicament. / Computerized provider order entry (CPOE), defined as a system used for entering and transmitting orders (e.g., for drugs, imaging, or lab requests) electronically, is a technology that can increase the productivity of order dispensing, reduce errors related to the illegibility of handwritten prescriptions and increase the appropriate use of medication. However, achieving the benefits associated with this technology depends on the local context of the implementation and configuration of the system, which must be adapted to the needs of the healthcare institution and the local practices of the healthcare professionals. Although CPOEs have been implemented for more than a decade in many healthcare institutions worldwide, it is an emerging technology in Quebec and Canada. The Centre hospitalier universitaire (CHU) Sainte-Justine is one of the first healthcare institutions in Quebec to implement a CPOE system in 2019. The CPOE, which was developed by a local vendor, was tailored specifically to meet the needs of the CHU Sainte-Justine's pediatric inpatient population.
Thus, this study aims to evaluate the effects of the CPOE on medication safety. More specifically, this study seeks to 1) measure and describe problems related to medication use before and after the implementation of the CPOE, 2) identify the characteristics of the CPOE that influence medication safety, and 3) provide recommendations to optimize the benefits of the CPOE for patients and users.
To address these objectives, two studies were conducted:
1. An expert-based heuristic vulnerability analysis of the system was performed to analyze the usability of the CPOE in the pre-implementation phase. Scenarios to identify system vulnerabilities were developed, and a score to rate the CPOE's ability to address these vulnerabilities was assigned by three independent experts to make recommendations on the design of the CPOE's key features.
2. A pre-post observational study was conducted prior to and following the CPOE implementation in the general pediatrics unit. The observational study included two components: a) An analysis of medication orders problems for a sample of prescriptions ordered for one week through the documentation of pharmacists’ interventions and a prescription conformity audit; b) An analysis of medication-related incident and accident reports throughout the year in pre and post implementation. The types of errors were described to understand their nature, as well as the potential role of technology on the safety of medication use. The analyses were contextualized with descriptions of the CPOE features (through the use of validated tools for CPOE evaluation), clinical workflows (through direct observation) and implementation project (through secondary document analysis and discussions with stakeholders) in order to make recommendations to improve medication safety.
The first article covers the vulnerability analysis (study 1) and the medication orders problems at the prescribing step (study 2a). The results show that the clinical decision support system (CDSS) integrated into the CPOE lacked the recommended features to identify pediatric order errors. Conformity errors, which accounted for most prescribing errors, were completely eliminated by the prescriber implementation. However, there was no difference in dosing errors and other pharmacist interventions. Thus, the results obtained from these two components suggest the need to configure an advanced CDSS tailored to pediatric hospital care to further reduce clinical errors.
The second article, focused on the analysis of incident and accident reports (study 2b), aims to estimate the impacts of the electronic prescriber on medication safety, as well as to better understand medication errors in the overall care process. The article highlights the importance of simplifying the acknowledgment, transmission, and transcription steps by implementing a CPOE. Improving the usability of the electronic medication administration record (eMAR) could further reduce medication errors.
These two articles explore the relationship between the characteristics of the CPOE and their impact on medication safety, specifically at the prescribing step and throughout the entire medication management process. Recommendations on system usability and other prevention strategies are presented to improve medication safety.
|
Page generated in 0.0411 seconds