• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Modélisations, Simulations, Synthèses pour des réseaux dynamiques de capteurs sans fil / Modeling, simulations and synthesis for dynamic wireless sensor networks

Lucas, Pierre-Yves 13 December 2016 (has links)
L’intégration de l’environnement et des systèmes d’information progresse très vite depuis 10 ans. Cette intégration permet de suivre des évolutions naturelles, physiques, sociétales ; de les mesurer, de les comprendre ; quelquefois de les contrôler. On peut assimiler cette intégration à des besoins, tels que les changements climatiques ou les économies de ressources ; mais aussi à des progrès technologiques dans les domaines des systèmes miniatures, des communications sans fil et des capteurs.Dans ce contexte, nous avons d’abord effectué un apprentissage technologique, en réalisant plusieurs petits systèmes et des logiciels applicatifs de bas et de haut niveau. Nous nous sommes attaqués à la partie frontale des chaînes logicielles, celle qui permet de passer des bases de données pour Systèmes d’Information Géographique à l’implantation et l’exploitation de systèmes distribués de capteurs. QuickMap est ainsi un logiciel de navigation multi-services, incluant OpenStreetMap, construit pour le placement des capteurs et la spécification de systèmes de cellules physiques.Sur la plateforme NetGen, nous avons réalisé un simulateur concurrent associant un ou plusieurs mobiles à un ou plusieurs champs de capteurs. Une application est l’étude des interactions entre satellite en orbites basses, réseaux de capteurs lointains et stations de contrôle.Le séquencement par le temps permet d’associer plusieurs activités aériennes et au sol, en bénéficiant de hautes performances.Enfin, les questionnements méthodologiques ont amené à considérer la possibilité de virtualisation, à la fois du capteur, en le recouvrant d’une machine virtuelle, et à la fois du système d’observation distribué, en utilisant la plateforme NetGen.Nous avons maquetté un capteur et son interface radio en termes de processus communicants, en cherchant à réduire la complexité et la diversité de la programmation des petits systèmes matériels.Plusieurs de nos réalisations sont effectives et servent à des projets de recherche actifs.Cette thèse a été réalisée à l’Université de Brest, laboratoire Lab-STICC, grâce à une allocation de la communauté brestoise BMO. / The integration of environment and information systems is progressing quickly since 10 years. This allows to monitor natural, physical or societal evolutions; to capture their logic and sometimes to control their effects. This integration is feasible thanks to many technical and scientific progresses: sensors, wireless communications, system on chips, batteries, distributed systems and geo-localization. The benefits are important for climate change monitoring and resource savings.In this context, we have firstly achieved a learning of technologies and several practical system realizations. We have produced a navigation software (QuickMap) allowing to interface gis databases and tile servers similar to OpenStreetMap, taking care of sensor locations and outputs. QuickMap is also a nice frontend to produce cellular systems oriented to physical simulations.Using the NetGen platform, we have produced a simulation framework allowing to schedule mobile moves with sensor field activities. A case study was leo satellites visiting remote sensor systems, with investigations on two algorithms suitable for data collection and control.Finally we have addressed the question of observation system virtualization by using an high level, process oriented virtual machine (tvm) to control the wireless link, a step forward to make the distributed and local behaviours homogeneous in terms of programming and simulation.Many of our developments are currently involved in active projects.This thesis was funded by a grant of Brest Metropole Oceane (BMO) and was achieved in a wireless research group at University of Brest, Lab-STICC laboratory.
162

Étude sur l'utilisation de liquides ioniques à base imidazolium pour l'extraction sélective de phosphopeptides

Sanon, Samantha Herntz 04 1900 (has links)
La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé. / Protein phosphorylation is one of the most important post-translational modifications because it is involved in multiple physiological processes such as growth, differentiation, apoptosis, etc. Despite its importance, the analysis of phosphoproteins remains a difficult task due to their dynamic nature (phosphorylation of proteins is a reversible process) and their low abundance. Indeed, the determination of phosphorylation sites is difficult because phosphopeptides are often difficult to detect by conventional chromatographic analysis and by mass spectrometric (MS) methods. Recent studies have shown that the existing methods of enrichment of phosphopeptides are not complete, and the total number of phosphopeptides detected does not overlap completely with those detected by these methods. The gaps in existing enrichment methods need to be filled in order to have more complete phosphoproteomic analyses. In the current study, ionic liquids (IL), specifically imidazolium salts, have been used in an alternative enrichment technique with potential for selective extraction of phosphopeptides from solution. Imidazolium salts were chosen because their physicochemical properties are readily adjustable depending on the nature of the substituent attached to the imidazolium core and the counter-anion. Monoimidazolium and bis-imidazolium salts with linear chains having respectively 4, 12, and 16 carbon atoms and with different anions were synthesized and used to carry out liquid-liquid and solid-liquid extractions of a phosphorylated peptide from a solution. At first, liquid-liquid extractions were carried out using an ionic liquid (IL) with a linear chain of 4 carbon atoms. These extractions performed with bis (trifluoromethanesulfonyl) amide 3-butyl-1-methylimidazolium (BMIM-NTf2) and hexafluorophosphate 3-butyl-1-methylimidazolium (BMIM-PF6) did not show a considerable extraction of PPS comparatively to the PN. Secondly, solid-liquid extractions were done by first functionalizing solid-phase particles with the imidazolium salts. The extractions were carried out using the phosphopentapeptide Ac-pTyr-Ile-Gly-Glu-Phe-NH2 (PPS) and its acidic non-phosphorylated analogues. It has been shown that the C12 chain imidazolium salts were better to extract PPS than the other two peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) and PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2). The extraction efficiency of these peptides was estimated by capillary electrophoresis (CE) and high performance liquid chromatography coupled with mass spectrometry (LC-MS).
163

Développement de méthodes analytiques de séparation des produits de digestion enzymatique des dérivés de cellulose

Farhat, Fatima 12 1900 (has links)
La cellulose et ses dérivés sont utilisés dans un vaste nombre d’applications incluant le domaine pharmaceutique pour la fabrication de médicaments en tant qu’excipient. Différents dérivés cellulosiques tels que le carboxyméthylcellulose (CMC) et l’hydroxyéthylcellulose (HEC) sont disponibles sur le commerce. Le degré de polymérisation et de modification diffèrent énormément d’un fournisseur à l’autre tout dépendamment de l’origine de la cellulose et de leur procédé de dérivation, leur conférant ainsi différentes propriétés physico-chimiques qui leurs sont propres, telles que la viscosité et la solubilité. Notre intérêt est de développer une méthode analytique permettant de distinguer la différence entre deux sources d’un produit CMC ou HEC. L’objectif spécifique de cette étude de maitrise était l’obtention d’un profil cartographique de ces biopolymères complexes et ce, par le développement d’une méthode de digestion enzymatique donnant les oligosaccharides de plus petites tailles et par la séparation de ces oligosaccharides par les méthodes chromatographiques simples. La digestion fut étudiée avec différents paramètres, tel que le milieu de l’hydrolyse, le pH, la température, le temps de digestion et le ratio substrat/enzyme. Une cellulase de Trichoderma reesei ATCC 26921 fut utilisée pour la digestion partielle de nos échantillons de cellulose. Les oligosaccharides ne possédant pas de groupements chromophores ou fluorophores, ils ne peuvent donc être détectés ni par absorbance UV-Vis, ni par fluorescence. Il a donc été question d’élaborer une méthode de marquage des oligosaccharides avec différents agents, tels que l’acide 8-aminopyrène-1,3,6-trisulfonique (APTS), le 3-acétylamino-6-aminoacridine (AA-Ac) et la phénylhydrazine (PHN). Enfin, l’utilisation de l’électrophorèse capillaire et la chromatographie liquide à haute performance a permis la séparation des produits de digestion enzymatique des dérivés de cellulose. Pour chacune de ces méthodes analytiques, plusieurs paramètres de séparation ont été étudiés. / Cellulose and its derivatives are used in a wide range of applications, including the pharmaceutical industry for the manufacturing of medicines as inactive additives. Various cellulosic derivatives such as carboxymethylcellulose (CMC) and hydroxyethylcellulose (HEC) are readily available for such use. The degree of polymerization and modification differs from one supplier to the other, according to the origin of the cellulose and its process of chemical modification, conferring on them different physico-chemical properties, such as viscosity and solubility. Our interest is to develop an analytical method that can distinguish between different sources of a given CMC or HEC product. The specific objective of this master’s study was to obtain a fingerprint of these complex biopolymers by developing an enzymatic digestion method to produce smaller oligosaccharides that could be separated by simple chromatographic methods. The digestion was studied as a function of various parameters, such as the composition of the hydrolysis solution, the pH, the temperature, the duration of digestion and the substrate/enzyme ratio. A cellulase enzyme from Trichoderma reesei ATCC 26921 was used for the partial digestion of our samples of cellulose. Since these oligosaccharides do not possess a chromophore or fluorophore, they can’t be detected either by absorbance or fluorescence. It was thus necessary to work out the labeling method for oligosaccharides using various agents, such as 8-aminopyrene-1,3,6-trisulfonic acid (APTS), 3-acetylamino-6-aminoacridine (AA-Ac) and phenylhydrazine (PHN). Finally, the use of capillary electrophoresis and high performance liquid chromatography allowed the separation of the enzymatic digestion products of the cellulose derivatives (CMC and HEC). For each of these analytical separation techniques, several parameters of the separation were studied.
164

Méthodes hybrides pour la résolution de grands systèmes linéaires creux sur calculateurs parallèles / The solution of large sparse linear systems on parallel computers using a hybrid implementation of the block Cimmino method

Zenadi, Mohamed 18 December 2013 (has links)
Nous nous intéressons à la résolution en parallèle de système d’équations linéaires creux et de large taille. Le calcul de la solution d’un tel type de système requiert un grand espace mémoire et une grande puissance de calcul. Il existe deux principales méthodes de résolution de systèmes linéaires. Soit la méthode est directe et de ce fait est rapide et précise, mais consomme beaucoup de mémoire. Soit elle est itérative, économe en mémoire, mais assez lente à atteindre une solution de qualité suffisante. Notre travail consiste à combiner ces deux techniques pour créer un solveur hybride efficient en consommation mémoire tout en étant rapide et robuste. Nous essayons ensuite d’améliorer ce solveur en introduisant une nouvelle méthode pseudo directe qui contourne certains inconvénients de la méthode précédente. Dans les premiers chapitres nous examinons les méthodes de projections par lignes, en particulier la méthode Cimmino en bloc, certains de leurs aspects numériques et comment ils affectent la convergence. Ensuite, nous analyserons l’accélération de ces techniques avec la méthode des gradients conjugués et comment cette accélération peut être améliorée avec une version en bloc du gradient conjugué. Nous regarderons ensuite comment le partitionnement du système linéaire affecte lui aussi la convergence et comment nous pouvons améliorer sa qualité. Finalement, nous examinerons l’implantation en parallèle du solveur hybride, ses performances ainsi que les améliorations possible. Les deux derniers chapitres introduisent une amélioration à ce solveur hybride, en améliorant les propriétés numériques du système linéaire, de sorte à avoir une convergence en une seule itération et donc un solveur pseudo direct. Nous commençons par examiner les propriétés numériques du système résultants, analyser la solution parallèle et comment elle se comporte face au solveur hybride et face à un solveur direct. Finalement, nous introduisons de possible amélioration au solveur pseudo direct. Ce travail a permis d’implanter un solveur hybride "ABCD solver" (Augmented Block Cimmino Distributed solver) qui peut soit fonctionner en mode itératif ou en mode pseudo direct. / We are interested in solving large sparse systems of linear equations in parallel. Computing the solution of such systems requires a large amount of memory and computational power. The two main ways to obtain the solution are direct and iterative approaches. The former achieves this goal fast but with a large memory footprint while the latter is memory friendly but can be slow to converge. In this work we try first to combine both approaches to create a hybrid solver that can be memory efficient while being fast. Then we discuss a novel approach that creates a pseudo-direct solver that compensates for the drawback of the earlier approach. In the first chapters we take a look at row projection techniques, especially the block Cimmino method and examine some of their numerical aspects and how they affect the convergence. We then discuss the acceleration of convergence using conjugate gradients and show that a block version improves the convergence. Next, we see how partitioning the linear system affects the convergence and show how to improve its quality. We finish by discussing the parallel implementation of the hybrid solver, discussing its performance and seeing how it can be improved. The last two chapters focus on an improvement to this hybrid solver. We try to improve the numerical properties of the linear system so that we converge in a single iteration which results in a pseudo-direct solver. We first discuss the numerical properties of the new system, see how it works in parallel and see how it performs versus the iterative version and versus a direct solver. We finally consider some possible improvements to the solver. This work led to the implementation of a hybrid solver, our "ABCD solver" (Augmented Block Cimmino Distributed solver), that can either work in a fully iterative mode or in a pseudo-direct mode.
165

Aspects analytiques, cliniques et médico-judiciaires des nouvelles substances psychoactives / Analytical, clinical and forensic aspects of new psychoactive substances

Ameline, Alice 14 June 2019 (has links)
En raison de la diffusion incontrôlée sur le e-commerce, la sécurité et l’alternative légale aux stupéfiants habituels, les nouvelles substances psychoactives (NPS), d’apparition récente (2008), sont au cœur des phénomènes récents d’addiction et de décès mal expliqués. Au-delà des différents défis dans nos sociétés (prévention, législation), la capacité d’identifier les NPS dans des échantillons biologiques pour caractériser leur utilisation, présente de nombreux challenges analytiques. L’objectif principal de cette thèse a été de collecter des échantillons biologiques (sang, urine, cheveux) provenant de cas d’exposition à des NPS et d’y caractériser les substances présentes à l’aide de méthodes analytiques originales, dans le but d’enrichir les librairies de spectres de masse et d’améliorer, en conséquence, la détection de la consommation de NPS. En particulier, il s’agissait d’augmenter la fenêtre de détection de la prise de NPS en se focalisant sur les métabolites qui sont, le plus souvent, les produits majeurs d’élimination. Le développement analytique, par chromatographie liquide ultra haute performance couplée à la spectrométrie de masse en tandem (UHPLC-MS/MS), a demandé plusieurs mois d’optimisation afin d’obtenir une méthode robuste, exhaustive et sensible. Actuellement, la librairie de spectres MS comporte 114 NPS et est mise à jour régulièrement. A la suite de ce développement, ma thèse a porté sur l’étude de cas d’intoxication vus au service des urgences du CHU de Strasbourg, mais aussi en médecine légale, avec des situations de décès et d’identification de produits inconnus provenant de saisies (poudres et cristaux). Il a également été nécessaire de développer des outils analytiques complémentaires, tels que la caractérisation de métabolite(s) par étude sur microsomes hépatiques humains (HLMs), et l’utilisation de la spectroscopie par résonance magnétique nucléaire (RMN) afin d’identifier avec certitude certains composés et de déterminer leur degré de pureté. Les outils analytiques développés et la stratégie mise en place ont permis la rédaction de 18 publications, ainsi que l’agencement de nombreuses collaborations. / Due to the uncontrolled spread on the Internet and their legal alternative to usual drugs, the new psychoactive substances (NPS), recently appeared (2008), are at the center of recent phenomena of addiction and badly explained deaths. Beyond different challenges in our societies (prevention, legislation), the ability to identify NPS in biological samples, in order to characterize their use, presents many analytical challenges. The main objective of this thesis was to collect biological samples (blood, urine, hair) from cases of exposure to NPS and to characterize the substances present using original analytical methods, in order to enlarge the libraries of mass spectra and improve, as a result, the detection of NPS consumption. In particular, it was intended to increase the detection sensitivity of NPS intake by focusing on the metabolites that are often the major products of elimination. This analytical development, by ultra-high liquid chromatography coupled with tandem mass spectrometry (UHPLC-MS/MS), required several months of optimization in order to obtain a robust, exhaustive and sensitive method. At present, the mass spectra database has 114 NPS and is regularly updated. Thereafter, ma thesis focused on the study of cases of intoxication observed in the emergency department of Strasbourg, but also in legal medicine with situations of deaths and identification of unknown products collected from seizures (powders and crystals). It has also been necessary to implement complementary analytical tools, such as the characterization of metabolites by human liver microsomes (HLMs), and the use of nuclear magnetic resonance (NMR) spectroscopy to accurately identify the compounds and establish their purity degrees. The analytical tools developed, and the strategy adopted, allowed the writing of 18 publications, as well as the setting up of numerous collaborations.
166

Bétons renforcés de fibres métalliques : du matériau à la structure. Etude expérimentale et analyse du comportement de poutres soumises à la flexion et à l'effort tranchant

Casanova, Pascal 26 June 1995 (has links) (PDF)
Les bétons renforcés de fibres métalliques (BFM) connaissent, à ce jour, peu d'applications dans le domaine des éléments de structure. Cet état de fait est, en grande partie, imputable à l'absence de méthodes de calcul, donc à la difficulté d'apprécier l'apport structural de ces matériaux. Le travail présenté ici a pour but de combler cette lacune dans le cas des poutres. Pour répondre au problème posé, l'étude s'appuie sur des essais de structures réalisés pour, d'une part, étudier les mécanismes de rupture et, d'autre part, valider les modèles élaborés. Des essais sont ainsi effectués en flexion simple et à l'effort tranchant. Une méthode performante a été utilisée pour le suivi global de la fissuration : la stéréophotogrammétrie. Elle a clairement montré une localisation précoce de la fissuration et l'apparition d'un mécanisme de rupture par blocs. Ces essais mettent en évidence que la caractéristique fondamentale des BFM est leur comportement postfissuration en traction. Un essai de traction uniaxiale sur éprouvette entaillée est utilisé, et développé, pour mesurer la capacité des fibres à reprendre un effort à travers une fissure. Les éprouvettes sont carottées, dans la direction des contraintes principales de traction, pour tenir compte de l'anisotropie de répartition des fibres induite par la mise en oeuvre. Une modélisation a été développée à partir des mécanismes étudiés et en prenant comme donnée matériau les résultats de l'essai de traction. Une première famille de modèles consiste à postuler un mécanisme de rupture, puis à calculer l'équilibre de la structure, en fonction de l'ouverture de la fissure, à partir de la relation expérimentale obtenue en traction. Des résultats très satisfaisants ont été obtenus en flexion. En ce qui concerne l'effort tranchant, l'apport des fibres est correctement appréhendé et une relation d'équivalence a été obtenue avec les armatures transversales utilisées habituellement. La prise en compte de l'évolution, avec l'ouverture de fissure, de la contrainte résiduelle postfissuration s'avère indispensable pour retrouver les effets d'échelle observés. L'utilisation d'une méthode en partie empirique pour l'effort tranchant est liée aux limites des modèles simples. Afin de s'affranchir de cette limite et d'étendre la modélisation à des cas complexes, il est apparu nécessaire d'utiliser une modélisation par éléments finis. Un modèle continu (plasticité) et un modèle discret (modèle probabiliste de fissuration) ont été utilisés. En conclusion, il a été mené une étude complète du matériau à la structure. Cette étude, à la fois expérimentale et théorique, a permis de définir des méthodes de calcul qui, couplées à une démarche globale de la composition à la caractérisation, en passant par la fabrication, permettent d'optimiser la conception des éléments de structure en BFM.
167

Profilage système et leviers verts pour les infrastructures distribuées à grande échelle

Tsafack Chetsa, Ghislain Landry 03 December 2013 (has links) (PDF)
De nos jours, réduire la consommation énergétique des infrastructures de calcul à grande échelle est devenu un véritable challenge aussi bien dans le monde académique qu'industriel. Ceci est justifié par les nombreux efforts visant à réduire la consommation énergétique de ceux-ci. Ces efforts peuvent sans nuire à la généralité être divisés en deux groupes : les approches matérielles et les approches logicielles. Contrairement aux approches matérielles, les approches logicielles connaissent très peu de succès à cause de leurs complexités. En effet, elles se focalisent sur les applications et requièrent souvent une très bonne compréhension des solutions proposées et/ou de l'application considérée. Ce fait restreint leur utilisation à un nombre limité d'experts puisqu'en général les utilisateurs n'ont pas les compétences nécessaires à leurs implémentation. Aussi, les solutions actuelles en plus de leurs complexités de déploiement ne prennent en compte que le processeur alors que les composants tel que la mémoire, le stockage et le réseau sont eux aussi de gros consommateurs d'énergie. Cette thèse propose une méthodologie de réduction de la consommation énergétique des infrastructures de calcul à grande échelle. Elaborée en trois étapes à savoir : (i) détection de phases, (ii) caractérisation de phases détectées et (iii) identification de phases et reconfiguration du système ; elle s'abstrait de toute application en se focalisant sur l'infrastructure dont elle analyse le comportement au cours de son fonctionnement afin de prendre des décisions de reconfiguration. La méthodologie proposée est implémentée et évaluée sur des grappes de calcul à haute performance de tailles variées par le biais de MREEF (Multi-Resource Energy Efficient Framework). MREEF implémente la méthodologie de réduction énergétique de manière à permettre aux utilisateurs d'implémenter leurs propres mécanismes de reconfiguration du système en fonction des besoins. Les résultats expérimentaux montrent que la méthodologie proposée réduit la consommation énergétique de 24% pour seulement une perte de performance de moins de 7%. Ils montrent aussi que pour réduire la consommation énergétique des systèmes, on peut s'appuyer sur les sous-systèmes tels que les sous-systèmes de stockage et de communication. Nos validations montrent que notre méthodologie s'étend facilement à un grand nombre de grappes de calcul sensibles à l'énergie (energy aware). L'extension de MREEF dans les environnements virtualisés tel que le cloud montre que la méthodologie proposée peut être utilisée dans beaucoup d'autres environnements de calcul.
168

Développement de méthodes analytiques de séparation des produits de digestion enzymatique des dérivés de cellulose

Farhat, Fatima 12 1900 (has links)
La cellulose et ses dérivés sont utilisés dans un vaste nombre d’applications incluant le domaine pharmaceutique pour la fabrication de médicaments en tant qu’excipient. Différents dérivés cellulosiques tels que le carboxyméthylcellulose (CMC) et l’hydroxyéthylcellulose (HEC) sont disponibles sur le commerce. Le degré de polymérisation et de modification diffèrent énormément d’un fournisseur à l’autre tout dépendamment de l’origine de la cellulose et de leur procédé de dérivation, leur conférant ainsi différentes propriétés physico-chimiques qui leurs sont propres, telles que la viscosité et la solubilité. Notre intérêt est de développer une méthode analytique permettant de distinguer la différence entre deux sources d’un produit CMC ou HEC. L’objectif spécifique de cette étude de maitrise était l’obtention d’un profil cartographique de ces biopolymères complexes et ce, par le développement d’une méthode de digestion enzymatique donnant les oligosaccharides de plus petites tailles et par la séparation de ces oligosaccharides par les méthodes chromatographiques simples. La digestion fut étudiée avec différents paramètres, tel que le milieu de l’hydrolyse, le pH, la température, le temps de digestion et le ratio substrat/enzyme. Une cellulase de Trichoderma reesei ATCC 26921 fut utilisée pour la digestion partielle de nos échantillons de cellulose. Les oligosaccharides ne possédant pas de groupements chromophores ou fluorophores, ils ne peuvent donc être détectés ni par absorbance UV-Vis, ni par fluorescence. Il a donc été question d’élaborer une méthode de marquage des oligosaccharides avec différents agents, tels que l’acide 8-aminopyrène-1,3,6-trisulfonique (APTS), le 3-acétylamino-6-aminoacridine (AA-Ac) et la phénylhydrazine (PHN). Enfin, l’utilisation de l’électrophorèse capillaire et la chromatographie liquide à haute performance a permis la séparation des produits de digestion enzymatique des dérivés de cellulose. Pour chacune de ces méthodes analytiques, plusieurs paramètres de séparation ont été étudiés. / Cellulose and its derivatives are used in a wide range of applications, including the pharmaceutical industry for the manufacturing of medicines as inactive additives. Various cellulosic derivatives such as carboxymethylcellulose (CMC) and hydroxyethylcellulose (HEC) are readily available for such use. The degree of polymerization and modification differs from one supplier to the other, according to the origin of the cellulose and its process of chemical modification, conferring on them different physico-chemical properties, such as viscosity and solubility. Our interest is to develop an analytical method that can distinguish between different sources of a given CMC or HEC product. The specific objective of this master’s study was to obtain a fingerprint of these complex biopolymers by developing an enzymatic digestion method to produce smaller oligosaccharides that could be separated by simple chromatographic methods. The digestion was studied as a function of various parameters, such as the composition of the hydrolysis solution, the pH, the temperature, the duration of digestion and the substrate/enzyme ratio. A cellulase enzyme from Trichoderma reesei ATCC 26921 was used for the partial digestion of our samples of cellulose. Since these oligosaccharides do not possess a chromophore or fluorophore, they can’t be detected either by absorbance or fluorescence. It was thus necessary to work out the labeling method for oligosaccharides using various agents, such as 8-aminopyrene-1,3,6-trisulfonic acid (APTS), 3-acetylamino-6-aminoacridine (AA-Ac) and phenylhydrazine (PHN). Finally, the use of capillary electrophoresis and high performance liquid chromatography allowed the separation of the enzymatic digestion products of the cellulose derivatives (CMC and HEC). For each of these analytical separation techniques, several parameters of the separation were studied.
169

Effet de la stérilisation par éléctrons accélérés sur les COC et sur l'impact des interactions avec des molécules actives.

Barakat, Hala 24 January 2013 (has links) (PDF)
L'objectif de ce travail de thèse était d'étudier l'effet de la stérilisation par électrons accélérés sur les copolymères d'oléfines cycliques (COC), utilisés comme conditionnement de produits pharmaceutiques, ainsi que son impact sur les interactions avec des formulations pharmaceutiques. Grâce à la méthodologie analytique adoptée qui a fait appel à différentes techniques de caractérisation, telles que la chromatographie d'exclusion stérique, la chromatographie liquide haute performance à polarité de phases inversée, la spectroscopie infra rouge à transformée de Fourier, la microscopie à force atomique et les mesures d'angles de contact, nous avons pu mettre en évidence différents types de modifications dans le volume et sur la surface du matériau après stérilisation ainsi qu'après vieillissement. La modification principale du dans la masse du matériau, observée à la dose réglementaire de stérilisation (25 kGy), est la scission des chaînes du polymère, qui s'accompagne de la création de composés de faible masse molaire, donc de migrants potentiels risquant d'influencer la sécurité d'emploi des COC. En effet, certains de ces composés ont été retrouvés avec une concentration relativement importante dans les solutions de mise en contact avec les COC stérilisés, et notamment en solution aqueuse. Toutefois, l'étude préliminaire de toxicité a montré l'absence de cytotoxicité des extractibles obtenus à la dose de la stérilisation.Les modifications relatives à la surface des COC radio-stérilisés sont, quant à elles, de deux natures : physique avec une augmentation de la rugosité de surface et chimique avec la formation de produits d'oxydation polaires ; ces deux types de modifications conduisent à l'augmentation de la mouillabilité de surface. Cependant dans certains cas, notamment après vieillissement, ces modifications sont relativement faibles, même à des doses supérieures à celle préconisée pour la stérilisation, ce qui peut être corrélé à l'absence de l'effet de l'irradiation sur le comportement des COC vis-à-vis des solutions médicamenteuses. En effet, aucune variation de la sorption des principes actifs choisis n'a été montrée entre les COC irradiés et non irradiés vieillis.
170

Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes

Charles, Joseph 26 April 2012 (has links) (PDF)
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.

Page generated in 0.0446 seconds