Spelling suggestions: "subject:"analyse een ligne"" "subject:"analyse enn ligne""
11 |
TDCIAMS (Thermal Desorption Chemical Ionization Aerosol Mass Spectrometer) : Analyse en ligne de l'Aérosol Organique - développement et applicationsEyglunent, Grégory 29 January 2007 (has links) (PDF)
Cette étude s'inscrit dans une problématique globale d'analyse en ligne de la composition chimique de l'Aérosol Organique Secondaire (AOS) pour une meilleure compréhension de sa formation et de son vieillissement, à travers le développement d'un spectromètre de masse à désorption thermique et ionisation chimique : le TDCIAMS. La caractérisation des performances de cet instrument, ainsi que l'étude de l'AOS formé par ozonolyse de l'a- pinène en chambre de simulation atmosphérique (CSA) ont montré que le TDCIAMS est bien adapté à l'analyse quantitative de l'AOS formé en CSA. Les données recueillies par le TDCIAMS permettent d'accéder à des informations essentielles concernant les mécanismes de formation et l'évolution de l'AOS. De plus, l'étude de l'AOS formé par ozonolyse de deux composés d'origine anthropique (2-méthylstyrène et indène), peu étudiés jusqu'alors, a été comparée avec celle réalisée par une analyse off-line (SFE-GC-MS).
|
12 |
Développement d’une vanne d’injection de liquide pour l’analyse en ligne par chromatographie en phase gazeuse et ses applications dans le domaine du raffinage : étude du comportement et apport des colonnes monolithiques courtes pour la chromatographie en phase gazeuse haute pression / Development of a liquid injection system dedicated to on-line analysis by gas chromatography and its refining applications : study of the behavior and contribution of short monolithic columns in high pressure gas chromatographyManiquet, Adrien 14 December 2016 (has links)
En milieu industriel, si l'analyse en ligne d'effluents gazeux à l'aide de la chromatographie en phase gazeuse est actuellement réalisée sans difficultés majeure, l'analyse des liquides reste une des principales problématiques à résoudre. En effet, comparée à une analyse réalisée au laboratoire, l'analyse en ligne d'un échantillon liquide permettrait de s'affranchir de l'étape de prélèvement et de préparation avant injection ainsi que des problèmes de contamination et de représentativité de l'échantillon. Des systèmes d'injection de liquide en ligne sont actuellement disponibles, cependant, des difficultés d'injection liées à la discrimination des analytes sont rencontrées. C'est dans ce contexte qu'une vanne dédiée à l'injection des liquides en ligne a été développée, puis validée en laboratoire, et enfin mise en œuvre sur des applications industrielles pétrolières. Un tout autre enjeu, lié entre autres à la réduction des coûts de maintenance et d'installation, ainsi qu'à la compatibilité de systèmes analytiques destinés à l'industrie et aux micro-pilotes, a orienté des développements instrumentaux vers la miniaturisation des systèmes. Un assemblage de différentes briques technologiques a ensuite été réalisé afin d'évaluer la faisabilité d'un système miniaturisé incorporant la technologie d'injection des liquides en ligne. Finalement et toujours dans ce contexte de miniaturisation, des colonnes monolithiques courtes ont été mises en œuvre en chromatographie en phase gazeuse à haute pression, au laboratoire pour commencer, puis sur des effluents industriels gazeux. Elles ont permis de réaliser des analyses très rapides avec une grande efficacité par unité de longueur tout en pouvant agir sur la sélectivité des colonnes grâce à un contrôle de leurs propriétés de surface / In industry, although on-line analysis of gaseous effluents using gas chromatography is carried out without major difficulty, the analysis of liquids remains problematic and is one of the main issues to be solved. Indeed, compared to an analysis carried out in a laboratory, the on-line analysis of a liquid sample would bypass the steps of sampling and preparation prior to injection and would avoid problems of contamination and representativeness of the sample. Systems for injecting liquids on-line are currently available; however, difficulties are encountered, due to the discrimination of analytes. It is in this context that a valve dedicated to the on-line injection of liquids was developed, validated under laboratory conditions and finally implemented in the oil industry. Another issue, related, amongst other things, to the reduction of maintenance and installation costs, as well as to the compatibility of analytical systems for industry and for micro-pilots, steered instrumental developments towards the miniaturization of systems. Different technological bricks were therefore brought together to assess the feasibility of a miniaturized system involving the technology for on-line injection of liquid. Finally, and still in the context of miniaturization, short monolithic columns were implemented in gaseous phase chromatography at high pressure, first in the laboratory and then on industrial gas effluents. They allowed very fast analyses to be performed which had greater efficiency per unit of length while still being able to act on the selectivity of the columns thanks to the control of their surface properties
|
13 |
Étude de la spectrométrie de plasma induit par laser pour l’analyse en ligne de liquides / Study of laser-induced breakdown spectroscopy for the on-line analysis of liquid samplesTrichard, Florian 04 December 2014 (has links)
Le contrôle des procédés représente un enjeu majeur pour les industries chimiques et pétrochimiques afin de garantir la qualité des produits, le contrôle des coûts, le maintien de la productivité et la maîtrise des risques. L'analyse menée directement au coeur des procédés constitue la voie la plus efficace. Cependant, dans la majorité des applications, les analyses élémentaires sont réalisées essentiellement en laboratoire et très rarement en ligne, par la mise en oeuvre de différentes technologies, le plus souvent lourdes et onéreuses. Ce travail de thèse s'inscrit dans le cadre d'un grand projet d'innovation qui couvre le champ de l'analyse élémentaire en ligne, domaine actuellement peu étudié. La technique d'analyse retenue est la spectrométrie LIBS en raison de sa rapidité et de son application à tout état de la matière sans préparation d'échantillon, ce qui lui offre un fort potentiel pour l'analyse en ligne. Cette technique est investiguée afin de réaliser des analyses en ligne d'éléments présents dans des matrices liquides : saumures, huiles silicone et produits pétroliers. L'optimisation des différents paramètres de mesure est réalisée et une approche d'optimisation s'appuyant sur un plan d'expériences est proposée. Différents modes d'échantillonnage de liquide et plusieurs montages LIBS sont étudiés afin de répondre aux problématiques évoquées. Enfin, une transposition au monde industriel est présentée avec le suivi du soufre en ligne dans des produits pétroliers sur un pilote industriel. Les résultats sont encourageants, mais la stabilité perfectible des mesures dans le temps implique d'explorer de nouvelles pistes d'amélioration / Process control is a major challenge for chemical and petrochemical industries so as to ensure product quality, cost control, sustainable productivity and risk management. To do so, carrying out the analysis directly at the core of the process is the most efficient way. However, for most applications, elemental analyzes are mainly performed in the laboratory and rarely on-line, which requires the implementation of different technologies, usually complex and expensive. This work is part of a large innovative project that covers the field of on-line elemental analysis, a research area still understudied to this day. The analytical technique selected here is the Laser Induced Breakdown Spectroscopy. Indeed, its speed and its capability to analyze all states of matter without sample preparation, gives it a great potential for on-line analysis. This technique is investigated in order to achieve on-line analysis of elements contained in various liquid matrices: brines, silicone oils and petroleum products. The optimization of different measurement parameters is performed, including an experimental design based approach. Different liquid sampling configurations and several LIBS setups are designed in order to tackle the issues encountered. Finally, a transposition to the industrial world is presented through on-line monitoring of sulfur in petroleum products on an industrial pilot process. The results are promising, but improving the stability of measurements over time still requires further research
|
14 |
Modélisation et développement d'un système d'analyse en ligne des transuraniens par spectrométrie de fluorescence X raies L / Modelling and development of an on-line energy dispersive L X-ray fluorescence spectrometer for the determination of transuranic elementsPy, Julien 08 December 2014 (has links)
Cette thèse développe un système d'analyse en ligne compact, précis, rapide et autonome par spectrométrie de fluorescence X raies L, pour quantifier les transuraniens (uranium, plutonium et américium) présents dans les solutions et effluents des procédés du plutonium. Au cours de cette étude, la configuration, les paramètres de ce système et une méthode de quantification non destructive ont été définis puis la capacité du spectromètre à dissocier ces éléments dans de fortes concentrations relatives a été vérifiée. Des solutions contenant des éléments non radioactifs ont d'abord été étudiées afin de s'affranchir des effets dus à la désintégration des transuraniens et d'optimiser efficacement le spectromètre. Par simulations Monte-Carlo avec le code PENELOPE, une méthode de quantification a été mise au point et diverses configurations pour optimiser l'intensité d'excitation de l'échantillon et mesurer une raie de diffusion Compton de la source X ont été testées numériquement. Ces configurations ont été expérimentées avec un spectromètre prototype sur des solutions non radioactives pour valider et compléter la configuration la plus intéressante. Des solutions contenant des éléments en fortes concentrations relatives ont été analysées afin de déterminer une méthode de déconvolution des spectres avec le logiciel COLEGRAM et démontrer la faculté de cette méthode à quantifier de telles solutions. Quelques solutions d'uranium et de plutonium ont été analysées pour s'approcher au plus près des futures conditions expérimentales, caractériser et diminuer les effets dus à la désintégration des radioéléments. / This thesis deals with the development of a new compact, accurate, fast, without cooling liquid, fluorescence L X-ray spectrometer, with the aim to determinate online transuranic elements (uranium, plutonium and americium) in nuclear materials reprocessing. The objective was to define the configuration and the characteristics of this spectrometer and the method to quantify transuranic elements between 0.1 g/L and 20 g/L. To minimize as law as possible the manipulation of these elements, we have used an original approach, namely Monte-Carlo simulations and none radioactive surrogate elements. The study of these solutions allowed to eliminate the specific effects of transuranic elements decay (internal conversion) and to optimize the spectrometer. Monte-Carlo simulations with the PENELOPE code were used for two reasons. Firstly, we have developed an analytical method to correct the matrix effects. Then, we have selected three systems to produce a quasi-monochromatic X-rays beam from the X-ray generator, to optimize the intensity of the L X-ray fluorescence spectra, and to measure the Compton scatter peak. These systems were then tested with an adjustable spectrometer in order to select and optimize the best configuration. We have shown that, after peaks and left tails separation from spectra with COLEGRAM software, the spectrometer can be used to analyze solutions with various concentrations of thallium and bismuth. Several solutions of uranium or plutonium were analyzed to determine the effects of interferences from gamma rays and internal conversion with the fluorescence L X-rays. These effects have been corrected by subtracting a passive spectrum to an active one.
|
15 |
Secret sharing approaches for secure data warehousing and on-line analysis in the cloud / Approches de partage de clés secrètes pour la sécurisation des entrepôts de données et de l’analyse en ligne dans le nuageAttasena, Varunya 22 September 2015 (has links)
Les systèmes d’information décisionnels dans le cloud Computing sont des solutions de plus en plus répandues. En effet, ces dernières offrent des capacités pour l’aide à la décision via l’élasticité des ressources pay-per-use du Cloud. Toutefois, les questions de sécurité des données demeurent une des principales préoccupations notamment lorsqu'il s’agit de traiter des données sensibles de l’entreprise. Beaucoup de questions de sécurité sont soulevées en terme de stockage, de protection, de disponibilité, d'intégrité, de sauvegarde et de récupération des données ainsi que des transferts des données dans un Cloud public. Les risques de sécurité peuvent provenir non seulement des fournisseurs de services de cloud computing mais aussi d’intrus malveillants. Les entrepôts de données dans les nuages devraient contenir des données sécurisées afin de permettre à la fois le traitement d'analyse en ligne hautement protégé et efficacement rafraîchi. Et ceci à plus faibles coûts de stockage et d'accès avec le modèle de paiement à la demande. Dans cette thèse, nous proposons deux nouvelles approches pour la sécurisation des entrepôts de données dans les nuages basées respectivement sur le partage vérifiable de clé secrète (bpVSS) et le partage vérifiable et flexible de clé secrète (fVSS). L’objectif du partage de clé cryptée et la distribution des données auprès de plusieurs fournisseurs du cloud permet de garantir la confidentialité et la disponibilité des données. bpVSS et fVSS abordent cinq lacunes des approches existantes traitant de partage de clés secrètes. Tout d'abord, ils permettent le traitement de l’analyse en ligne. Deuxièmement, ils garantissent l'intégrité des données à l'aide de deux signatures interne et externe. Troisièmement, ils aident les utilisateurs à minimiser le coût de l’entreposage du cloud en limitant le volume global de données cryptées. Sachant que fVSS fait la répartition des volumes des données cryptées en fonction des tarifs des fournisseurs. Quatrièmement, fVSS améliore la sécurité basée sur le partage de clé secrète en imposant une nouvelle contrainte : aucun groupe de fournisseurs de service ne peut contenir suffisamment de volume de données cryptées pour reconstruire ou casser le secret. Et cinquièmement, fVSS permet l'actualisation de l'entrepôt de données, même si certains fournisseurs de services sont défaillants. Pour évaluer l'efficacité de bpVSS et fVSS, nous étudions théoriquement les facteurs qui influent sur nos approches en matière de sécurité, de complexité et de coût financier dans le modèle de paiement à la demande. Nous validons également expérimentalement la pertinence de nos approches avec le Benchmark schéma en étoile afin de démontrer son efficacité par rapport aux méthodes existantes. / Cloud business intelligence is an increasingly popular solution to deliver decision support capabilities via elastic, pay-per-use resources. However, data security issues are one of the top concerns when dealing with sensitive data. Many security issues are raised by data storage in a public cloud, including data privacy, data availability, data integrity, data backup and recovery, and data transfer safety. Moreover, security risks may come from both cloud service providers and intruders, while cloud data warehouses should be both highly protected and effectively refreshed and analyzed through on-line analysis processing. Hence, users seek secure data warehouses at the lowest possible storage and access costs within the pay-as-you-go paradigm.In this thesis, we propose two novel approaches for securing cloud data warehouses by base-p verifiable secret sharing (bpVSS) and flexible verifiable secret sharing (fVSS), respectively. Secret sharing encrypts and distributes data over several cloud service providers, thus enforcing data privacy and availability. bpVSS and fVSS address five shortcomings in existing secret sharing-based approaches. First, they allow on-line analysis processing. Second, they enforce data integrity with the help of both inner and outer signatures. Third, they help users minimize the cost of cloud warehousing by limiting global share volume. Moreover, fVSS balances the load among service providers with respect to their pricing policies. Fourth, fVSS improves secret sharing security by imposing a new constraint: no cloud service provide group can hold enough shares to reconstruct or break the secret. Five, fVSS allows refreshing the data warehouse even when some service providers fail. To evaluate bpVSS' and fVSS' efficiency, we theoretically study the factors that impact our approaches with respect to security, complexity and monetary cost in the pay-as-you-go paradigm. Moreover, we also validate the relevance of our approaches experimentally with the Star Schema Benchmark and demonstrate its superiority to related, existing methods.
|
16 |
Optimisation des performances dans les entrepôts distribués avec Mapreduce : traitement des problèmes de partionnement et de distribution des données / Optimizing data management for large-scale distributed data warehouses using MapReduceArres, Billel 08 February 2016 (has links)
Dans ce travail de thèse, nous abordons les problèmes liés au partitionnement et à la distribution des grands volumes d’entrepôts de données distribués avec Mapreduce. Dans un premier temps, nous abordons le problème de la distribution des données. Dans ce cas, nous proposons une stratégie d’optimisation du placement des données, basée sur le principe de la colocalisation. L’objectif est d’optimiser les traitements lors de l’exécution des requêtes d’analyse à travers la définition d’un schéma de distribution intentionnelle des données permettant de réduire la quantité des données transférées entre les noeuds lors des traitements, plus précisément lors phase de tri (shuffle). Nous proposons dans un second temps une nouvelle démarche pour améliorer les performances du framework Hadoop, qui est l’implémentation standard du paradigme Mapreduce. Celle-ci se base sur deux principales techniques d’optimisation. La première consiste en un pré-partitionnement vertical des données entreposées, réduisant ainsi le nombre de colonnes dans chaque fragment. Ce partitionnement sera complété par la suite par un autre partitionnement d’Hadoop, qui est horizontal, appliqué par défaut. L’objectif dans ce cas est d’améliorer l’accès aux données à travers la réduction de la taille des différents blocs de données. La seconde technique permet, en capturant les affinités entre les attributs d’une charge de requêtes et ceux de l’entrepôt, de définir un placement efficace de ces blocs de données à travers les noeuds qui composent le cluster. Notre troisième proposition traite le problème de l’impact du changement de la charge de requêtes sur la stratégie de distribution des données. Du moment que cette dernière dépend étroitement des affinités des attributs des requêtes et de l’entrepôt. Nous avons proposé, à cet effet, une approche dynamique qui permet de prendre en considération les nouvelles requêtes d’analyse qui parviennent au système. Pour pouvoir intégrer l’aspect de "dynamicité", nous avons utilisé un système multi-agents (SMA) pour la gestion automatique et autonome des données entreposées, et cela, à travers la redéfinition des nouveaux schémas de distribution et de la redistribution des blocs de données. Enfin, pour valider nos contributions nous avons conduit un ensemble d’expérimentations pour évaluer nos différentes approches proposées dans ce manuscrit. Nous étudions l’impact du partitionnement et la distribution intentionnelle sur le chargement des données, l’exécution des requêtes d’analyses, la construction de cubes OLAP, ainsi que l’équilibrage de la charge (Load Balacing). Nous avons également défini un modèle de coût qui nous a permis d’évaluer et de valider la stratégie de partitionnement proposée dans ce travail. / In this manuscript, we addressed the problems of data partitioning and distribution for large scale data warehouses distributed with MapReduce. First, we address the problem of data distribution. In this case, we propose a strategy to optimize data placement on distributed systems, based on the collocation principle. The objective is to optimize queries performances through the definition of an intentional data distribution schema of data to reduce the amount of data transferred between nodes during treatments, specifically during MapReduce’s shuffling phase. Secondly, we propose a new approach to improve data partitioning and placement in distributed file systems, especially Hadoop-based systems, which is the standard implementation of the MapReduce paradigm. The aim is to overcome the default data partitioning and placement policies which does not take any relational data characteristics into account. Our proposal proceeds according to two steps. Based on queries workload, it defines an efficient partitioning schema. After that, the system defines a data distribution schema that meets the best user’s needs, and this, by collocating data blocks on the same or closest nodes. The objective in this case is to optimize queries execution and parallel processing performances, by improving data access. Our third proposal addresses the problem of the workload dynamicity, since users analytical needs evolve through time. In this case, we propose the use of multi-agents systems (MAS) as an extension of our data partitioning and placement approach. Through autonomy and self-control that characterize MAS, we developed a platform that defines automatically new distribution schemas, as new queries appends to the system, and apply a data rebalancing according to this new schema. This allows offloading the system administrator of the burden of managing load balance, besides improving queries performances by adopting careful data partitioning and placement policies. Finally, to validate our contributions we conduct a set of experiments to evaluate our different approaches proposed in this manuscript. We study the impact of an intentional data partitioning and distribution on data warehouse loading phase, the execution of analytical queries, OLAP cubes construction, as well as load balancing. We also defined a cost model that allowed us to evaluate and validate the partitioning strategy proposed in this work.
|
17 |
Intensification et passage en continu d’une synthèse pharmaceutique en réacteur-échangeur / Intensification and transposition to continuous of a pharmaceutical synthesis in a heat exchanger-reactorDespènes, Laurène 18 November 2010 (has links)
Dans le domaine de l'intensification des procédés, la technologie des réacteurs-échangeurs occupe une place de choix. De tels équipements combinent opération en continu et efficacités en termes de transfert de chaleur, d'hydrodynamique, de mélange, de transfert de matière et de réaction. Ce travail porte sur l'étude du passage en continu d'une synthèse pharmaceutique dans un réacteur-échangeur innovant en carbure de silicium. La méthodologie suivie est fondée sur des méthodes expérimentales et théoriques, visant à caractériser à la fois l'équipement et l'application chimique. L'objectif a été d'aboutir à un procédé optimal permettant d'augmenter productivité et sélectivité tout en assurant des niveaux de sécurité élevés. Raman. / In the field of Process Intensification, manufacturers offer many technologies of heat exchanger reactors in terms of design, material and operating conditions range which make the choice of the optimal solution difficult to be performed. Such apparatuses combine a continuous operating with strongly coupled features of heat transfer, hydrodynamics, mixing, mass transfer and reaction. To assess the feasibility and potentialities of applications carried out in this kind of apparatus, a methodology has been developed and could be divided in three parts: the equipment characterisation, the considered application (physical properties of components, reaction kinetics, heat generated), the suitable intensified process (optimal design) and the associated operating conditions (optimal control). Related to this methodology, the present study aims to transpose to continuous and to intensify a Pierre Fabre’s pharmaceutical application. In fact, this application currently carried out in batch offers productivity limitations that could be get round using a continuous intensified reactor. In this way, a complete reaction characterisation based on calorimetric experiments has been performed and provided to the optimisation tool. The results highlight the need to control the pH level and the necessity to use an on-line analytic method, spectroscopy Raman. This technique leads to an easy transfer of the reaction in continuous in order to intensify it. Optimal conditions have been underlined in order to obtain a productivity of 100%.
|
18 |
A Process Analytical Technology (PAT) approach involving near infrared spectroscopy to control the manufacturing of an active pharmaceutical ingredient : development, validation and implementationSchaefer, Cédric 11 July 2013 (has links)
Les entreprises pharmaceutiques ont progressivement adopté le concept de Process Analytical Technology (PAT) afin de contrôler et d'assurer en temps réel la qualité des produits pharmaceutiques au cours de leur production. Le PAT et un composant central du concept plus général de Quality-by-Design (QbD) promu par les agence régulatrices et visant à construire la qualité des produits via une approche scientifique et la gestion des risques.Une méthode basée sur la spectroscopie proche infrarouge (PIR) a été développée comme un outil du PAT pour contrôler en ligne la cristallisation d'un principe actif pharmaceutique. Au cours du procédé les teneurs en principe actif et en solvant résiduel doivent être déterminées avec précision afin d'atteindre un point d'ensemencement prédéfini. Une méthodologie basée sur les principes du QbD a guidé le développement et la validation de la méthode tout en assurant l'adéquation avec son utilisation prévue. Des modèles basés sur les moindres carrés partiels ont été construits à l'aide d'outils chimiométriques afin de quantifier les 2 analytes d'intérêt. La méthode a été totalement validée conformément aux requis officiels en utilisant les profils d'exactitude. Un suivi du procédé en temps réel a permis de prouver que la méthode correspond à son usage prévu.L'implémentation de cette méthode comme à l'échelle industrielle au lancement de ce nouveau procédé permettra le contrôle automatique de l'étape de cristallisation dans le but d'assurer un niveau de qualité prédéfini de l'API. D'autres avantages sont attendus incluant la réduction du temps du procédé, la suppression d'un échantillonnage difficile et d'analyses hors ligne fastidieuses. / Pharmaceutical companies are progressively adopting and introducing the Process Analytical Technology (PAT) concept to control and ensure in real-time product quality in development and manufacturing. PAT is a key component of the Quality-by-Design (QbD) framework promoted by the regulatory authorities, aiming the building of product quality based on both a strong scientific background and a quality risk management approach.An analytical method based on near infrared (NIR) spectroscopy was developed as a PAT tool to control on-line an API (active pharmaceutical ingredient) crystallization. During this process the API and residual solvent contents need to be precisely determined to reach a predefined seeding point. An original methodology based on the QbD principles was applied to conduct the development and validation of the NIR method and to ensure that it is fitted for its intended use. Partial least squares (PLS) models were developed and optimized through chemometrics tools in order to quantify the 2 analytes of interest. The method was fully validated according to the official requirements using the accuracy profile approach. Besides, a real-time process monitoring was added to the validation phase to prove and document that the method is fitted for purpose.Implementation of this method as an in-process control at industrial plant from the launch of this new pharmaceutical process will enable automatic control of the crystallization step in order to ensure a predefined quality level of the API. Other valuable benefits are expected such as reduction of the process time, and suppression of a difficult sampling and tedious off-line analyzes.
|
Page generated in 0.0923 seconds