• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 265
  • 79
  • 73
  • 5
  • 1
  • 1
  • Tagged with
  • 416
  • 183
  • 162
  • 152
  • 121
  • 97
  • 86
  • 85
  • 83
  • 69
  • 42
  • 40
  • 25
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Détection non destructive de modification malveillante de circuits intégrés / NON-DESTRUCTIVE DETECTION OF HARDWARE TROJANS IN INTEGRATED CIRCUITS

Exurville, Ingrid 30 October 2015 (has links)
L'exportation et la mutualisation des industries de fabrication des circuits intégrés impliquent de nombreuses interrogations concernant l'intégrité des circuits fabriqués. On se retrouve alors confronté au problème d'insertion d'une fonctionnalité dissimulée pouvant agir de façon cachée : on parle de Cheval de Troie Matériel (CTM). En raison de la complexité d'un circuit intégré, repérer ce genre de modification se révèle particulièrement difficile. Le travail proposé dans ce manuscrit s'oriente vers une technique de détection non destructrice de CTM. L’approche consiste à utiliser les temps de calculs internes du système étudié comme canal permettant de détecter des CTM. Dans ces travaux, un modèle décrivant les temps de calcul est défini. Il prend notamment en compte deux paramètres importants que sont les conditions expérimentales et les variations de procédés.Des attaques en faute par glitchs d’horloge basée sur la violation de contraintes temporelles permettent de mesurer des temps de calcul internes. Des cartes fiables sont utilisées pour servir de référence. Après avoir validé la pertinence de ce canal d’étude concernant l’obtention d’informations sur le comportement interne du circuit cible, on procède à des détections expérimentales de CTM insérés à deux niveaux d’abstraction (niveau RTL et après l'étape de placement/routage). Des traitements avec prise en compte des variations de procédés permettent d'identifier si les cartes testées sont infectées par un CTM. / The globalization of integrated circuits fabrication involves several questions about the integrity of the fabricated circuits. Malicious modifications called Hardware Trojans (HT) can be introduced during the circuit production process. Due to the complexity of an integrated circuit, it is really difficult to find this kind of alterations.This work focuses on a non-destructive method of HT detection. We use the paths delays of the studied design as a channel to detect HT. A model to describe paths delays is defined. It takes into account two important parameters which are the experimental conditions and the process variations.Faults attacks by clock glitches based on timing constraints violations have been performed to measure data paths delays. Reliable circuits are used for reference. After validating the relevance of this channel to get information on the internal behavior of the targeted design, experimental detections of HT inserted on two different abstraction levels (RTL and after place and route) were achieved. Process variations are taken into consideration in the studies to detect if the tested circuits are infected.
372

Craquage thermique des vapeurs de pyrolyse-gazéification de la biomasse en réacteur parfaitement auto-agité par jets gazeux / Thermal cracking of biomass pyrolysis and gasification derived vapours in a continuous self stirred tank reactor

Baumlin, Sébastien 04 October 2006 (has links)
ALes gaz issus des procédés de pyrolyse-gazéification de la biomasse doivent être épurés. Ils contiennent des vapeurs condensables (goudrons), des aérosols, des particules solides fines, des composés soufrés et des métaux alcalins qu’il s’agit d’éliminer avant leur utilisation sur des turbines (production d’électricité) ou comme gaz de synthèse. Les expériences rapportées dans ce travail concernent les vapeurs condensables et leur conversion par craquage thermique. Les vapeurs sont produites par pyrolyse de la biomasse dans un premier réacteur (RP) à 540°C. Elles sont ensuite craquées dans un réacteur parfaitement auto-agité par jets gazeux (RPAA) associé en série avec le RP. Le RPAA fonctionne à plus haute température (550-1030°C) et le temps de séjour de la phase gazeuse dans le craqueur est compris entre 0,1 et 1 s. Tous les produits de réaction (charbon, vapeurs condensables et gaz permanents) sont récupérés et analysés. Le RPAA étant uniforme en température et en concentration, la détermination de constantes de vitesse à temps de séjour donné est assez aisée à partir de bilans de matière en vapeurs et gaz. Des schémas réactionnels globaux rendant compte du craquage des vapeurs en gaz mais aussi de leur possible maturation en composés plus réfractaires sont proposés et leurs constantes de vitesse optimisées à partir des résultats expérimentaux. Ces modèles permettent de simuler le craquage thermique d’une charge type issue d’un gazogène. On détermine les conditions optimales de fonctionnement (température, temps de séjour) du réacteur de craquage qui aboutissent à une concentration en vapeurs condensables la plus faible possible. On comparera ainsi l’efficacité du craquage thermique à celle des autres procédés d’épuration des goudrons. / Pyrolysis and gasification processes give rise to gases containing by-products such as condensable vapors (tars), aerosols, dust, sulfur compounds and inorganics which may considerably lower the efficiency of catalysts (if chemical synthesis is foreseen) or cause severe damages to motors and turbines (in case of electricity production). Hence, efficient gas treatments are needed. The experiments reported in the present work are related to thermal cracking of condensable vapors. These vapors are produced in a first reactor by biomass pyrolysis (PR) at 540°C. They undergo further cracking in a second vessel, a continuous serf stirred tank reactor (CSSTR), assembled in series with the PR. The CSSTR is operated at temperatures ranging from 550 to 1030°C and gas phase mean residence times ranging from 0,1 to 1 s. Reaction products (char, condensable vapors and permanent gases) are recovered and analyzed. Temperature as well as composition are uniform at any point of the CSSTR. Therefore, it is easy to derive values of kinetic constants from mass balances at a given residence time. Global vapor cracking schemes including gas formation as well as possible maturation into more refractory compounds are proposed. Their kinetic constants are optimized from the experimental results. These models are used to simulate the thermal cracking of a typical load flowing out from a gasifier. Optimal operating conditions of the cracking reactor (in terms of temperature and residence time) are determined to reach the lowest condensable vapors concentration. Thus, efficiency of thermal cracking can be compared to other gas treatment processes.
373

Conception et procédés de fabrication avancés pour l’électronique ultra-basse consommation en technologie CMOS 80 nm avec mémoire non volatile embarquée / Design and advanced manufacturing processes for ultra low-power electronic in CMOS 80 nm technology with embedded non-volatile memory

Innocenti, Jordan 10 December 2015 (has links)
L’accroissement du champ d’application et de la performance des microcontrôleurs s’accompagne d’une augmentation de la puissance consommée limitant l’autonomie des systèmes nomades (smartphones, tablettes, ordinateurs portables, implants biomédicaux, …). L’étude menée dans le cadre de la thèse, consiste à réduire la consommation dynamique des circuits fabriqués en technologie CMOS 80 nm avec mémoire non-volatile embarquée (e-NVM) ; à travers l’amélioration des performances des transistors MOS. Pour augmenter la mobilité des porteurs de charge, des techniques de fabrication utilisées dans les nœuds les plus avancés (40 nm, 32 nm) sont d’abord étudiées en fonction de différents critères (intégration, coût, gain en courant/performance). Celles sélectionnées sont ensuite optimisées et adaptées pour être embarquées sur une plate-forme e-NVM 80 nm. L’étape suivante est d’étudier comment transformer le gain en courant, en gain sur la consommation dynamique, sans dégrader la consommation statique. Les approches utilisées ont été de réduire la tension d’alimentation et la largeur des transistors. Un gain en consommation dynamique supérieur à 20 % est démontré sur des oscillateurs en anneau et sur un circuit numérique conçu avec près de 20 000 cellules logiques. La méthodologie appliquée sur le circuit a permis de réduire automatiquement la taille des transistors (évitant ainsi une étape de conception supplémentaire). Enfin, une dernière étude consiste à optimiser la consommation, les performances et la surface des cellules logiques à travers des améliorations de conception et une solution permettant de réduire l’impact de la contrainte induite par l’oxyde STI. / The increase of the scope of application and the performance of microcontrollers is accompanied by an increase in power consumption reducing the life-time of mobile systems (smartphones, tablets, laptops, biomedical implants, …). Here, the work consists of reducing the dynamic consumption of circuits manufactured in embedded non-volatile memories (e-NVM) CMOS 80 nm technology by improving the performance of MOS transistors. In order to increase the carriers’ mobility, manufacturing techniques used in the most advanced technological nodes (40 nm, 32 nm) are firstly studied according to different criteria (process integration, cost, current/performance gain). Then, selected techniques are optimized and adapted to be used on an e-NVM technological platform. The next step is to study how to transform the current gain into dynamic power gain without impacting the static consumption. To do so, the supply voltage and the transistor widths are reduced. Up to 20 % in dynamic current gain is demonstrated using ring oscillators and a digital circuit designed with 20,000 standard cells. The methodology applied on the circuit allows automatic reduction to all transistor widths without additional design modifications. Finally, a last study is performed in order to optimize the consumption, the performance and the area of digital standard cells through design improvements and by reducing the mechanical stress of STI oxide.
374

Simulation multi-échelle des procédés de fabrication basée sur la plasticité cristalline / Multi-scale simulation of manufacturing processes based on the crystal plasticity

Soho, Komi Dodzi Badji 21 March 2016 (has links)
Dans cette thèse, deux méthodes de couplage sont proposées pour la simulation multi-échelle des procédés de mise en forme. Dans la première partie, une procédure simplifiée (couplage indirect) est adoptée pour coupler les codes éléments finis (Abaqus et LAM3) au modèle polycristallin avec un schéma de transition autocohérente basée sur le comportement élastoplastique du monocristal écrit dans le formalisme des grandes déformations. Cette procédure simplifiée consiste à lier le modèle polycristallin avec l'analyse EF par l'extraction de l'histoire de l'incrément de déformation et de contrainte macroscopique, obtenue à partir d'une simulation EF préliminaire avec une loi phénoménologique, et à l'utiliser comme trajet de chargement dans le modèle polycristallin. Cette méthode est appliquée pour la simulation multi-échelle du procédé de skin-pass. Le suivi du trajet de chargement extrait dans la demi-épaisseur de la tôle a permis de prédire l'évolution des grandeurs physiques associées au modèle de plasticité en particulier la texture cristallographique, la texture morphologique et l'écrouissage. Dans la seconde partie de cette thèse, un modèle polycristallin élastoplastique du type autocohérent en petites déformations est couplé au code EF Abaqus via la routine utilisateur UMAT. Ce couplage (dit couplage direct) consiste à utiliser la théorie de la plasticité cristalline comme loi de comportement à chaque point d'intégration du maillage EF. Le polycristal est représenté par un ensemble de N monocristaux. Chaque fois que le code EF a besoin d'information sur le comportement mécanique aux points d'intégration de chaque EF, le modèle polycristallin est appelé. Pour valider ce couplage développé, nous avons effectué des cas tests de simulation de trajets rhéologiques. Les résultats issus de ce couplage ont été validés avec des modèles de référence. À la différence des modèles phénoménologiques, ce couplage permet non seulement d'avoir des informations sur le comportement macroscopique de la structure mais aussi d'obtenir des informations sur l'état de la microstructure du matériau. / In this thesis, two coupling methods are proposed for the multiscale simulation of forming processes. In the first part, a simplified procedure (indirect coupling) is adopted to couple the finite element codes (Abaqus and LAM3) with a polycrystalline selfconsistent model based on the large strain elastoplastic behavior of single crystals. This simplified procedure consists in linking the polycrystalline model with the FE analysis by extracting the history of the increment of macroscopic strain and stress, obtained from a preliminary FE simulation with a phenomenological law, and then using it as loading path prescribed to the polycrystalline model. This method is applied to multiscale simulation of skin-pass processes. By following on the loading path extracted at the halfthickness of the sheet, we can predict the evolution of some physical parameters associated with the plasticity model, in particular the crystallographic texture, the morphological texture and hardening. In the second part on this thesis, a small strain version of the elastoplastic polycristalline self-consistent model is coupled to the Abaqus FE code via the user material subroutine UMAT. This coupling (called direct coupling) consists in using crystal plasticity theory as constitutive law at each integration point of the FE mesh. The polycristal is represented by a set of N single crystals. Each time the FE code needs information on the mechanical behavior at the integration points considered, the full polycrystalline constitutive model is called. In order to validate this coupling, simulations of simple mechanical tests have been conducted. The results of this coupling have been validated through comparison with reference models. Unlike phenomenological models, this coupling provides not only information on the overall macroscopic response of the structure, but also important information related to its microstructure
375

Développement et mise à l'essai d'un outil pour analyser des albums jeunesse afin d'élaborer un répertoire d'oeuvres québécoises propices au travail interprétatif

Turgeon, Elaine 02 1900 (has links)
La présente recherche porte sur la lecture littéraire dans un contexte d’enseignement primaire et concerne plus précisément les albums jeunesse qui favorisent le développement des habiletés interprétatives. Il s’agit d’une recherche-développement qui comporte trois objectifs. Le premier objectif consiste à développer un outil pour analyser les procédés narratifs des albums jeunesse et y cerner les éléments propices au travail interprétatif. Le second objectif vise à mettre à l’essai l’outil d’analyse afin d’en mesurer la validité et la fidélité, alors que le dernier objectif consiste à élaborer, à l’aide de l’outil développé, un répertoire d’albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire. La méthodologie mise en œuvre afin d’atteindre les trois objectifs a d’abord permis d’analyser les besoins, c’est-à-dire, les finalités et les utilisateurs de l’outil d’analyse, puis d’en concevoir et d’en élaborer une première version, de la mettre à l’essai afin d’en évaluer la validité auprès d’experts, avant d’en produire une deuxième version, d’en évaluer la fidélité à l’aide de codeurs et finalement, d’en produire une troisième puis une quatrième version afin d’élaborer un répertoire d’albums jeunesse québécois propices au travail interprétatif. Bien que la mise à l’essai ne permette pas de conclure de façon tout à fait satisfaisante à propos de l’objectivité des indicateurs de l’outil développé, l’analyse des commentaires des experts permet d’affirmer que les indicateurs de l’outil d’analyse présentent un très haut degré de pertinence, ce qui donne à penser que l’outil développé de même que le répertoire de quinze albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire élaboré, dans le cadre de cette recherche, peuvent s’avérer de premiers outils utiles et pertinents pour le milieu scolaire. / This research paper examines literary reading in the context of primary education and focuses specifically on picturebooks that foster the development of interpretive skills. It gives an account of research and development in which we pursued three objectives. The first objective was to develop a tool to analyse the narrative processes of picturebooks and identify elements conducive to interpretive work; the second aimed to test the analysis tool in order to measure its reliability and validity; and the final objective was to use the tool we developed to put together a collection of Quebec children’s books that favour the development of interpretive skills in primary students. To achieve these three objectives, we adopted a methodology that enabled us to first analyse the needs, namely the users and purposes of the analysis tool, and then to design and develop an initial version. This version was tested with experts to determine its validity. A second version was then produced and its reliability was evaluated using encoders. Lastly, a third and forth version was produced to assemble a collection of Quebec picturebooks conducive to interpretive work. Although our test did not allow us to draw an altogether satisfactory conclusion about the objectivity of the indicators of our analysis tool, an analysis of comments by the experts confirms that the indicators of our analysis tool are highly relevant, which suggests that the tool we developed and the collection of 15 Quebec picturebooks that favour the development of interpretive skills in primary students we assembled may be important and useful tools within a school environment.
376

Etude du procédé d'expansion à froid des alésages au sein des structures aéronautiques en métaux durs / Study of the cold expansion process in hard metal aeronautical structures

Achard, Victor 27 September 2016 (has links)
Ces travaux de thèse ont pour objectif de contribuer au développement de procédés innovants pour les assemblages contenant des métaux durs. Le procédé d’expansion à froid, dont l’efficacité a été prouvée à de nombreuses reprises sur les alliages d’aluminium et dont les qualités sont nombreuses, a attiré notre attention. L’objectif de la thèse est d’apporter des éléments de réponse quant à l’intérêt de l’utilisation du procédé d’expansion au sein des métaux durs, mesuré notamment par son impact sur la performance en fatigue. Plus généralement, il s’agit de comprendre son fonctionnement et son mode d’action au sein de ces alliages à hautes performances. Dans les travaux réalisés, les challenges scientifiques et techniques s’articulent autour de plusieurs thématiques d’étude. Des essais expérimentaux ont été effectués en vue de prouver la faisabilité du procédé mais aussi de mesurer de son impact sur la tenue fatigue d’alésages en alliages de titane (Ti-6Al-4V), en acier inoxydables à durcissement structural (15-5PH) mais aussi en superalliages à base Nickel (Inconel 718). L’efficacité du procédé a été prouvée et les gains apportés par la technologie sont importants. D’un autre côté, la problématique de la détermination des champs résiduels en bord de trou reste un réel défi pour la communauté intéressée par l’expansion à froid. La considération cette fois-ci des métaux durs apporte un degré supplémentaire de nouveauté et d’inconnu. La méthodologie générale employée réside dans la considération d’études numériques et expérimentales afin d’étudier la réponse des métaux durs à l’expansion à froid. Des modèles éléments finis axisymétriques ont été développés en vue de simuler le procédé complet d’expansion à froid réalisée au sein d’alésages et d’empilages de divers métaux durs. Les résultats numériques fournis ont été mis en parallèle avec ceux issus de mesures expérimentales, telles que la méthode du trou incrémental. Le but étant ainsi d’obtenir les cartographies les plus fiables possibles des contraintes résiduelles triaxiales générées en bord de trou mais aussi de rechercher de stratégies d’optimisations du procédé / This thesis aims to contribute to the development of innovative processes for mechanical components made of hard metals (Titanium, steels and superalloys). In the aeronautical field, the design of ever more efficient and reliable structures remains a technical challenge. In mechanical assemblies, hole edges are the seats of high stress concentrations and are a major risk site for crack initiation. To fight against this damage, manufacturing technologies such as cold expansion are widespread for aluminium applications but not for hard metal. The objective of this study is to provide answers concerning the impact of the cold expansion on the fatigue performance of holes and understand the mechanisms of the process in these high performance alloys. In the present work, the methodology proposed is to carry out both experimental and numerical studies of the response of hard alloy holes subjected to cold expansion. An extensive experimental campaign has been set up. It includes several materials (Ti-6Al-4V αβ and β annealed, 15-5PH & Inconel 718) and aims to test many parameters. The process has proved very effective on the fatigue performance in these high performance alloys. On the other hand, the main technical and scientific challenge lies in determining the stress fields generated within the material after cold expansion, especially in hard metals, the behaviour of which can be diverse and complex. The numerical modelling strategy chosen has led to the development of polyvalent axisymmetric models that are dedicated to simulation of the split sleeve process. Experimental and numerical results were compared using various methodologies, such as the incremental hole drilling technique. Measurements have validated the finite element simulations, with the purpose of mapping the residual fields in the expanded metallic section and the proposal of optimisation techniques.
377

Identification de lois de comportement de tôles en faibles épaisseurs par développement et utilisation du procédé de microformage incrémental / Idefntification of behavior laws of thin sheet metals by developing and using micro-incremental forming process

Ben Hmida, Ramzi 18 December 2014 (has links)
La miniaturisation des composants est aujourd’hui un challenge mondial. La fabrication de ces composants est rendue difficile par un certain nombre de phénomènes liés aux effets d’échelle. Il est ainsi nécessaire de répondre à ces contraintes de réduction d’échelle en termes de conception, de réalisation et de fonctionnement de ces systèmes. Cette étude aborde la problématique de la miniaturisation des procédés et plus particulièrement du procédé de micro-formage incrémental « mono-point » (micro-SPIF) à travers des études expérimentales et numériques. Le micro-formage incrémental de tôles est présenté comme une approche intéres sante de fabrication de structures minces. La géométrie désirée est assurée par la trajectoire d’un outil imposant une déformation locale sur la tôle serrée en son contour. Dans un premier temps, une approcheexpérimentale consistant à analyser le comportement mécanique des éprouvettes en alliage de cuivre avec différentes tailles de grains par des essais de traction a été proposée. L’interaction entre la géométrie et la microstructure est évaluée à l’aide du ratio de l'épaisseur par la taille moyenne de grains Φ=t/d. Un pilote de formage incrémental « mono-point » instrumenté a été également développé. Une campagne d'essais expérimentaux de micro-SPIF a été ainsi réalisée sur des flans par différentes tailles de grains afin d'étudier les effets de la microstructure sur la géométrie, l’état de surface, la distribution des épaisseurs et sur l’évolution des efforts. Dans un second temps, un modèle paramétrique de type éléments finis simulant le micro-SPIF a été développé en langage MATLAB®. Le code de calculs LS-DYNA® a été utilisé pour simuler le procédé en adaptant une loi de comportement élastoplastique. Ensuite, les résultats obtenus en termes de géométrie,d’évolution de l’épaisseur et d’efforts de formage sont confrontés aux relevés expérimentaux afin de valider la procédure numérique. Dans un troisième temps, une loi élastoplastique endommageable décrivant les principaux phénomènes physiques intervenant durant le formage des métaux en grandes déformations a été présentée. Une procédure d'identification de cette loi basée sur une analyse inverse de l’effort au cours du procédé de micro-SPIF a été proposée et des tests de validation du modèle ont été discutés. Enfin, une analyse de l'identifiabilité locale basée sur un indice de multicolinéarité des fonctions de sensibilité est effectuée pour valider la procédure d’identification paramétrique et quantifier l’intérêt du procédé pour la caractérisation quantitative des tôlesminces en très grandes déformations / The miniaturization of components is now a world challenge. The manufacture of these componentsis difficult because of several phenomena related to the so-called size effect. It is thus necessary to fulfill theserequirements of scaling down in terms of design, implementation and operations. This study deals with theproblems of miniaturization processes, especially the “micro-Single Point" Incremental Forming process (micro-SPIF) through experimental and numerical studies. Micro-single point incremental forming process is presentedas an interesting approach for thin structures manufacturing. The desired geometry is provided by the tool pathrequiring a local deformation in a sheet clamped along its contour. Firstly, an experimental approach consistingin analyzing the mechanical behaviour of copper alloy specimens with various grain sizes by tensile tests hasbeen proposed. The interaction between the geometry and the microstructure is evaluated using the ratio of thethickness by the average grain size Φ=t/d. An instrumented micro-SPIF device was also developed. A set ofsingle point incremental sheet forming experimental tests were conducted on blanks with several grain sizesusing two forming strategies in order to study the effect of microstructure on the geometry, the surface topology,the thickness distribution and the forming forces evolutions. Secondly, a finite element parametric model capableof simulating the micro-SPIF process was developed in MATLAB® language. The commercial LS-DYNA® codewas used to simulate this process using an elastic-plastic constitutive law. Then, the results obtained in terms ofgeometry, thickness evolution and forming forces are compared with the experimental results in order to validatethe numerical procedure. Thirdly, an elastic-plastic damage model describing the main physical phenomenainvolved during metal forming by large deformation was presented. An identification procedure of thisbehaviour law based on the inverse analysis of the axial forming force during micro-SPIF process was proposedand several validation tests of the model were discussed. Finally, local identifiability analysis based on an indexof multicollinearity of the sensitivity functions was performed in order to validate the parameters identificationprocedure and quantify the advantage of the process for quantitative mechanical behaviour characterization ofthin metal sheets at large strains
378

Intensification des procédés de polymérisation : passage du batch au continu / Intensification of polymerization process : from batch to continuous process

Chevrel, Marie-Claire 22 April 2014 (has links)
Les polymères de spécialité en solution dans l’eau sont typiquement produits en réacteur agité dans des ateliers multi-produit, offrant la possibilité de produire une large gamme de produits. Cependant, les limites inhérentes au réacteur batch se concrétisent dans ce type de production par une variation de la qualité de polymère d’une synthèse à l’autre, d’une phase de développement difficile de l’échelle laboratoire à la production industrielle, et d’une technologie offrant des échanges de chaleur limité. Des conditions diluées sont requises ce qui implique des cycles de production longs. Le passage vers un procédé continu pourrait être une bonne alternative s’il permet d’accélérer les temps de réaction mais aussi de garantir une qualité de polymère constante dans le temps. Cela signifie dans notre cas un polymère avec une masse molaire élevée et un indice de polymolécularité faible. Inscrit dans le cadre du projet européen F3Factory, l’étude a consisté à la conception d’un pilote de laboratoire destiné à la polymérisation en continu puis à l’étude d’un procédé industriel batch dans ce pilote. Il s’agit de la polymérisation radicalaire d’un copolymère de l’acide acrylique qui comporte deux problématiques principales, une réaction exothermique couplée à une viscosité élevée. Le pilote de laboratoire est équipé d’un réacteur tubulaire contenant des mélangeurs statiques de marque Fluitec avec un débit de 1 à 2kg.hr-1 et offrant un excellent transfert de chaleur, un bon mélange avec un écoulement à caractère piston. Une méthodologie de passage au continu a été développée. Une étude préliminaire a notamment été menée en couplant rhéologie et spectroscopie Raman. Cela nous a permis d'acquérir des données pertinentes à petite échelle (étude rhéocinétique), données clés pour le passage au continu. Ce travail démontre la faisabilité de la production en continu de polymère d’acide acrylique. L’impact des différents paramètres tel que les concentrations en monomères et amorceur et la température a été étudié. Finalement, notre travail s’est attaché à caractériser les polymères produits en batch et en continu et à déterminer les avantages et les limitations offerts par le procédé continu / Water soluble polymers are typically produced batchwise in multi-product plants, providing the ability to produce a wide range of products. However, some limitations due to the use of batch reactor remain which are the variation of the quality of a synthetic polymer from one run to another run, a non-obvious scale-up step from the laboratory scale to the industrial production, and a technology with limited heat exchange . Dilute conditions are required which implies long cycle production times. A transition from discontinuous to continuous production could be a good alternative if it can accelerate the reaction time but also to ensure a consistent quality of polymer over time. This means in our case a polymer with a high molecular weight and a low polydispersity index. In the frame of the European project F3Factory, a continuous laboratory-scale pilot of 1 to 2kg.hr-1 flowrate for the production of water soluble polymers was designed. The chosen intensified reactor was a tubular reactor containing static mixers. Providing excellent heat transfer, a good mixing with a piston flow character, this technology was also flexible thanks to the presence of standardized flanges and well instrumented for data acquisition in terms of temperature, pressure but also conversion with in-line Raman analysis. Free radical polymerization of acrylic acid was carried out in a continuous way. Two main challenges were faced: an exothermic reaction coupled to a high viscosity. A methodology relative to the transposition from bath to continuous process was developed. A preliminary study coupling rheology and Raman spectroscopy allowed us to acquire relevant data at small-scale (rheokinetic study). This work demonstrates the feasibility of the continuous production of acrylic acid polymer. The impact of various parameters such as the concentrations of monomer and initiator and the temperature was investigated. Finally, our work has focused on characterizing the polymers produced in batch and continuous and to determine the advantages and limitations offered by the continuous process
379

Relier les attributs de matériaux et les paramètres de procédés de fabrication à un test de contrôle qualité, une application du concept du Quality by Design / Linking material attributes and process parameters to a quality control test, an application of Quality by Design concept

Yekpe, Kétsia 22 July 2014 (has links)
A partir de 2002, grâce à l'introduction du concept de la Qualité par la Conception (en anglais Quality by Design : QbD) par l'agence américaine des produits alimentaires et médicamenteux, l'industrie pharmaceutique a intensifié les efforts et les investissements pour permettre une libération en temps réel des lots commerciaux. Le QbD propose que la qualité soit construite dès la conception initiale du médicament plutôt que d'être évaluée à la fin de sa fabrication. Ainsi, avec l'initiative QbD, les tests de contrôle de la qualité de médicaments, réalisés après la fabrication des comprimés, peuvent être éliminés si les paramètres qui les influencent sont contrôlés.En effet, ces tests de contrôle qualité dits traditionnels requièrent en général plusieurs heures pour leurs préparations et leurs réalisations. Tel est le cas du test de dissolution. Ce test est très consommateur de ressources matérielles et humaines. La réalisation de stratégies de contrôle pour les tests de dissolution basée sur une approche QbD pourrait être bénéfique pour l'industrie pharmaceutique.À travers ce travail, nous avons pu :• proposer différentes stratégies novatrices de contrôle du test de dissolution de comprimés pharmaceutiques sur la base des principes du QbD,• apporter un nouvel éclairage sur la compréhension des phénomènes impliqués dans la dissolution de comprimés pharmaceutiques.Les résultats de ce projet de recherche ont permis 1) la mise en évidence des paramètres critiques influençant le test de dissolution, 2) l'élaboration et l'évaluation de modèles statistiques pour les combinaisons de variation de paramètres selon un plan d'expérience préalablement conçu, 3) la corrélation du test de dissolution à des paramètres critiques de procédés de fabrication et d'attributs de matériaux grâce aux technologies d'analyse de procédés. / With the introduction in 2002 of the concept of Quality by Design (QbD) by the Food and Drug Administration, the pharmaceutical industry intensified efforts and investments to reach real time release of commercial batches, reducing time between manufacturing and availability to the patient. QbD proposes that quality should be built in the initial design of a product rather than being assessed at the end of the tablet manufacturing. Thus, with the QbD initiative, quality control tests of tablets like dissolution testing performed after tablets manufacturing could be removed if the parameters impacting them are controlled.Indeed, quality control tests such as traditional dissolution tests generally require several hours for their preparation and their realizations. Dissolution tests are very consuming of time, material, equipment and human resources. The elimination of these tests through a QbD approach could be beneficial for the pharmaceutical industry.Thanks to this work, it was possible to :• propose different innovative strategies to control the dissolution test of pharmaceutical tablets based on the principles of Quality by Design,• have a better understanding of this quality control test.The main results relies on 1) the identification of critical parameters influencing the dissolution test, 2) the development and evaluation of statistical models for the combination of variation of parameters according to an experimental design, 3) the correlation of dissolution test to critical manufacturing process parameters and attributes of materials through process analysis technology.
380

A life cycle assessment and process system engineering integrated approach for sustainability : application to environmental evaluation of biofuel production / Approche intégrée en analyse de cycle de vie et génie des procèdes pour la durabilité : application à l'évaluation environnementale du système de production de biocarburants

Gillani, Sayed Tamiz ud din 26 September 2013 (has links)
La méthode de l’Analyse du Cycle de Vie (ACV) est devenue ces dernières années un outil d’aide à la décision « environnementale » pour évaluer l’impact des produits et des processus associés. La pratique de l’ACV est documentée comme un outil pour l’évaluation d’impacts, la comparaison et la prise de décisions « orientée produit ». L’exploitation d’une telle méthode pour les procédés de l’industrie bio-physico-chimique a gagné récemment en popularité. Il existe de nombreux faisceaux d’amélioration et d’expansion pour sa mise en oeuvre pour l’évaluation des procédés industriels. L’étude s’attache à la production de biocarburant à partir de la plante Jatropha curcas L. selon une approche « attributionelle ». Cette étude présente l’évaluation environnementale d’un agro-procédé et discute de l’opportunité de coupler les concepts, les méthodes et les outils de l’ACV et de l’IPAO (Ingénierie des Procédés Assistés par Ordinateur). Une première partie présente l’ACV appliquée à l’agrochimie. L’état de la littérature apporte des enseignements sur les diverses études qui mettent en évidence le rôle et l’importance de l’ACV pour les produits et les différents agro-procédés. La substitution des carburants classiques par les biocarburants est considérée comme une voie potentielle de substitution aux énergies fossiles. Leur processus se doit d’être évalué au regard de l’impact environnemental et du paradigme du développement durable, en complément des critères classiques, économiques et politiques. La deuxième partie aborde notre étude ACV de la production du biocarburant à partir de la plante Jatropha. Cette évaluation englobe la culture et la récolte en Afrique, l’extraction de l’huile et la phase de production de biocarburants, jusqu’à son utilisation par un moteur à explosion. À cet effet, les normes ISO 14040 et 14044 sont respectées. Basée sur une perspective « midpoint » avec les méthodes de calcul d’impacts, Impact 2002+ et CML, nous fournissons les premiers résultats de la phase d’interprétation (GES, appauvrissement des ressources, la couche d’ozone, l’eutrophisation et l’acidification). Cette étude démontre le potentiel de production de biocarburants de deuxième génération à réduire l’impact environnemental. Dans le même temps, elle révèle que l’unité de transesterification est le plus impactant. Nous identifions les limites de notre application selon une approche ACV « pure ». Dans la troisième partie, nous discutons des bénéfices attendus du couplage de l’ACV et des méthodes de modélisation et de simulation de l’ingénierie des procédés. Nous suggérons alors une amélioration de l’approche environnementale des systèmes de production. Nous fournissons un cadre de travail intégrant les différents points de vue, système, processus et procédé afin d’évaluer les performances environnementales du produit. Un outil logiciel, SimLCA, est développé sur la base de l’environnement Excel et est validé par l’utilisation de la solution ACV SimaPro et du simulateur de procédés Prosim Plus. SimLCA permet un couplage ACV-simulation pour l’évaluation environnementale du système complet de production de biocarburant. Cette intégration multi-niveaux permet une interaction dynamique des données, paramètres et résultats de simulation. Différentes configurations et scénarios sont discutés afin d’étudier l’influence de l’unité fonctionnelle et d’un paramètre de procédé. La quatrième partie établit la conclusion générale et trace les perspectives. / With the rise of global warming issues due to the increase of the greenhouse gas emission and more generally with growing importance granted to sustainable development, process system engineering (PSE) has turned to think more and more environmentally. Indeed, the chemical engineer has now taken into account not only the economic criteria of the process, but also its environmental and social performances. On the other hand LCA is a method used to evaluate the potential impacts on the environment of a product, process, or activity throughout its life cycle. The research here focused on coupling of PSE domain with the environmental analysis of agricultural and chemical activities and abatement strategies for agro-processes with the help of computer aided tools and models. Among many approaches, the coupling of PSE and LCA is investigated here because it is viewed as a good instrument to evaluate the environmental performance of different unitary processes and whole process. The coupling can be of different nature depending on the focus of the study. The main objective is to define an innovative LCA based on approach for a deep integration of product, process and system perspectives. We selected a PSE embedded LCA and proposed a framework that would lead to an improved eco-analysis, eco-design and eco-decision of business processes and resulted products for researchers and engineers. In the first place we evaluate biodiesel for environmental analysis with the help of field data, background data and impact methodologies. Through this environmental evaluation, we identify the hotspot in the whole production system. To complement the experimental data this hotspot (i.e. transesterification) is selected for further modeling and simulation. For results validation, we also implement LCA in a dedicated tool (SimaPro) and simulation in a PSE simulation tool (Prosim Plus). Finally we develop a tool (SimLCA) dedicated to the LCA by using PSE tools and methodologies. This development of SimLCA framework can serve as a step forward for determination of sustainability and eco-efficient designing.

Page generated in 0.0369 seconds