• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1064
  • 343
  • 306
  • 296
  • 185
  • 66
  • 38
  • 33
  • 29
  • 17
  • 15
  • 14
  • 11
  • 9
  • 9
  • Tagged with
  • 2885
  • 542
  • 469
  • 422
  • 325
  • 309
  • 277
  • 272
  • 243
  • 230
  • 229
  • 201
  • 200
  • 171
  • 170
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

A comparison of the effects of 5-week traditional circuit training and 5-week plyometric circuit training on the physical fitness of secondary one male students in Hong Kong /

Yuen, Wai-pui. January 1999 (has links)
Thesis (M. Ed.)--University of Hong Kong, 1999. / Includes bibliographical references (leaves 58-63).
362

A comparison of the effects of 5-week traditional circuit training and 5-week plyometric circuit training on the physical fitness of secondary one male students in Hong Kong

Yuen, Wai-pui. January 1999 (has links)
Thesis (M.Ed.)--University of Hong Kong, 1999. / Includes bibliographical references (leaves 58-63). Also available in print.
363

An investigation of four television teaching feedback techniques via a closed-circuit system

Copeland, J. B. January 1966 (has links)
Thesis (Ph. D.)--University of Wisconsin, 1966. / Extension Repository Collection. Typescript (photocopy). eContent provider-neutral record in process. Description based on print version record. Includes bibliographical references.
364

Investigation of the curing process of an epoxy/silica composite for microelectronics / Etude du procédé de réticulation d'un composite époxy/silice pour les applications en microélectronique

Granado, Lérys 17 November 2017 (has links)
En raison de la demande de miniaturisation croissante dans l’industrie microélectronique, il est nécessaire de développer des circuits imprimés multicouches (PCB, Printed Circuit Board) présentant une densité d’interconnections de plus en plus élevée. Avec leurs bonnes propriétés physico-chimiques et mécaniques et un relatif faible coût, les matériaux composites à base de résine époxy sont des matériaux de premier choix pour ce type d’application. Cependant, la réduction de la taille des connexions électriques de cuivre (largeur < 1 µm), implique que l’adhésion cuivre/époxy soit améliorée. Dans la littérature, des études ont montré que le taux de réticulation des résines epoxy est un paramètre clé, contrôlant la résistance chimique de la résine epoxy (vis-à-vis des procédés industriels d’impression de cuivre par voie chimique) et les propriétés d’adhésion du cuivre sur le substrat composite.L’objectif de cette thèse est d’étudier de façon approfondie la cinétique de réticulation d’un composite époxy/silice (ABF) utilisé en production de masse dans l’industrie microélectronique afin de proposer un protocole de fabrication des circuits imprimés en fonction du taux de réticulation.Le comportement rhéologique du matériau composite en fonction du taux de réticulation a été étudié par analyse mécanique dynamique (DMA). L’influence du taux de réticulation sur les processus de gélification et de vitrification est présentée et une analyse du comportement viscoélastique de la résine epoxy près de la transition vitreuse est discutée. Le modèle WLF est utilisé pour décrire la dynamique de réseau du polymère. La cinétique de réticulation du composite a été étudiée in situ en spectroscopie proche-infrarouge (NIR) et en calorimétrie différentielle à balayage (DSC) en modes isotherme et non-isotherme. L’analyse iso-conversionnelle a permis de déterminer l’énergie d’activation de la réaction de réticulation. Cependant, une modélisation plus approfondie de la cinétique de réticulation a été nécessaire en raison d’une contribution de diffusion s’ajoutant à la contribution chimique de la réaction. Cette étude a montré que les cinétiques de réticulation peuvent être décrites par le modèle auto-catalytique d’ordre n combiné aux modèles de Rabinowitch et WLF-modifié, modèles tenant compte de la contribution de diffusion. Ce modèle a permis de prédire le comportement du matériau dans une large gamme temps/température et d’établir le diagramme Température-Temps-Transformation du matériau .Compte tenu de l’importance du taux de réticulation sur les propriétés d’adhésion des connexions électriques de cuivre, une méthode de mesure du taux de réticulation sur des PCB industriels a été développée. La spectroscopie infrarouge en réflexion diffuse (DRIFTS) s’est avérée être une technique d’analyse parfaitement adaptée. L’influence du taux de réticulation sur l’étape de “desmear” du procédé de fabrication a également été étudiée. Cette étape, constituée d’une phase de gonflement de la résine epoxy (swelling) suivie d’une attaque oxydante au permanganate et d’une étape de réduction, est déterminante quant à la rugosité de surface obtenue et donc l’adhésion du cuivre sur le substrat composite. Une méthode originale a été développée pour déterminer le profil de diffusion de l’agent de gonflement (sweller) au sein du matériau, méthode alliant microtomie et analyse chromatographique. L’effet des conditions de “swelling” sur la rugosité finale du matériau a été déterminé par microscopie à force atomique (AFM). Des tests d’adhésion du cuivre ont également été réalisés afin d’étudier l’influence du taux de réticulation de la résine epoxy et de la rugosité de surface du composite sur la force d’adhésion. Finalement, une bonne adhésion du cuivre (environ 4 N/cm) pour des surfaces de faible rugosité (< 10 nm). / Due to the increasing miniaturization in microelectronics the manufacturing of densely interconnected multilayer printed-circuit boards (PCB) is needed. With their well-balanced physico-chemical and mechanical properties and low cost, epoxy-based composites are insulating materials of prime choice. However, to achieve interconnections at a lower scale (copper line width down to ca. 1 µm), the adhesion between the composite substrate and the copper interconnections must be enhanced. Previous studies showed that the degree of curing of the epoxy matrix (i.e. conversion of crosslinking reaction) is one key-parameter, driving the matrix chemical and mechanical resistance (during the PCP manufacturing process) and the composite/copper line adhesion properties.In this work we present and discuss an in-depth study of the curing kinetics of an epoxy/silica composite (ABF) relevant to the microelectronics industry. The final objective is to propose a process protocol of the PCB manufacturing as function of the degree of curing.The rheological behaviour of the composite material is investigated by dynamic mechanical analysis (DMA). The gelation and vitrification mechanisms are presented as a function of the degree of curing. The viscoelastic behavior of the epoxy matrix near the glass-transition is studied and is shown to be well-described by the WLF model.The curing kinetics of the epoxy composite are studied by in situ near-infrared (NIR) spectroscopy and both isothermal and non-isothermal differential scanning calorimetry (DSC). Iso-conversional analyses are performed to determine the apparent activation energy of the curing reaction. Due to a non-negligible contribution of the diffusion part in the curing reaction, further modelling was needed to achieve a complete description of the curing kinetics. This study showed that the curing kinetic is well-described by the nth-order autocatalytic fitting model in combination with the Rabinowitch/modified-WLF models, taking into account the diffusion contribution. This model is used to predict the material behaviour in a wide time/temperature range and to propose a Temperature-Time-Transformation diagram of the material.Due to the influence of the degree of curing on the adhesion of copper electrical lines, an experimental method for the measurement of the degree of curing of industrial PCB was developed. Diffuse-reflectance infrared spectroscopy (DRIFTS) is found to be a versatile and accurate technique. The influence of the degree of curing on the “desmear” step of the PCB manufacturing process is studied as well. The “desmear” step proceeds in the swelling of the epoxy matrix and the subsequent permanganate etching and reduction reactions. The “desmear” step is quite important regarding the composite surface roughness and, as a consequence, the adhesion of the copper lines. An original method for the determination of the diffusion profile of the sweller through the depth of the material was developed using microtomy and chromatography. The effect of swelling experimental parameters on the final roughness of the composite is determined by atomic force microscopy (AFM). Adhesion tests of copper lines on the composite substrate are performed to study the influence of the initial degree of curing and the roughness on the peel strength. Good adhesion of copper (about 4 N/cm) is achieved for a low substrate roughness (< 10 nm).
365

Développement d'outils d'optimisation dédiés aux circuits magnétiques des propulseurs à effet Hall / Optimization tools dedicated to Hall effect thrusters magnetic circuits

Rossi, Alberto 27 April 2017 (has links)
Aujourd’hui les propulseurs à effet Hall ont gagné une position dominante dans le marché des propulseurs électriques spatiales. Ce grand succès est du surtout à leur simplicité de réalisation (par rapport aux autres typologies des propulseurs) et à leur efficacité (par rapport aux propulseurs chimiques traditionnels). Les propulseurs à effet Hall sont aujourd’hui utilisés sur un très grand nombre des plateformes satellitaires (surtout pour les télécommunications). Les composants principales d’un propulseur à effet Hall sont : le circuit magnétique, le canal plasma, l’anode (placé au fond du canal plasma avec injecteur du gaz) et la cathode (placée à l’extérieur du canal plasma). Le fonctionnement d’un propulseur à effet Hall est basé sur la génération d’un champ électrique axial (généré entre l’anode et la cathode) et d’un champ magnétique radial (perpendiculaires entre eux). Le champ magnétique a le rôle de former une zone de très forte concentration électronique (il emprisonne les électrons générés par la cathode) pour permettre aux atomes neutres du gaz de se ioniser. Le champ électrique a le rôle d’accélérer les ions vers l’extérieur du canal. Cette accélération génère la poussée. Le champ magnétique joue un rôle crucial dans le fonctionnement d’un propulseur à effet Hall. La forme du champ magnétique impacte sur les performances propulsifs et sur l’érosion du propulseurs. La topologie magnétique classique des propulseurs à effet Hall n’a subi presque pas des changements depuis les années de développement de cette technologie parce qu’elle garanti des performances propulsifs assez satisfaisantes. Aujourd’hui, avec les nouvelles exigences propulsifs, il y a une très forte nécessité des moteurs avec une durée de vie plus longue. Des nouvelles topologie magnétique innovante sont proposés aujourd’hui comme par exemple le "Magnetique-Shielding" ou le "Wall-Less" . Ces topologies magnétique bouleverse complètement la topologie magnétique classique (en gardant des performances propulsif satisfaisantes) pour protéger le moteur de l’érosion du plasma. Dans cette thèse une autre approche a été adopté. Nous avons pensé d’utiliser une topologie magnétique classique et de déplacer les parties du circuit magnétique attaquées par l’érosion vers des zones moins dangereuses. Nous avons agit sur la forme du circuit magnétique et pas sur la forme de la topologie magnétique pour garder les même performances propulsifs de la topologie magnétique classique. L’objectif de la thèse était de créer des outils pour le design et l’optimisation des circuits magnétiques des propulseurs à effet Hall. Un algorithme nommé ATOP a été créé dans l’équipe de recherche GREM3 du laboratoire LAPLACE de Toulouse. Cette thèse a contribué à la création de la section d’optimisation paramétrique (ATOPPO) et d’une section d’optimisation topologique basée sur les algorithmes génétiques (ATOPTOga) de l’algorithme ATOP. Les algorithme conçues dans cette thèse permettent d’optimiser des propulseurs existants (en terme de forme, masse et courant) ou de concevoir des nouveaux propulseurs (nécessité de concevoir un nouveau propulseur capable de reproduire une topologie magnétique précise). Les algorithmes développées ont démontrés leur efficacité à travers leur application sur un propulseur réel, le PPS-1350-E® de SAFRAN. Ce propulseur a été optimisé en terme de masse et de courant bobines (minimisation de la masse et du courant bobines). Les algorithmes développés ont démontré donc leur efficacité comme instrument d’optimisation et de design. Ces deux algorithmes ont été utilisé pour le design d’un circuit magnétique innovant qui a comme objectif de réduire l’érosion du moteur. Les résultats de ce processus de design ont amené à la réalisation et à la construction d’un prototype qui possède la même topologie magnétique du propulseur PPS- 1350-E® commercialisé par SAFRAN mais avec une circuit magnétique de forme différente. / Nowadays, two types of space propulsion engines exist: the most common ones are the chemical propulsion engines which provide high thrust impulses allowing fast orbit transfers. But this technology requires a large amount of propellant and is not suitable for interplanetary displacements, whose propellant mass requirements are too high. The second type of propulsion engine is based on electrical propulsion that provide very low but continuous thrust, resulting in huge propellant savings at the cost of longer spacecraft transfer time. The main advantage of electric thrusters lies in their highly efficient utilization of propellant mass. The corresponding reduction in necessary propellant supply makes it possible to board a greater portion of useful payload possible. Hall thruster belongs to the electric spacecraft engines typology and it is constituted of a cylindrical plasma channel, an interior anode, an external cathode and a magnetic circuit that generates a primarily radial magnetic field across the plasma channel. The magnetic circuit of a Hall effect thruster must generate a specific electromagnetic distribution inside and near the outlet of the plasma channel. In a Hall Effect thruster the magnetic circuit constitutes more than half of the whole thruster. Consequently the design of this magnetic circuit must be optimized in order to minimize the embedded mass. The main components of this circuit are the coils which produce the magnetic and ferromagnetic parts which guide the and to shape the density. Usually the magnetic circuit includes four (or more) external coils located around the exterior radius of the plasma channel and one internal coil around the interior radius of the plasma channel. All the coils are supplied by the same DC. Two coils located at the rear of the plasma channel can be also used to perform the magnetic topography. The first objective of the design process of this type of structure is to obtain a specific magnetic topography in the thruster channel with given magnetic field radial component values and a certain inclination of the corresponding field lines. By considering nowadays the requirements in terms of lifetime new specifications concerning in particular the erosion of ceramic wall have to be taken into account.This weakness has its origins in plasma-surface interaction inside the discharge chamber. Thus, to solve this problem it has been proposed to move the ionization zone outside the thruster channel in order to avoid contact between the ions and ceramic material. Thanks to new studies carried on the impact of magnetic topology, new magnetic configurations have been highlighted to improve the efficiency and reduce the erosion of the ceramic walls. The aim of this work is to develop tools for solving this inverse magnetostatic problem and to find new magnetic structures that are able to produce these new magnetic cartographies. Methods based on topological optimization have already been developed for these structures. The algorithm ATOPTO (Algorithm To Optimize Propulsion with Topology Optimization) has already demonstrated its efficiency. In this work we try to extend the scope of the algorithm ATOP by adding a new parametric optimization section called ATOPPO. The ATOP algorithm becomes a very versatile optimization tool for Hall Effect thruster magnetic circuits.
366

Analyse et amélioration de la robustesse des circuits asynchrones QDI / Robustness analysis and improvement of QDI self-timed circuits

Ouchet, Florent 02 December 2011 (has links)
La conception de circuits intégrés asynchrones, notamment de circuits QDI (Quasi-Delay Insensitive), offrent la possibilité de disposer de circuits très robustes aux conditions environnementales (tension, température) ainsi qu'aux variations des procédés de fabrication. Ces bonnes propriétés sont dues à une conception ne comportant pas d'hypothèses temporelles à l'exception de la fourche isochrone --hypothèse finalement très faible. Ainsi, une variation de la tension se traduit par une réduction de la vitesse de fonctionnement sans pour autant altérer la fonctionnalité du circuit. Cette thèse étudie la robustesse des circuits asynchrones dans des environnements de fonctionnement très sévères susceptibles de mettre en défaut la correction fonctionnelle des circuits asynchrones QDI. Cette situation se présente par exemple quand les transitions des signaux sur les portes deviennent très lentes. Cette situation exceptionnelle peut-être directement provoquée par un environnement agressif (émission électromagnétique, particules à haute énergie, ...) ou par les effets du vieillissement du circuit intégré. Dans un contexte où le circuit est employé à des fins sécuritaires telles que les applications aéronautiques, spatiales ou médicales, il s'avère nécessaire de quantifier les limites de fonctionnement des circuits asynchrones et de trouver des moyens pour améliorer leur robustesse. Ce manuscrit propose une étude complète du comportement des circuits asynchrones et propose des techniques de conception pour en améliorer la robustesse. Les résultats obtenus ont été validés sur des technologies CMOS avancées de ST Microelectronics par des simulations analogiques d'une part, et avec l'aide d'un outil de preuve formelle développé à l'Université British Columbia au Canada d'autre part. / The design of self-timed integrated circuits, including QDI (Quasi-Delay Insensitive) circuits, lead to robust circuits against variabilities in manufacturing processes and in running conditions (voltage, temperature). These qualities are consequences of the synthesys flow that does not create timing assumptions excepted a weak one related to isochronic forks. In self-timed circuits, the running speed automatically adjusts to the available supply voltage with no behavioral changes. This work focuses on the self-timed circuit robustness in the context of environments where running conditions can make QDI self-timed circuits failing. For instance, this happens when transition speeds at gate entrances become very slow. This uncommonly encountered situation can be triggered in harsh environments (with electromagnetic disturbences, high-energy particulesdots) or because of age effects on manufactured chips. If the integrated circuit is designed for critical operations such as in aeronautical, spatial or medical applications, the self-timed circuit limits have to be carrefully evaluated and eventually shifted in order to improve the circuit robustness. This publication includes a complete study of the self-timed circuit behaviors and some design proposals in order to enhance the circuit robustness. Experimental results were obtained firstly, during analog simulations targetting advanced CMOS technologies from STMicroelectronics and secondly, using formal methods implemented in a tool from the University of British Columbia.
367

Développement de modèles pour l'évaluation des performances circuit des technologies CMOS avancées sub-20nm / Models developpment for power performance assessment of advanced CMOS technologies sub-20nm.

Lacord, Joris 18 December 2012 (has links)
Depuis la commercialisation du premier circuit intégré en 1971, l'industrie de la microélectronique s'est fixée comme leitmotiv de réduire les dimensions des transistors MOSFETs, en suivant la loi de Moore. Comme indiqué par Dennard, cette miniaturisation améliore automatiquement les performances des transistors. A partir des nœuds 28-22nm, les effets canaux courts sont trop difficiles à contrôler et de nouvelles architectures de transistors sont introduites: FDSOI pour STMicroelectronics, Trigate pour Intel. Dans ce contexte, l'évaluation des performances des technologies CMOS est clé et les travaux de cette thèse proposent de les évaluer au niveau circuit. Des modèles spécifiques d'estimation des paramètres électrostatiques et des capacités parasites sont développés. Ceux-ci sont d'abord utilisés sur des technologies amonts (co-intégration III-V/Ge et intégration 3D) puis sont implémentés en VerilogA pour être utilisés avec les outils conventionnel de CAO. Ceci fournit un modèle compact prédictif et utilisable pour toutes les architectures CMOS, qui est utilisé pour évaluer les performances logiques et SRAM des architectures BULK, FDSOI et Trigate aux nœuds 20nm et 16nm. / Since the commercialization of the first integrated circuit in 1971, the microelectronic industry has fixed as an objective to reduce MOSFET transistor dimensions, following Moore's law. As indicated by Dennard, this miniaturization automatically improves device performances. Starting from the 28-22nm technological nodes, short channel effects are to strong and industrial companies choose to introduce new device structure: FDSOI for STMicroelectronics and Trigate for Intel. In such a context, CMOS technology performance evaluation is key and this thesis proposes to evaluate them at circuit level. Specific models for electrostatic parameters and parasitic capacitances for each device structure are developed for each device structure. Those models have first been used to evaluate performances of advanced technologies, such as III-V/Ge co-integration and 3D monolithic integration and have then been implemented in VerilogA to ensure compatibility with conventional CAD tools such as ELDO. This provides a compact model, predictive and usable for each device structure, which has been used to evaluated logic and SRAM performances of BULK, FDSOI and Trigate devices for the 20nm and 16nm technology node.
368

La monnaie et son association avec les biens réels : théories et projets de réforme bancaire / Money and its association with real goods : theories and banking reform plans

Massonnet, Jonathan 08 June 2017 (has links)
Le problème de l’association de la monnaie et des biens réels n’est toujours pas résolu dans la littérature instituée, qui reste marquée par une dichotomie de la sphère monétaire et de la sphère réelle. La monnaie y est habituellement considérée comme une grandeur marchande, une entité extra-économique ou le résultat d’une génération spontanée de la part du système bancaire. Elle serait alors échangée contre des biens réels ou des actifs financiers, ce qui interdit formellement de saisir l’idiosyncrasie qui permettrait de la déterminer dans un modèle. Déterminer la monnaie requiert alors de remonter à la production des biens réels, quand le paiement des salaires témoigne de l’union d’une monnaie-forme et d’un produit-fond. Dans ce cadre, la monnaie est un flux circulaire instantané (une grandeur positive et négative à la fois), que la banque émet sur demande des entreprises, et dans laquelle se loge le produit. Les travailleurs reçoivent ainsi le produit de leur travail sous une forme monétaire, l’association de la monnaie et des biens réels se traduisant par le revenu, qui restitue le pouvoir d’achat de la monnaie et la mesure économique. La valeur étant une relation entre la monnaie et les biens réels, elle est créée par le paiement des salaires et détruite à l’occasion de la dépense de consommation. Développée à l’origine par Bernard Schmitt, la théorie des émissions est le point fixe à partir duquel relire de manière critique les analyses classique, néoclassique, circuitiste et postkeynésienne. L’analyse classique distingue le concept de monnaie des supports monétaires, mais reste minée par une conception physique de la valeur, qui l’empêche de rapporter correctement le circuit. Cet échec est aussi celui de l’analyse circuitiste, qui pèche par une lecture physique du circuit et confère aux banques une capacité de création métaphysique. L’analyse néoclassique ne parvient pas à intégrer la monnaie à la théorie de la valeur-utilité en considérant la monnaie comme une grandeur nette, dont la valeur est déterminée par l’échange. De façon apparentée, l’analyse postkeynésienne prône, malgré le principe de la demande effective, une conception patrimoniale de la monnaie, qui laisse l’offre globale et la demande globale indéterminées. S’interdisant d’associer la monnaie et les biens réels formellement, l’ensemble de ces analyses laisse la valeur de la monnaie et la mesure économique inexpliquées, tout en étant miné par un principe conservatif, qui interdit de restituer l’augmentation de la richesse sociale. L’association de la monnaie et des biens réels doit finalement se retranscrire dans la réalité, par une réforme adaptée des structures bancaires, qui détonne ici des stratégies de ciblage monétaire et de ciblage d’inflation, du Bank Charter Act, du Plan for the Establishment of a National Bank de David Ricardo, des plans de couverture intégrale, ainsi que des propositions de libéralisation monétaire (à la Friedrich Hayek notamment). / The problem of the association of money with real goods is still unsolved in the established literature, which remains affected by a dichotomy between the monetary and the real sectors. Money is traditionally seen as a commodity, an extra-economic entity, or the result of a spontaneous creation of the banking system. It is notably considered as if it were a positive magnitude, which prevents understanding the peculiarity of money that would allow it to be integrated in an economic model. Integrating money in economic theory requires taking into account production, when the payment of wages associates money as a numerical form with real goods. In this framework, money is issued by banks as an instantaneous flow (a positive and a negative magnitude at the same time), which is demanded by firms for the monetization of production. Wage earners receive the product of their labour in a monetary form, the association of money with real goods giving rise to income, which provides value to money and the homogeneity of real goods. Since value is a relation between money and real goods, it is created by the payment of wages and destroyed by consumers’ spending. Originally developed by Bernard Schmitt, the theory of money emissions is the starting point for a critical analysis of Classical, Neoclassical, and Post-Keynesian theories, as well as for the theories of monetary circulation. Classical theory distinguishes between the concept of money and the things in which money is reified, but remains undermined by a physical view of value, which leaves the monetary circuit indeterminate. This failure is also present in the theories of monetary circulation, which have a physical view of the monetary circuit and give banks the metaphysical power of creating value out of nothing. By considering money as a net quantity whose value is seen as a relative price, neoclassical theory fails to integrate money within the theory of value. Post-Keynesian theory, despite the principle of effective demand, retains a net-asset-view of money, which leaves global supply and global demand indeterminate. By ignoring the association of money with real goods, these different theories leave the value of money and the measure in economics unexplained and are undermined by a conservation principle, which logically prevents the explanation of the net increase of national wealth. The association of money with real goods is finally translated in the realm of economic policy through a coherent reform of the banking system, which clashes with the Bank Charter Act, the Plan for the Establishment of a National Bank (by David Ricardo), full-reserve banking, as well as the proposal for monetary liberalization.
369

Développement d’un dispositif de production et de purification portatif d’un médicament : application à la mucoviscidose / Development of a drug production and purification portable device : application to cystic fibrosis

Arenillas, Sophie 15 December 2016 (has links)
La mucoviscidose est une maladie génétique mortelle qui limite ou empêche la production de composés antimicrobiens tels que l’hypothiocyanite (OSCN-) et la lactoferrine. L’objectif de cette étude est de produire un médicament contenant ces deux composés antimicrobiens (10 mL). Cependant l’hypothiocyanite est instable et nécessite une production juste avant administration. Pour cela, une unité de production de médicament portable, destinée à une utilisation par le patient à domicile, est développée avec un appareil réutilisable comprenant le système de pilotage du procédé et une cassette jetable composée par le circuit fluidique et le module membranaire. Le développement du circuit fluidique associé à un module membranaire nécessaire à la purification de l’hypothiocyanite, présent dans le milieu réactionnel, en prenant en compte les contraintes pharmaceutiques, constitue le verrou scientifique et technologique de cette thèse. Au travers de deux géométries membranaires testées, l’étude des paramètres opératoires pour la réalisation de la réaction enzymatique (mécanique des fluides, ultrafiltration, réaction) a permis de mieux appréhender et d’optimiser la production d’hypothiocyanite mais aussi de mettre en évidence les paramètres clés de l’élimination de la glycérine, présente initialement dans les membranes. En parallèle des essais cliniques modifiant les contraintes imposées, l’unité de production et la cassette jetable développées ont permis d’obtenir des résultats proches de ces nouvelles contraintes. / Cystic fibrosis is a fatal genetic disease that limits or prevents antimicrobial compounds such as hypothiocyanite (OSCN-) or lactoferrin. The aim of this study is to produce a drug with those two antimicrobial compounds (10 mL). However hypothiocyanite is unstable and requires production just prior to administration. In order to do so, a portable drug production unit, to be used by the patient at home, is developed. It is made with a reusable device including a control process system and a disposable cassette composed by a fluidic circuit and a membrane module. The scientific and technological challenge of this work is the development of a fluidic circuit incorporating the membrane module for the purification of hypothiocyanite present in a reaction medium while taking into account pharmaceutical constraints. Through two membrane geometries tested, the study of operating parameters to achieve enzymatic reaction (fluid mechanics, ultrafiltration and reaction) allowed to better understand and to optimize the hypothiocyanite production. Furthermore it highlighted the important parameters of the removal of glycerin, initially contained in the membranes. Finally the production unit and the disposable cassette allowed to obtain results close to the specifications. Even though these specifications were redefined and more stringent for clinical trials.
370

A Logic Test Chip for Optimal Test and Diagnosis

Niewenhuis, Benjamin T. 01 May 2018 (has links)
The benefits of the continued progress in integrated circuit manufacturing have been numerous, most notably in the explosion of computing power in devices ranging from cell phones to cars. Key to this success has been strategies to identify, manage, and mitigate yield loss. One such strategy is the use of test structures to identify sources of yield loss early in the development of a new manufacturing process. However, the aggressive scaling of feature dimensions, the integration of new materials, and the increase in structural complexity in modern technologies has challenged the capabilities of conventional test structures. To help address these challenges, a new logic test chip, called the Carnegie Mellon Logic Characterization Vehicle (CM-LCV), has been developed. The CM-LCV utilizes a two- dimensional array of functional unit blocks (FUBs) that each implement an innovative functionality. Properties including fault coverage, logical and physical design features, and fault distinguishability are shown to be composable within the FUB array; that is, they exist regardless of the size and composition of the FUB array. A synthesis ow that leverages this composability to adapt the FUB array to a wide range of test chip design requirements is presented. The connection between the innovative FUB functionality and orthogonal Latin squares is identified and used to analyze the universe of possible FUB functions. Two additional variants to the FUB array are also developed: heterogenous FUB arrays utilize multiple FUB functions to improve the synthesis ow performance, while pipelined FUB arrays incorporate sequential circuit elements (e.g., ip- ops and latches) that are absent from the original combinational FUB array. In addition to the design of the CM-LCV, methods for testing it are presented. Techniques to create minimal sets of test patterns that exhaustively exercise each FUB within the FUB array are developed. Additional constraints are described for the heterogenous and pipelined FUB arrays that allow these techniques to be applied for both variant FUB arrays. Furthermore, a simple built-in self test (BIST) scheme is described and applied to a reference design, resulting in a 88.0% reduction in the number of test cycles required without loss in fault coverage. A hierarchical FUB array diagnosis methodology (HFAD) is also presented for the CM- LCV that leverages its unique properties to improve performance for multiple defects. Experiments demonstrate that this HFAD methodology is capable of perfect accuracy in 93.1% of simulations with two injected faults, an improvement on the state-of-the-art commercial diagnosis. Additionally, silicon fail data was collected from a CM-LCV manufactured using a 14nm process by an industry partner. A comparison of the diagnosis results for the 1,375 fail logs examined shows that the HFAD methodology discovers additional defects during multiple defect diagnosis that the commercial tool misses for 40 of the diagnosed fail logs. Examination of these cases shows that the additional defects found by the HFAD methodology can result in improved diagnosis confidence and more precise descriptions of the defect behavior(s). The contributions of this dissertation can thus be summarized as the description of the design, test, and diagnosis of a new logic test chip for use in yield learning during process development. This CM-LCV can be adapted to meet a wide range of test chip requirements, can be efficiently and rigorously tested, and exhibits properties that can be used to improve diagnosis outcomes. All of these claims are validated through both simulated experiments and silicon data.

Page generated in 0.067 seconds