• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 10
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 32
  • 32
  • 19
  • 14
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Optimální metody řízení energetické spotřeby budov / Optimal Control Strategies for Building Energy Consumption

Kaczmarczyk, Václav January 2015 (has links)
This thesis discusses the operational coordination of electrical appliances and devices in a smart home. At present, the diminishing volume of fossil fuels and the increasing pressure to use renewable sources of energy necessitate the integration of such volatile sources into electrical grids. This process, however, results in higher energy costs, and the consumers are thus more willing to change their behaviour to either reduce the expenses or maintain them at a reasonable level. One of the relatively few customer-oriented options to optimise energy costs consists in the demand – response principle, which utilises external information to minimise energy consumption during high price periods. Assuming the constantly changing conditions in electrical grids, and thus also the varying demands, it is vital to provide for automatic optimisation excluding the need of user intervention. The thesis presents a method which, after being implemented into the control member, will facilitate the optimal use of appliances and devices within a smart home. As the behaviour considered optimal from the perspective of demand - response is often inconsistent with the consumer‘s requirements for comfortable use of the appliances, the proposed technique offers a compromise through enabling the consumer to select the appropriate strategy. Five universal optimisation models are designed within the thesis; these models facilitate description of common home appliances and local electricity sources. The core of the method lies in formulating and optimising a mixed integer quadratic problem (MIQP). The optimisation task yields an operational schedule for the individual appliances, and this scheme considers the energy costs, the working cycle of the appliance, the user’s demands, the system restrictions and/or other input data. Furthermore, the author extends the above-discussed general technique, enabling it to adopt robust behaviour. The method then secures the preset strategy even during a marked change of the input conditions, and its robustness is a viable precondition for the overall applicability of the technique in the real control member.
22

Conception et pilotage d'un atelier intégrant la fabrication additive / Design and management of a workshop integrating additive manufacturing

Antomarchi, Anne-Lise 27 September 2019 (has links)
La fabrication additive est un domaine en plein essor. Cependant, les industriels sont aujourd’hui dans une phase d’interrogation sur l’utilisation de ce procédé dans le cadre d’une production de masse. La problématique posée dans le cadre de ces travaux de recherche est : Comment rendre viable, industriellement, le procédé de fusion sur lit de poudre ? Nos travaux abordent la conception et le pilotage d’ateliers intégrant la fabrication additive et le processus complet d’obtention de la pièce selon les trois niveaux de décision : stratégique, tactique et opérationnel. D’un point du vue stratégique, des décisions fortes d’investissement, de sélection de machines et de choix d’organisation sont à prendre avec des enjeux économiques importants. L’objectif est de définir une méthode d’optimisation multicritère pour la conception modulaire d’un système de production intégrant la fabrication additive en présence de données incertaines, optimale sur le long terme et sur le court terme. D’un point de vue tactique, toutes les pièces ne sont pas forcément des candidates pertinentes pour la fabrication additive. Dans ces travaux, nous avons développé un outil d’aide à la décision qui évalue la pertinence ou non de la fabrication additive pour l’obtention des pièces dans une approche globale des coûts. Au niveau opérationnel, nous proposons un outil basé sur la simulation de flux qui permet de passer des commandes aux ordres de fabrication et leur ordonnancement de manière à garantir l’efficience de l’atelier. Ces travaux de recherche sont développés en lien avec des acteurs du monde industriel : AddUp, MBDA et Dassault qui alimentent nos travaux et nous permettent de confronter nos outils à une réalité industrielle. / The additive manufacturing is a field on the rise. However, companies wonder about the use of additive manufacturing for mass production. The problem raised in the context of this thesis is: How to make the process of sintering laser melting industrially viable? Our work focuses on the design and on the management of workshops integrating the additive manufacturing and of the complete process to obtain part according to three levels of decision: strategic, tactic and operational. About the strategic level, strong decisions of investment, machines selection and organization choice are taken with important economic issues. The aim is to define a multicriteria optimization method for the modular design of a production system integrating the additive manufacturing in the presence of uncertain data, optimal in the long term and the short term. From a tactical point of view, not all parts are necessarily relevant candidates for additive manufacturing. In this work, we developed a decision support tool that evaluates the relevance or not of additive manufacturing to obtain parts in a global cost approach. At the operational level, we offer a tool based on flow simulation that allows orders to be placed to production orders and their scheduling in order to guarantee the efficiency of the workshop. This research work is developed in collaboration with companies: AddUp, MBDA and Dassault, who contribute to our work and enable us to compare our tools with an industrial reality.
23

Méthodologie pour l'optimisation dynamique multicritère d'un procédé discontinu alimenté : application à la production bactérienne d'arômes laitiers / Methodology for the dynamic multicriteria optimization of a fed-batch bioprocess : bacterial lactic aroma production

Makhlouf, Anissa 30 October 2006 (has links)
Ce travail s’intéresse essentiellement au développement et à l’application d’une méthodologie pour l’optimisation dynamique multicritère d’un procédé discontinu alimenté de production bactérienne d’arômes laitiers. L’étude réalisée comprend principalement quatre parties ; la première décrit l'utilisation des plans d’expériences multicritère, couvrant un large domaine expérimental (pH, température et oxygénation), afin de collecter le maximum d'information sur le comportement physiologique de Lactococcus lactis. La deuxième concerne l'analyse cinétique détaillée de l’effet des combinaisons des facteurs opératoires sur la croissance et l'orientation du métabolisme. La troisième, traite de la construction d'un modèle cinétique en mode discontinu et discontinu alimenté. Dans la dernière, l’outil d’optimisation dynamique multicritère a été validé et appliqué au problème de production d’arômes étudié. Les résultats obtenus pour l’optimisation multicritère sont satisfaisants / The aim of the present work is to develop and apply an innovative approach for multicriteria and dynamic optimization of fed-batch fermentation for the production of lactic aroma. This study is mainly divided in four parts: the first one describes the use of multicriteria experimental design, covering an extended operating conditions domain (pH, temperature and oxygenation), in order to collect large experimental information in batch culture of Lactococcus lactis. The second part involves detailed kinetic analysis of operating factor effect combinations on growth and metabolism orientation. The third part deals with the development of a model to predict the kinetic behaviour of this strain in batch and fed-batch cultures. In the last part, the tool for multicriteria and dynamic optimization was validated and applied to the studied problem of lactic aroma production. The results obtained for multicriteria and dynamic optimization are satisfactory
24

Multicriteria optimization for managing tradeoffs in radiation therapy treatment planning

Bokrantz, Rasmus January 2013 (has links)
Treatment planning for radiation therapy inherently involves tradeoffs, such as between tumor control and normal tissue sparing, between time-efficiency and dose quality, and between nominal plan quality and robustness. The purpose of this thesis is to develop methods that can facilitate decision making related to such tradeoffs. The main focus of the thesis is on multicriteria optimization methods where a representative set of treatment plans are first calculated and the most appropriate plan contained in this representation then selected by the treatment planner through continuous interpolation between the precalculated alternatives. These alternatives constitute a subset of the set of Pareto optimal plans, meaning plans such that no criterion can be improved without a sacrifice in another. Approximation of Pareto optimal sets is first studied with respect to fluence map optimization for intensity-modulated radiation therapy. The approximation error of a discrete representation is minimized by calculation of points one at the time at the location where the distance between an inner and outer approximation of the Pareto set currently attains its maximum. A technique for calculating this distance that is orders of magnitude more efficient than the best previous method is presented. A generalization to distributed computational environments is also proposed. Approximation of Pareto optimal sets is also considered with respect to direct machine parameter optimization. Optimization of this form is used to calculate representations where any interpolated treatment plan is directly deliverable. The fact that finite representations of Pareto optimal sets have approximation errors with respect to Pareto optimality is addressed by a technique that removes these errors by a projection onto the exact Pareto set. Projections are also studied subject to constraints that prevent the dose-volume histogram from deteriorating. Multicriteria optimization is extended to treatment planning for volumetric-modulated arc therapy and intensity-modulated proton therapy. Proton therapy plans that are robust against geometric errors are calculated by optimization of the worst case outcome. The theory for multicriteria optimization is extended to accommodate this formulation. Worst case optimization is shown to be preferable to a previous more conservative method that also protects against uncertainties which cannot be realized in practice. / En viktig aspekt av planering av strålterapibehandlingar är avvägningar mellan behandlingsmål vilka står i konflikt med varandra. Exempel på sådana avvägningar är mellan tumörkontroll och dos till omkringliggande frisk vävnad, mellan behandlingstid och doskvalitet, och mellan nominell plankvalitet och robusthet med avseende på geometriska fel. Denna avhandling syftar till att utveckla metoder som kan underlätta beslutsfattande kring motstridiga behandlingsmål. Primärt studeras en metod för flermålsoptimering där behandlingsplanen väljs genom kontinuerlig interpolation över ett representativt urval av förberäknade alternativ. De förberäknade behandlingsplanerna utgör en delmängd av de Paretooptimala planerna, det vill säga de planer sådana att en förbättring enligt ett kriterium inte kan ske annat än genom en försämring enligt ett annat. Beräkning av en approximativ representation av mängden av Paretooptimala planer studeras först med avseende på fluensoptimering för intensitetsmodulerad strålterapi. Felet för den approximativa representationen minimeras genom att innesluta mängden av Paretooptimala planer mellan inre och yttre approximationer. Dessa approximationer förfinas iterativt genom att varje ny plan genereras där avståndet mellan approximationerna för tillfället är som störst. En teknik för att beräkna det maximala avståndet mellan approximationerna föreslås vilken är flera storleksordningar snabbare än den bästa tidigare kända metoden. En generalisering till distribuerade beräkningsmiljöer föreslås även. Approximation av mängden av Paretooptimala planer studeras även för direkt maskinparameteroptimering, som används för att beräkna representationer där varje interpolerad behandlingsplan är direkt levererbar. Det faktum att en ändlig representation av mängden av Paretooptimala lösningar har ett approximationsfel till Paretooptimalitet hanteras via en metod där en interpolerad behandlingsplan projiceras på Paretomängden. Projektioner studeras även under bivillkor som förhindrar att den interpolerade planens dos-volym histogram kan försämras. Flermålsoptimering utökas till planering av rotationsterapi och intensitetsmodulerad protonterapi. Protonplaner som är robusta mot geometriska fel beräknas genom optimering med avseende på det värsta möjliga utfallet av de föreliggande osäkerheterna. Flermålsoptimering utökas även teoretiskt till att innefatta denna formulering. Nyttan av värsta fallet-optimering jämfört med tidigare mer konservativa metoder som även skyddar mot osäkerheter som inte kan realiseras i praktiken demonstreras experimentellt. / <p>QC 20130527</p>
25

Etude et résolution de problèmes d'ordonnancement d'opérations d'évacuation / Solving evacuation scheduling problem

Boukebab, Kaouthar 01 December 2015 (has links)
Les travaux présentés dans cette thèse, qui s’inscrivent dans le cadre du projet franco-allemand DSS_Evac_Logistic, visent à proposer des méthodes permettant de calculer des plans d’évacuation macroscopiques d’une ville lors d’une catastrophe majeure. Deux problèmes d’évacuations sont considérés dans cette thèse : le problème d’évacuation par bus et le problème d’évacuation par bus et voitures. Le problème d’évacuation par bus a pour objectif de définir un plan d’évacuation afin de mettre à l’abri les évacués. Dans cette thèse, nous nous sommes intéressés à l’étude de trois versions du problème d’évacuation par bus. La première version est monocritère où nous cherchons à minimiser la date de fin d’évacuation. Puis, dans le second problème et afin d’assurer la sécurité des évacués, nous avons considéré une version bicritère qui généralise le cas monocritère, en incluant le risque encouru lors de l’évacuation des personnes. Les deux critères à minimiser sont la date de fin d’évacuation et le risque. La troisième version est une version robuste bicritère qui permet d’appréhender l’incertitude sur les données. Le but est de minimiser à la fois la date de fin d’évacuation et les modifications apportées sur une solution, de sorte qu’elle soit réalisable pour n’importe quel scénario de données. Pour résoudre ces problèmes d’évacuation par bus, nous avons proposé des méthodes exactes et des méthodes heuristiques. / The work presented in this thesis, which is a part of the Franco-German project DSS_Evac_Logistic, aims at proposing methods to calculate macroscopic evacuation plans for mid-size towns after a tremendous disaster. Two evacuation problems have been tackled in this thesis : the bus evacuation problem and bus-and-vehicle evacuation problem. The bus evacuation problem aims at calculating an evacuation plan to relocate evacuees outside the endangered area. In this thesis, we consider three versions of the bus evacuation problem. The first one is a monocriterion problem, where the objective is to minimize the maximum evacuation time. In order to guarantee the safety of evacuees, we have considered a bicriteria problem, which is a generalization of the monocriterion version, in which we take into consideration the risk exposure of the evacuees. Consequently, the bicriteria problem is solved by minimizing the total evacuation time and the risk. The third version is a bicriteria robust version because most of the planning data is subject to uncertainty. The goal is to minimize both the evacuation time and the vulnerability of the schedule that is subject to different evacuation circumstances. To solve all the versions of the bus evacuation problem, we have developed exact solutions based on mathematical formulation to address small instances and heuristic solutions to deal with larger instances.
26

Scheduling for Reliability : complexity and Algorithms / Ordonnancement pour la Fiabilité : complexité et algorithmes

Dufossé, Fanny 06 September 2011 (has links)
Les travaux présentés dans cette thèse portent sur le placement et l’ordonnancement d’applications de flots de données. On se place dans le contexte de plates-formes composées de processeurs sujets à des pannes. Dans une première partie, on considère un type particulier d’applications de flots de données: les services filtrants. On étudie l'ordonnancement de telles applications sur des plates-formes homogènes et hétérogènes, d'abord sans tenir compte des coûts de communication, puis en les incluant dans le modèle. On considère enfin l’ordonnancement d’un tel calcul sur une chaîne de processeurs. Le comportement d’un service filtrant est comparable à celui d’un calcul effectué sur un processeur non fiable: certains résultats vont être calculés, et d’autres perdus. On étudie le modèle des pannes transitoires. On veut effectuer un calcul à la fois fiable et efficace. La complexité de différentes variantes de ce problème est démontrée. Deux heuristiques sont décrites, puis comparées expérimentalement. Si les pannes transitoires sont les pannes les plus fréquemment rencontrées sur des grilles de calculs classiques, certains types de plates-formes rencontrent d’autres types de défaillances. Les grilles de volontaires sont particulièrement instables. Sur ce type de plate-forme, on veut exécuter des calculs itératifs. Cette application est constituée soit de tâches indépendantes, soit de tâches couplées, qui doivent être calculées ensemble et au même rythme. Dans chaque cas, le problème est d’abord étudié théoriquement, puis des heuristiques sontproposées, et leur performances sont comparées. / This thesis deals with the mapping and the scheduling of workflows. In this context, we consider unreliable platforms, with processors subject to failures. In a first part, we consider a particular model of streaming applications : the filtering services. In this context, we aim at minimizing period and latency. We first neglect communication costs. In this model, we study scheduling problems on homogeneous and heterogeneous platforms. Then, the impact of communication costs on scheduling problems of a filtering application is studied. Finally, we consider the scheduling problem of such an application on a chain of processors. The theoretical complexity of any variant of this problem is proved. This filtering property can model the reliability of processors. The results of some computations are successfully computed, and some other ones are lost. We consider the more frequent failure types : transient failures. We aim efficient and reliable schedules. The complexity of many variants of this problem is proved. Two heuristics are proposed and compared using using simulations. Even if transient failures are the most common failures in classical grids, some particular type of platform are more concerned by other type of problems. Desktop grids are especially unstable. In this context, we want to execute iterative applications. All tasks are executed, then a synchronization occurs, and so on. Two variants of this problem are considered : applicationsof independent tasks, and applications where all tasks need to be executed at same speed. In both cases, the problem is first theoretically studied, then heuristics are proposed and compared using simulations.
27

Méthodes efficaces de capture de front de pareto en conception mécanique multicritère : applications industrielles / Non disponible

Benki, Aalae 28 January 2014 (has links)
Dans le domaine d’optimisation de forme de structures, la réduction des coûts et l’amélioration des produits sont des défis permanents à relever. Pour ce faire, le procédé de mise en forme doit être optimisé. Optimiser le procédé revient alors à résoudre un problème d’optimisation. Généralement ce problème est un problème d’optimisation multicritère très coûteux en terme de temps de calcul, où on cherche à minimiser plusieurs fonctions coût en présence d’un certain nombre de contraintes. Pour résoudre ce type de problème, on a développé un algorithme robuste, efficace et fiable. Cet algorithme, consiste à coupler un algorithme de capture de front de Pareto (NBI ou NNCM) avec un métamodèle (RBF), c’est-à-dire des approximations des résultats des simulations coûteuses. D’après l’ensemble des résultats obtenus par cette approche, il est intéressant de souligner que la capture de front de Pareto génère un ensemble des solutions non dominées. Pour savoir lesquelles choisir, le cas échéant, il est nécessaire de faire appel à des algorithmes de sélection, comme par exemple Nash et Kalai-Smorodinsky. Ces deux approches, issues de la théorie des jeux, ont été utilisées pour notre travail. L’ensemble des algorithmes sont validés sur deux cas industriels proposés par notre partenaire industriel. Le premier concerne un modèle 2D du fond de la canette (elasto-plasticité) et le second est un modèle 3D de la traverse (élasticité linéaire). Les résultats obtenus confirment l’efficacité de nos algorithmes développés. / One of the current challenges in the domain of the multiobjective shape optimization is to reduce the calculation time required by conventional methods. The high computational cost is due to the high number of simulation or function calls required by these methods. Recently, several studies have been led to overcome this problem by integratinga metamodel in the overall optimization loop. In this thesis, we perform a coupling between the Normal Boundary Intersection -NBI- algorithm and The Normalized Normal constraint Method -NNCM- algorithm with Radial Basis Function -RBF- metamodel in order to have asimple tool with a reasonable calculation time to solve multicriteria optimization problems. First, we apply our approach to academic test cases. Then, we validate our method against two industrial cases, namely, shape optimization of the bottom of a can undergoing nonlinear elasto-plastic deformation and an optimization of an automotive twist beam. Then, in order to select solutions among the Pareto efficient ones, we use the same surrogate approach to implement a method to compute Nash and Kalai-Smorodinsky equilibria.
28

Modélisation, expérimentation et optimisation multicritère d'un procédé de copolymérisation en émulsion en présence d'un agent de transfert de chaîne / Modeling, experimentation and multicriteria optimization of an emulsion copolymerization process in presence of a chain transfer agent

Benyahia, Brahim 04 December 2009 (has links)
L'objectif de cette étude est de développer une méthodologie permettant de déterminer et de mettre en \oe{}uvre les conditions opératoires optimales du procédé fed-batch de copolymérisation en émulsion du styrène et de l'acrylate de butyle en présence d'un agent de transfert de chaîne (CTA). Elle vise particulièrement à optimiser la production et les caractéristiques physico-chimiques de particules de latex à propriétés d'usage ciblées. Après une étude expérimentale de l'impact des différents facteurs, le modèle mathématique du procédé a été développé traduisant l'effet particulier de l'agent de transfert de chaîne sur la cinétique de polymérisation et mettant l'accent sur une les bilans de population. Une approche basée sur l'analyse de l'estimabilité des paramètres a ensuite permis de sélectionner 21 paramètres parmi les 49 paramètres du modèle mathématique dont les valeurs ont été identifiées grâce à un algorithme génétique. Le modèle mathématique validé en modes batch et fed-batch a ensuite été exploité pour l'optimisation multicritère du procédé orientée vers la maximisation de la production de particules de latex possédant une morphologie de type coeur-écorce avec un profil de température de transition vitreuse prédéfini. L'ensemble des solutions du front de Pareto a été obtenu grâce à un algorithme évolutionnaire développé et testé à cet effet. La meilleure alternative obtenue grâce à un outil d'aide à la décision a été implémentée expérimentalement et comparée avec succès aux prédictions du modèle mathématique / The objective of this study is to develop a methodology in order to determine and implement the optimal operating conditions of the emulsion fed-batch copolymerization process of styrene and butyl acrylate in the presence of a chain transfer agent. It particularly aims to optimize the production and the physico-chemical characteristics of latex particles with targeted end-use properties. After an experimental study, the process model has been developed taking into account the particular effect of the chain transfer agent on the polymerization kinetic and highlights the population balance. Thanks to an estimability analysis approach, 21 parameters among the 49 parameters of the model have been selected whose values have been identified by using a genetic algorithm. The mathematical model validated in both batch and fed-batch modes was then exploited for the multicriteria optimization of the process oriented towards the maximization of the production of latex particles having a core-shell type morphology with a given glass transition temperature profile. The Pareto's front solutions were obtained thanks to an evolutionary algorithm developed and tested for this purpose. The best alternative obtained by a decision-making aid tool was finally experimentally implemented and successfully compared with the predictions of the mathematical model
29

Pokročilé algoritmy analýzy datových sekvencí v Matlabu / Advanced algorithms for the analysis of data sequences in Matlab

Götthans, Tomáš January 2010 (has links)
Cílem této práce je se seznámení s možnostmi programu Matlab z hlediska detailní analýzy deterministických dynamických systémů. Jedná se především o analýzu časové posloupnosti a o nalezení Lyapunových exponentů. Dalším cílem je navrhnout algoritmus umožňující specifikovat chování systému na základě znalosti příslušných diferenciálních rovnic. To znamená, nalezení chaotických systémů.
30

Rational design of plastic packaging for alcoholic beverages / Conception raisonnée d'emballages en plastique pour les boissons alcoolisées

Zhu, Yan 17 July 2019 (has links)
La perception des emballages alimentaires est passée d’utile à source majeure de contaminants dans les aliments et menace pour l’environnement. La substitution du verre par des con-tenants en plastiques recyclés ou biosourcés réduit l’impact environnemental des boissons embouteillées. La thèse a développé de nouveaux outils de simulation 3D et d’optimisation pour accélérer le prototypage des emballages éco-efficaces pour les boissons alcoolisées. La durée de conservation des boissons, la sécurité sanitaire des matériaux plastiques recyclés, les contraintes mécaniques, et la quantité de déchets sont considérées comme un seul problème d'optimisation multicritères. Les nouvelles bouteilles sont générées virtuellement et itérativement en trois étapes comprenant : i) une [E]valuation multiéchelle des transferts de masse couplés ; ii) une étape de [D]écision validant les contraintes techniques (forme, capacité, poids) et réglementaires (durée de conservation, migrations); iii) une étape globale de ré[S]olution recherchant des solutions de Pareto acceptables. La capacité de prédire la durée de vie des liqueurs dans des conditions réelles a été testée avec succès sur environ 500 miniatures en PET (polyéthylène téréphtalate) sur plusieurs mois. L’ensemble de l’approche a été conçu pour gérer tout transfert de matière couplé (perméation, sorption, migration). La sorption mutuelle est prise en compte via une formulation polynaire de Flory-Huggins. Une formulation gros grain de la théorie des volumes libres de Vrentas et Duda a été développée pour prédire les propriétés de diffusion dans les polymères vitreux de l’eau et des solutés organiques dans des polymères arbitraires (polyesters, polyamides, polyvinyles, polyoléfines). 409 diffusivités issues de la littérature ou mesurées ont été utilisée pour validation. La contribution de la relaxation du PET vitreux a été analysée par sorption différentielle (binaire et ternaire) de 25 à 50 °C. Une partie du code source sera partagé afin d'encourager l'intégration de davantage de paramètres affectant la durée de conservation des boissons et des produits alimentaires (cinétique d'oxydation, piégeage d'arômes). / The view of plastic food packaging turned from useful to a major source of contaminants in food and an environmental threat. Substituting glass by recycled or biosourced plastic containers reduces environmental impacts for bottled beverages. The thesis developed a 3D computational and optimization framework to accelerate the prototyping of eco-efficient packaging for alcoholic beverages. Shelf-life, food safety, mechanical constraints, and packaging wastes are considered into a single multicriteria optimization problem. New bottles are virtually generated within an iterative three steps process involving: i) a multiresolution [E]valuation of coupled mass transfer; ii) a [D]ecision step validating technical (shape, capacity, weight) and regulatory (shelf-life, migrations) constraints; iii) a global [Solving] step seeking acceptable Pareto solutions. The capacity to predict shelf-life of liquors in real conditions was tested successfully on ca. 500 hundred bottle min iatures in PET (polyethylene terephthalate) over several months. The entire approach has been designed to manage any coupled mass transfer (permeation, sorption, migration). Mutual sorption is considered via polynary Flory-Huggins formulation. A blob formulation of the free-volume theory of Vrentas and Duda was developed to predict the diffusion properties in glassy polymers of water and organic solutes in arbitrary polymers (polyesters, polyamides, polyvinyls, polyolefins). The validation set included 433 experimental diffusivities from literature and measured in this work. The contribution of polymer relaxation in glassy PET was analyzed in binary and ternary differential sorption using a cosorption microbalance from 25 to 50°C. Part of the framework will be released as an open-source project to encourage the integration of more factors affecting the shelf-life of beverages and food products (oxidation kinetics, aroma scalping).

Page generated in 0.0501 seconds