• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 7
  • Tagged with
  • 21
  • 21
  • 17
  • 8
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le fractionnement supercritique appliqué à des composés d'intérêt industriel / Supercritical fractionation applied to compounds of industrial interest

Dufour, Cyril 19 June 2017 (has links)
Le fractionnement par CO2 supercritique est un procédé séparatif très sélectif mais peu exploité à l’échelle industrielle. L’industrie des plantes à parfum est en recherche constante de techniques séparatives permettant la purification de molécules d’intérêt issues des végétaux. Les travaux de cette thèse ont eu pour objectif de mettre en avant le potentiel du fractionnement supercritique et d’étudier ses performances lorsqu’il est appliqué à des mélanges complexes. L’étude a été focalisée sur la purification du sclaréol contenu dans un mélange complexe. Pour cela, une étude préliminaire a permis d’identifier l’alimentation ayant les propriétés les plus adaptées à un fractionnement supercritique. Des mesures préliminaires ont été réalisées pour caractériser les différents types d’alimentation, mais aussi identifier les conditions opératoires les plus favorables pour mettre en place un fractionnement supercritique. Par la suite, une première phase expérimentale de fractionnement supercritique a été menée à température constante sur une colonne garnie d’une hauteur utile de 2,6 m pour un diamètre interne de 30 mm. Ces essais ont monté les paramètres opératoires les plus influents sur la purification du sclaréol. Certains de ces résultats ont pu être modélisés avec succès. Une seconde phase expérimentale a permis de mettre en évidence l’intérêt d’un reflux interne pour augmenter la sélectivité de la séparation. Enfin, un couplage du fractionnement supercritique avec la distillation moléculaire a été proposé pour ouvrir une nouvelle voie dans la chaîne de purification du sclaréol. Une amélioration significative du taux de pureté en sclaréol et du rendement a été démontrée. / Supercritical fractionation process is a highly selective separation process but not widely used on an industrial scale. The perfume industry is constantly seeking separation techniques for purifying molecules of interest derived from plant extracts. The aim of this thesis was to highlight the potential of supercritical fractionation process and to study its performance when applied to complex mixtures. This study was focused on the purification of sclareol contained in a complex mixture. For this, a preliminary study has identified the most suitable charge for a separation using supercritical fractionation. Density, viscosity and phase equilibrium measurements were performed to characterize the feed, but also to identify the most favorable operating condition range to implement the supercritical fractionation process. Subsequently, first experimental essays of supercritical fractionation were performed at a constant temperature on a packed column with a working height of 2.6 m for an internal diameter of 30 mm. These tests have shown the most influent operating parameters on sclareol purification. Some of these results have been modeled successfully using a simple model. A second experimental step showed the advantage of internal reflux to increase the selectivity of the separation. Finally, a coupling of supercritical fractionation process with molecular distillation has been proposed to open a new path in the sclareol purification chain process. Significant improvement in purity and efficacy has been demonstrated.
2

Plans prédictifs à taille fixe et séquentiels pour le krigeage / Fixed-size and sequential designs for kriging

Abtini, Mona 30 August 2018 (has links)
La simulation numérique est devenue une alternative à l’expérimentation réelle pour étudier des phénomènes physiques. Cependant, les phénomènes complexes requièrent en général un nombre important de simulations, chaque simulation étant très coûteuse en temps de calcul. Une approche basée sur la théorie des plans d’expériences est souvent utilisée en vue de réduire ce coût de calcul. Elle consiste à partir d’un nombre réduit de simulations, organisées selon un plan d’expériences numériques, à construire un modèle d’approximation souvent appelé métamodèle, alors beaucoup plus rapide à évaluer que le code lui-même. Traditionnellement, les plans utilisés sont des plans de type Space-Filling Design (SFD). La première partie de la thèse concerne la construction de plans d’expériences SFD à taille fixe adaptés à l’identification d’un modèle de krigeage car le krigeage est un des métamodèles les plus populaires. Nous étudions l’impact de la contrainte Hypercube Latin (qui est le type de plans les plus utilisés en pratique avec le modèle de krigeage) sur des plans maximin-optimaux. Nous montrons que cette contrainte largement utilisée en pratique est bénéfique quand le nombre de points est peu élevé car elle atténue les défauts de la configuration maximin-optimal (majorité des points du plan aux bords du domaine). Un critère d’uniformité appelé discrépance radiale est proposé dans le but d’étudier l’uniformité des points selon leur position par rapport aux bords du domaine. Ensuite, nous introduisons un proxy pour le plan minimax-optimal qui est le plan le plus proche du plan IMSE (plan adapté à la prédiction par krigeage) et qui est coûteux en temps de calcul, ce proxy est basé sur les plans maximin-optimaux. Enfin, nous présentons une procédure bien réglée de l’optimisation par recuit simulé pour trouver les plans maximin-optimaux. Il s’agit ici de réduire au plus la probabilité de tomber dans un optimum local. La deuxième partie de la thèse porte sur un problème légèrement différent. Si un plan est construit de sorte à être SFD pour N points, il n’y a aucune garantie qu’un sous-plan à n points (n 6 N) soit SFD. Or en pratique le plan peut être arrêté avant sa réalisation complète. La deuxième partie est donc dédiée au développement de méthodes de planification séquentielle pour bâtir un ensemble d’expériences de type SFD pour tout n compris entre 1 et N qui soient toutes adaptées à la prédiction par krigeage. Nous proposons une méthode pour générer des plans séquentiellement ou encore emboités (l’un est inclus dans l’autre) basée sur des critères d’information, notamment le critère d’Information Mutuelle qui mesure la réduction de l’incertitude de la prédiction en tout point du domaine entre avant et après l’observation de la réponse aux points du plan. Cette approche assure la qualité des plans obtenus pour toutes les valeurs de n, 1 6 n 6 N. La difficulté est le calcul du critère et notamment la génération de plans en grande dimension. Pour pallier ce problème une solution a été présentée. Cette solution propose une implémentation astucieuse de la méthode basée sur le découpage par blocs des matrices de covariances ce qui la rend numériquement efficace. / In recent years, computer simulation models are increasingly used to study complex phenomena. Such problems usually rely on very large sophisticated simulation codes that are very expensive in computing time. The exploitation of these codes becomes a problem, especially when the objective requires a significant number of evaluations of the code. In practice, the code is replaced by global approximation models, often called metamodels, most commonly a Gaussian Process (kriging) adjusted to a design of experiments, i.e. on observations of the model output obtained on a small number of simulations. Space-Filling-Designs which have the design points evenly spread over the entire feasible input region, are the most used designs. This thesis consists of two parts. The main focus of both parts is on construction of designs of experiments that are adapted to kriging, which is one of the most popular metamodels. Part I considers the construction of space-fillingdesigns of fixed size which are adapted to kriging prediction. This part was started by studying the effect of Latin Hypercube constraint (the most used design in practice with the kriging) on maximin-optimal designs. This study shows that when the design has a small number of points, the addition of the Latin Hypercube constraint will be useful because it mitigates the drawbacks of maximin-optimal configurations (the position of the majority of points at the boundary of the input space). Following this study, an uniformity criterion called Radial discrepancy has been proposed in order to measure the uniformity of the points of the design according to their distance to the boundary of the input space. Then we show that the minimax-optimal design is the closest design to IMSE design (design which is adapted to prediction by kriging) but is also very difficult to evaluate. We then introduce a proxy for the minimax-optimal design based on the maximin-optimal design. Finally, we present an optimised implementation of the simulated annealing algorithm in order to find maximin-optimal designs. Our aim here is to minimize the probability of falling in a local minimum configuration of the simulated annealing. The second part of the thesis concerns a slightly different problem. If XN is space-filling-design of N points, there is no guarantee that any n points of XN (1 6 n 6 N) constitute a space-filling-design. In practice, however, we may have to stop the simulations before the full realization of design. The aim of this part is therefore to propose a new methodology to construct sequential of space-filling-designs (nested designs) of experiments Xn for any n between 1 and N that are all adapted to kriging prediction. We introduce a method to generate nested designs based on information criteria, particularly the Mutual Information criterion. This method ensures a good quality forall the designs generated, 1 6 n 6 N. A key difficulty of this method is that the time needed to generate a MI-sequential design in the highdimension case is very larg. To address this issue a particular implementation, which calculates the determinant of a given matrix by partitioning it into blocks. This implementation allows a significant reduction of the computational cost of MI-sequential designs, has been proposed.
3

Etude cinétique et optimisation multicritères du couplage déshydratation imprégnation par immersion : séchage convectif de la poire, la pomme et l'abricot / Kinetic investigation and multicriteria optimization of dehydration impregnation : by soaking combined to convective drying of pear, apple and apricot

Djendoubi Mrad, Nadia 20 December 2012 (has links)
Ce travail avait pour objectif l'étude de l'impact des deux procédés : la déshydratation imprégnation par immersion (DII) et le séchage convectif menés séparément ou combinés sur les transferts couplés d'eau et de saccharose et les principaux critères de qualité de fruit (écart de couleur, teneur en phénols totaux (PT), teneur en acide ascorbique (AA), retrait volumique, activité de l'eau) en prenant la poire Conférences comme modèle. L'effet des procédés sur les morceaux de poire a été appréhendé selon deux approches : (i) une étude globale de l'impact des variables de commandes sur la qualité du produit fini et (ii) une étude cinétique des composés d'intérêt nutritionnel et de la qualité (couleur, retrait, activité de l'eau).Un plan d'expériences composite centré à quatre facteurs et cinq niveaux a été établi (concentration en saccharose de la solution osmotique : 25-65%, température de DII : 20-60 °C, durée de la DII : 0,5-6,5 h, température du séchage convectif : 30-70 °C) pour étudier l'effet global des procédés sur le produit fini. En DII, les paramètres « °Brix, « durée » et « la température de la solution » ont un effet significatif (p < 0,01) sur les pertes en eau, le gain en soluté et les attributs de qualité de morceaux de poire. Les pertes en AA sont plus élevées que les pertes en PT et sont essentiellement dues à l'oxydation et à l'entraînement par l'eau. Durant le séchage convectif, les pertes en PT et en AA dépendent plus de la durée du procédé que de la température d'exposition. Elles atteignent respectivement 80% et 34% après 10 h de séchage à 30 °C. Le changement de couleur de morceaux de poire dépend de la durée et de la température de traitement et est plus prononcé en fin de séchage. Des modèles quadratiques prédictifs ont été proposés pour relier les variables de réponse (aw, différence de couleur, perte en PT et durée totale de traitement) aux paramètres opératoires des deux procédés étudiés. Cependant, la perte en AA décroit linéairement avec la durée de DII. Une optimisation multicritères en utilisant la méthodologie des surfaces de réponse (MSR) a été proposée (pertes minimales en PT et en AA, durée totale du traitement et différence de couleur réduites et une aw inférieure à 0,6) pour la combinaison DII/séchage. Les conditions optimales sont : solution osmotique à 28°C et 25°Brix, une durée de DII de 30 min et un séchage convectif à 60 °C. Par ailleurs, les effets de la température (30, 45 et 60 °C) et de l'imprégnation en saccharose par DII (10 et 65 min, 70°Brix, 30 °C) sur les isothermes de désorption et sur la température de transition vitreuse (Tg) de morceaux de poires, de pommes et d'abricots ont été déterminés. L'imprégnation en saccharose du tissu végétal atténue l'influence de la température sur sa capacité de sorption. Elle engendre un effet dépresseur de l'activité de l'eau et une augmentation de l'hygroscopicité de la poire, la pomme et l'abricot à température élevée. Les isothermes de désorption des abricots frais et enrichis en saccharose présentent un croisement des courbes marquant l'inversement de l'effet de la température sur les isothermes. La Tg dépend de la température, de la teneur en saccharose et de la teneur en eau des fruits. Pour une teneur en eau constante, l'augmentation de la température et la durée de DII se traduisent par l'augmentation de la Tg. Les digrammes de phase (Tg=f(X) et Tg=f(aw)) des fruits ont été établis à 30, 45 et 60°C et les teneurs en eau critiques ainsi que les activités d'eau critiques ont été déterminées. Une teneur en eau en fin de séchage inférieure ou égale à 0,02 g/g M.S. est recommandée pour l'obtention de morceaux de fruit stables aux niveaux microbiologique, physicochimique et rhéologique. / The aim of this work was the study of the impact of both drying processes: dehydration-impregnation by soaking (DIS) and convective drying performed separately or in combination on mass transfers of water and sucrose and on the main quality characteristics of the fruit (total difference of colour, total phenols (TP) and ascorbic acid (AA) contents, shrinking, water activity) by taking the pear Conference as a model. The processes effect on the pieces of pear was apprehended according two approaches: (i) a global study of the impact of the variables of commands on the quality of finished product and (ii) a kinetic study of nutritional compounds and the quality (colour, shrinkage, and water activity). Central Composite Design with four factors (sucrose concentration: 25-65 %, temperature: 20-60 °C, immersion time: 0.5-6.5 hr and drying temperature: 30-70 °C) at five levels each was used for pears processing. During DIS, the variables: immersion time, temperature and concentration of sucrose solution had a significant effect (p<0.01) in the loss of water, the solid gain and the quality attributes of pears. The losses in AA are higher than those in TP and are essentially due to the oxidation and the leaching with water. During the convective drying, the losses in TP and in AA depend more on the time of the process rather than the temperature of exposition. They reach respectively 80% and 34% after 10 h of drying at 30 °C. The color change of pear depends on the time and temperature of treatment and is more pronounced at the end of drying. Predictive and quadratic models were suggested to link the responses variables (aw, total colour difference, TP loss and total time treatment) to operational parameters of both studied processes. The losses in AA decrease linearly with the duration of DIS. A multicriteria optimization using response surface methodology (RSM) was proposed (minimal losses in TP and in AA, reduced total processing time and total difference in colour and an aw inferior to 0.6) for the combination DIS/convective drying. The optimal conditions are: osmotic solution at 28°C and 25°Brix, a DIS lasting 30 min and a convective drying at 60 °C. Otherwise, the temperature effects (30, 45 and 60 °C) and the sucrose impregnation by DIS (10 and 65 min, 70°Brix, 30 °C) upon the desorption isotherms and the transition temperature (Tg) of pears, apples and apricots were determined. The sucrose impregnation diminishes the influence of temperature on its sorption ability. It generates a depressing effect on water activity and a rise of pear hygroscopicity, apple and apricot at a high temperature. The desorption isotherms of fresh and sucrose impregnated apricot present a crossing of curves which mark the inverse of the effect of temperature on isotherms. The Tg depends on the temperature, the sucrose content and the fruit water content (X). For constant water content, the rise of temperature and of the duration de DIS result in the increase of Tg. The phase diagrams (Tg=f(X) et Tg=f(aw)) of fruits were established at 30, 45 and 60°C and the critical water content as well as the critical water activities were determined. Water content at the end of drying inferior or equal to 0.02 g/g d.b. is recommended to obtain stable fruit pieces at microbiological, physiochemical and rheological levels.
4

Développement d’outils prédictifs de la teneur en composés sensibles à l’oxydation au cours de la conservation dans les matrices nutritionnelles / Development of predictive tools for the content of oxidation-sensitive compounds during storage in nutritional matrices

Yessaad, Mouloud 12 December 2018 (has links)
Lors de leur conservation, les principes actifs (médicaments, nutriments) peuvent être sujets à une dégradation susceptible de modifier leurs propriétés initiales et les rendre non disponibles. Aussi, les industriels et les pharmaciens hospitaliers réalisant des préparations pharmaceutiques et/ou des compléments alimentaires ont-ils la nécessité de réaliser des études de stabilité. Ces études sont longues et coûteuses car elles doivent tenir compte de tous les paramètres environnementaux susceptibles d’influencer la stabilité du principe actif, de la matrice et du conditionnement. L’objectif de cette thèse consiste à développer un outil qui permet d’estimer les taux de dégradation des vitamines et de se projeter sur la durée de vie de principes actifs nutritionnels en se basant sur l’utilisation des modèles de calcul intégrant à la fois les caractéristiques des produits, matrice et des conditions de conservation. Le projet s’est déroulé en plusieurs phases en ciblant les vitamines hydrosolubles. Tout d’abord, un développement et validation d’une méthode de dosage chromatographique qui permet de quantifier toutes les vitamines en une seule analyse sans interférence avec les éventuels produits de dégradation. Une étude de l’influence des paramètres les plus importants a été réalisée via un plan d’expériences. Les cinétiques de dégradation ont été étudiées et modélisées en plusieurs approches. A partir du modèle le plus adapté, un premier niveau de simulation a été conçu permettant de déterminer les facteurs d’influence pertinents dans la dégradation des vitamines au regard des données exploitables. Le livrable, le calculateur, devrait ainsi permettre de guider les utilisateurs industriels et hospitaliers dans le choix des conditions d’étude de vieillissement accéléré. / When stored, the active ingredients (drugs, nutrients) may be subject to degradation that may change their original properties and make them unavailable. In addition, manufacturers and hospital pharmacists carrying out pharmaceutical preparations and / or dietary supplements have the need to carry out stability studies. These studies are long and costly because they must consider all the environmental parameters likely to influence the stability of the active principle, the matrix and the packaging. The aim of this thesis is to develop a tool that allows to estimate the degradation rates of vitamins and to project on the life span of nutritional active principles based on the use of computational models integrating at the same time product characteristics, matrix and storage conditions. The project took place in several phases targeting the water-soluble vitamins. First, a development and validation of a chromatographic assay method that quantifies all vitamins in a single analysis without interference with any degradation products. A study of the influence of the most important parameters was carried out with a design of experiments. The kinetics of degradation have been studied and modeled in several approaches. From the most appropriate model, a first simulation level was designed to determine the relevant influencing factors in the degradation of vitamins in terms of exploitable data. The deliverable, the calculator, should thus help guide industrial and hospital users in the choice of accelerated aging study conditions.
5

Influence de la variabilité spatiale des paramètres thermodynamiques et de cinétique chimique sur la précipitation des minéraux carbonatés en milieu poreux (stockage minéral du CO2) / Influence of the spatial variability of the thermodynamic and chemical kinetics parameters on the precipitation of carbonate minerals in porous media (CO2 mineral storage)

Raveloson, Joharivola 27 June 2014 (has links)
Ce travail entre dans le cadre de l’étude des interactions eau-roche dans le cas du stockage du CO2 en milieu géologique. Un intérêt particulier est accordé aux hétérogénéités des paramètres associés aux phénomènes géochimiques. Ces hétérogénéités peuvent s’observer à différentes échelles: celle des grains (les minéraux présentent des défauts de cristallinité et des impuretés), et l’échelle centimétrique/pluri-décamétrique. En particulier, les paramètres thermodynamiques (logK) et de cinétique chimique (dans ce travail nous avons considéré le produit de la constante cinétique k par la surface spécifique S soit kS comme "paramètre de cinétique chimique") sont connus à partir des expériences de laboratoire pour des échantillons de quelques centimètres de dimension, alors que l’on s’intéresse aux réactions minéralogiques à l’échelle des réservoirs.Nous avons évalué les caractéristiques géostatistiques de la variabilité spatiale après réaction à travers des simulations de transport réactif dans lesquelles différents paramètres (logK et kS) sont perturbés avec une première variabilité imposée. Une combinaison de deux approches est ainsi abordée : déterministe et géostatistique. Le code du transport-réactif COORES (IFP-EN et Ecole nationale supérieure des mines de Saint-Etienne) a été utilisé pour les simulations déterministes et le système géochimique étudié concerne la dissolution du diopside avec précipitation de minéraux secondaires comme la calcite et la magnésite.Après analyse par la méthode des plans d’expériences, les résultats montrent qu’une corrélation spatiale élevée combinée avec une grande variance de dispersion des minéraux favorise une réactivité importante des minéraux lorsqu’on perturbe le paramètre de cinétique chimique kS. Par ailleurs une vitesse d’injection élevée accélère le processus de dissolution du minéral étudié. La variabilité spatiale du paramètre thermodynamique n’a cependant pas d’effet significatif sur les résultats, le système se comporte comme dans le cas homogène. Du point de vue de l’homogénéisation du paramètre kS, on retrouve l’influence de l’historique de dissolution. / The present work is based on the study of water-rock interactions in the case of CO2 storage in geological media. Particular attention is devoted to heterogeneities at different observation scales geochemical phenomena. These heterogeneities can be observed at different scales: the grain (mineral crystallinity present defects and impurities), and the centimeter scale / multi- decametric (rocks are heterogeneous at different scales). In particular, the thermodynamic parameters logK and chemical kinetics kS (in this work we considered the product of the rate constant k by the specific surface area S is kS as "chemical kinetics parameter") are known from laboratory experiments to a few centimeters in size, while we are interested in mineralogical reactions across tanks.We propose to evaluate the geostatistical characteristics of the local variability after reaction through simulations of reactive transport on a small scale in which various parameters (logK and kS) are perturbed with a first spatial variability imposed. A combination of both approaches is discussed: deterministic and geostatistical for the study of geochemical problems at different scales. The reactive transport code - COORES (IFP - EN and Ecole nationale supérieure des mines de Saint -Etienne) was used for deterministic simulations and the geochemical system studied concerns the dissolution of diopside with precipitation of secondary minerals such as calcite and magnesite.After analysis by the method of design of experiments, the results show that high spatial correlation variance combined with high dispersion of minerals promotes a high reactivity when minerals chemically disturbing is the kinetic parameter kS. In addition, a high velocity injection accelerates the dissolution of the mineral studied. However, the effect of spatial variability of the thermodynamic parameter, did not significantly affect the results, the system behaves as in the homogeneous case. From the standpoint of homogenizing the parameter kS, include the influence of the history of dissolution.
6

Filage par voie électrostatique de polyamide-imide : applications de non-tissés nanofilamentaires à la protection contre la chaleur et les flammes / Electrospinning of meta-aramid polymer solutions (polyamide-imide) : nanofibrous non-woven applications for protection against heat and flame

Oertel, Aurélie 03 May 2017 (has links)
Le filage par voie électrostatique est une technique utilisée pour la production de fibres de diamètres extrêmement petits, de l’ordre de quelques centaines de nanomètres, possédant, sous forme de non-tissés, une grande surface spécifique. Les matériaux non-tissés composés de nanofibres sont de plus en plus utilisés pour de multiples applications, notamment dans le domaine de l’ingénierie tissulaire, pour les textiles de protection, la filtration, le biomédical, l’électronique et l’ingénierie environnementale. Le contrôle des paramètres lors du filage par voie électrostatique est primordial pour obtenir des nanofibres dont les propriétés morphologiques seront optimisées (diamètres des nanofilaments obtenus fins et contrôlés ; qualité de filage acceptable). Le but de ces travaux de thèse est d’établir la faisabilité d’électrofilage des deux solutions de polyamide-imide (le KMP et le KMT) fournies par la société Kermel. Puis, une fois la faisabilité de filage établie, de déterminer plus précisément les paramètres influençant le procédé, afin d’optimiser le procédé de filage et obtenir des nanofilaments à partir des deux solutions de polymères, à l’échelle laboratoire et sur un outil de production à l’échelle semi-industrielle. Cette thèse a fait l’objet d’une collaboration entre l'entreprise alsacienne Kermel, fabricant de fibres techniques résistantes à la chaleur et aux flammes, situé à Colmar et le Laboratoire de Physique et Mécanique Textiles (LPMT) à Mulhouse. Les nanofibres ont été définies ainsi que différentes techniques de filage permettant leur obtention. Les fournisseurs d’équipement ont été identifiés dans un souci de production semi-industrielle à terme. La technique de filage par voie électrostatique (avec ou sans aiguilles) est finalement retenue, car il s’agit de l’outil de prototypage et de compétences disponibles au laboratoire LPMT et dont le passage à l’échelle industrielle est envisageable. La technique des plans d’expériences a été utilisée afin d’optimiser le nombre d’essais de filage nécessaires à l‘étude des diamètres de nanofilaments obtenus. Les différents paramètres liés aux propriétés de la solution de polymère (température, viscosité, concentration) ont été étudiés et les aspects rhéologiques affichés. Une interprétation physico-chimique des comportements observés pour les différentes solutions de polymère est faite. Elle nous permet de conclure que le meilleur régime pour obtenir des nanofibres est le régime concentré, puisqu’il s’agit du régime où la densité de macromolécules est la plus forte. La faisabilité de l’électrofilage du polyamide-imide sur l’équipement à échelle laboratoire du LPMT a été établie. La température, l’humidité et la concentration sont étudiées. Les différentes plages d’optimisation d’électrofilage du polymère considéré ont été établies et il est possible d’envisager le passage à l’échelle semi-industrielle. Le paramètre le plus influent sur les diamètres de fibres obtenus est l’humidité relative, ce qui n’avait jusqu’à présent jamais été mis en avant dans la littérature. La même démarche d’optimisation a été réalisée sur l’équipement semi-industriel. Des applications « produit » ont pu être envisagées. Notamment une application liée à la filtration où une étude de perméabilité à l’air a été réalisée. Cette étude a permis de conclure que l’ajout d’une couche de nanofibres sur un support en tissu permet de diminuer d’1/3 à 2/3 les résultats de perméabilité à l’air. Une corrélation est faite entre les diamètres de nanofibres et les résultats de perméabilité à l’air obtenus, qui est cohérente avec le comportement attendu. Enfin des tests « qualité » ont été réalisés sur des échantillons produits : le taux de solvant résiduel obtenu dans les conditions de filage optimisées est inférieur à 8% ; et des tests de résistance à l’abrasion menés sur des non-tissés recouverts de nanofibres ont donné des résultats encourageant [...] / Electrospinning process has been widely used over the past decades for manufacturing nanofibers. The control of the electrospinning parameters is crucial to obtain nanofibers (nonwoven mats) with optimized morphological properties. The aim of this PhD work is to precisely define the electrospinnability of two meta-aramid solutions through wire-based electrospinning setup processing. Although the viscosity of polymer solution as an influent parameter for electrospinning has been widely investigated, only a few studies have yet made a connection between rheological behavior of polymer and electrospinnability. In our PhD work, rheological analyzes on three meta-aramid solutions have been conducted to confirm its electrospinnability and predict the morphological behavior of resultant nanofibers. A couple polymer/solvent of meta-aramid polymer (polyamide-imide) in a polar aprotic solvent (1,3 dimethyl-2-imidazolidinone) at 60 Pa.s in working viscosity is provided by an industrial partner (KERMEL Company). It has been highlighted through rheological study that 60 Pa.s is the best polymer viscosity to obtain good macromolecular conformation of the polyamide-imide chains while electrospinning and sufficient viscoelastic properties. Experiments have been conducted following a design of experiment to study the influence of several process and ambient parameters. Individual effects and/or combined interactions on obtained fiber diameter and general morphology have been investigated. The obtained nanofibers are expected to have thin diameters with high homogeneity of the products, which means low levels of beads, residual solvent or non-fibrous area and a narrow fiber diameter distribution, in order to validate the industrial requirements. A wide range of process parameters are available at industrial-scale with the NS® technology. The five studied process parameters are: applied voltage, relative humidity, temperature, distance between spinning electrode wire and substrate material, and airflow going through the spinning chamber. Each parameter was varied at three levels. Significant effects of parameters have been observed. The obtained results have allowed us to determine the influential factors (humidity and temperature) and reduce the domain study. Moreover, an estimation of the capacity of production for the NS500 has been calculated for the tested meta-aramid solution. Several applications have been investigated. A nanofibrous coating on 50KMP/50VFR woven media has been produced and permeability air tests have been conducted. A decrease of 1/3 to 2/3 of air permeability results has been obtained. A correlation is drawn between mean diameters of nanofibers and air permeability values, which is coherent with the expected behavior. Quality tests have been conducted through thermogravimetric analyses and proton nuclear magnetic resonance. The residual solvent rate obtained in the optimized conditions of spinning is less than 8 %. Abrasion resistance tests have been conducted on KMP non-woven media coated with nanofibrous layer. The use of the bi-layer structure does not lead to the formation of breathable particles.
7

Traitement de surface par texturation laser : une alternative "propre" de préparation de surface pour la projection thermique / Laser process for surface texturing treatment en alternative "clean" surface preparation for thermal spraying process

Lamraoui, Amina 16 December 2011 (has links)
La préparation de surface avant projection thermique est une étape très importante pourl’adhérence des revêtements. Conventionnellement, le dégraissage et le sablage sont les deuxprocédés utilisés pour ce type de préparation, mais l'impact environnemental important de cesprocédés conventionnels, ainsi que les couts désormais associés, et la modification despropriétés des matériaux ductiles ont mené au développement de nouvelles méthodes.Le procédé de texturation par laser est alors apparu comme une alternative intéressante et"propre" à la technique conventionnelle. Ce procédé permet la préparation de la surface parablation de la matière jusqu’à création de microcavités de forme conique à la surface dusubstrat. Cette texturation permet alors d’augmenter la surface de contact entre le matériau etle revêtement et de mieux ancrer mécaniquement le dépôt. Ce procédé permet également letraitement de la surface dans un temps très court, et surtout il n’engendre aucun déchet dansl’environnement.L’approche suivie dans cette étude, a permis de caractériser les effets de chaque paramètreopératoire du laser à travers un protocole d’optimisation par plan d’expériences. La démarcheconsiste, tout d’abord à apprécier le niveau de modifications morphologiques de la surface dusubstrat, ainsi que l’effet thermique induit par l’irradiation laser avant d'évaluer lesperformances des texturations réalisées en termes adhérence et de ténacité d'interface. Cetteapproche a pour objectif de définir les conditions opératoires qui proposent la meilleureadhérence du revêtement et a permis d'atteindre des niveaux supérieurs à ceux proposés parle procédé conventionnel.Enfin, l’analyse de l’impact environnemental du procédé de traitement de surface partexturation laser permet de définir le niveau de respect de l’environnement, de la santé ainsique l’écosystème du procédé en comparaison au procédé conventionnel. / The surface preparation before thermal spraying is a very important step for coating adhesion.Conventionally, degreasing and sandblasting are the two processes used for this surfacepretreatment, but the significant environmental impact of these conventional methods, theircosts and the possible modification of the properties of ductile materials lead to thedevelopment of new methods.The laser texturing process appears as an attractive and "clean" alternative to the conventionaltechnique. The method allows the surface preparation by ablation of material to create microcavities with a conical shape at the surface of the substrate. This texturing process willincrease the surface of contact between the substrate surface and the coating and lead to abetter mechanical anchoring of the coating. This process also allows the pretreatment of thesurface in a very short time without generating any waste.The approach followed in this study aims at characterizing the effects of each operatingparameter of the laser through a optimization protocol by experimental design strategy. Theapproach consists in assessing the level of modifications of surface substrate morphology aswell as the thermal effect induced by laser irradiation before evaluating the performance oftexturing by carrying out tenacity and interface adhesion tests. This approach aims atdetermining the operating conditions that provide the best adhesion of the coating and allowto reach adherence levels higher than those proposed by the conventional methods.Finally, analysis of the environmental impacts of the laser texturing pretraitment process isused to define its effect on the environment, health and ecosystem in comparison with theconventional methods.
8

Modélisation du processus de polissage : identification des effets et des phénoménologies induits par l'usinage abrasif / Modelling of the polishing process : identification of the induced effects and the phenomenology of the abrasive material removal

Goossens, François 30 November 2015 (has links)
Le polissage est un procédé d’usinage par abrasion qui vise à établir une micro-géométrieprécise sur les surfaces de solides. Pour introduire les spécificités de ce procédé, un tourd’horizon sur l’usinage par abrasion est proposé. Il en découle les paramètres pouvantcaractériser une opération de polissage. Les études scientifiques existantes sont synthétisées etanalysés au regard des objectifs poursuivis. De manière à faire émerger une méthodologiepour établir des modèles et des bases de données dédiées au polissage, un banc expérimental aété mis en place et des essais ont été menés sur une tôle en inox 316L avec un abrasifstructuré de forme pyramidale. Une méthode de mesure de l’usure des pyramides abrasives aété mise au point. Les premiers essais ont mis en évidence la nécessité pour les grains abrasifsd’exercer sur la matière une pression supérieure à une valeur minimale. Un modèle deconsommation matière issu de la loi de Preston a été présenté et validé par des essais. L’étudepar des plans d’expériences factoriels complets des efforts induits, de la rugosité au traversdes critères proposés par la norme ISO et de la mouillabilité a permis de mettre en évidencel’influence prépondérante de la taille des grains abrasifs. Par contre, la pression exercée parles grains, leur vitesse de défilement et le taux d’usure des pyramides abrasives n’ont qu’unrôle secondaire sur ces critères. Ces résultats constituent de précieuses indications pour lesbureaux des méthodes devant établir des gammes de polissage. / The polishing is a process of manufacturing by abrasion which aims at establishing a precisemicro-geometry on the surfaces of solids. To introduce the specificities of this process, anoverview on the manufacturing by abrasion is proposed. As a result, the parameters which cancharacterize an operation of polishing are identified. The existing scientific studies aresynthesized and analysed with regard to the pursued objectives. For the testing, an experimenttest bench was developed. The proposed methodology is applied on the polishing process ofthe AISI 316L using pyramidal abrasive belts. A measurement method of the abrasivepyramids wear is finalized. A method of measuring the abrasive pyramids wear is provided. Aremoving material rate model based on the Preston's law is presented and experimentallyvalidated. A study based on the design of experiment is conducted using as output the cuttingforces, the roughness and the wettability criteria. The results point out the dominatinginfluence of the size of the abrasive grains. On the other hand, the study indicates the fact thatthe applied pressure on the abrasive grains, the belt speed and the abrasive level do not playan important role on the previously cited characteristics. On the other hand, the studyhighlights that the applied pressure on the abrasive grains, the belt speed and the abrasivelevel do not have a significant effect on the previously cited characteristics. These resultsconstitute valuable indications for the industrial polishing process optimization.
9

Design et développement d'un capteur acoustique imprimé. / Design and development of printed acoustic sensor

Haque, Rubaiyet Iftekharul 20 October 2015 (has links)
L’objectif de ce travail était de concevoir et réaliser par impression un capteur acoustique capacitif résonant bas coût. Il s’inscrit dans le cadre d’un projet collaboratif de recherche intitulé « Spinnaker », défini par la société Tagsys RFID qui souhaite intégrer ce capteur afin d’améliorer la géolocalisation des étiquettes RFID. Ce travail a débuté par la conception et l’optimisation du design en utilisant la simulation par éléments finis (COMSOL) ainsi que des plans d’expériences (DOE : Design of Experiment). Cette première étape a permis de déterminer les paramètres optimaux et démontrer que les performances obtenues étaient conformes aux spécifications. Nous avons ensuite développé les différentes briques technologiques nécessaires à la réalisation des prototypes en utilisant conjointement l’impression 2D par inkjet et l’impression 3D. Nous avons vérifié la fonctionnalité de ces capteurs à l’aide de mesures électriques capacitives et acoustiques par vibrométrie laser. Nous avons démontré la sélectivité en fréquence des capteurs réalisés et comparé les résultats expérimentaux à ceux obtenus par simulation. Enfin, nous avons enfin exploré la « voie piezoélectrique » qui nous semble être une alternative intéressante au principe capacitif. En l’absence d’encre piézoélectrique commerciale imprimable par jet de matière, nous avons formulé une encre imprimable à base du co-polymère PVDF-TrFE et démontré le caractère piézoélectrique des couches imprimées. Les résultats sont prometteurs mais des améliorations doivent encore être apportées à cette encre et au procédé d’impression avant de pouvoir fabriquer des premiers prototypes. / The objective of this work was to design and fabricate a low cost resonant capacitive acoustic sensor using printing techniques. It falls within the frame of a collaborative research project named “Spinnaker”, set up by TAGSYS RFID, a French company, which has planned to integrate this sensor to improve the geolocalization of their RFID tags. This work started with the design and optimization of the sensor using finite element modeling (COMSOL) and design of experiments (DOE). This first step has enabled the identification of the optimum set of parameters and demonstrated that the output responses were in accordance with the specifications. Then, we have developed the different technological building blocks required for the fabrication of the prototypes using jointly the 2D inkjet printing technique and 3D printing method. The functionality of the sensors has been characterized using both capacitive and acoustic measurements using laser Doppler vibrometer. Experimental results showed that sensitivity and selectivity were within the specifications and in good agreement with the modeling results. Finally, we investigated the piezoelectric approach which could be an interesting option to the capacitive one. Since no inkjet printable piezoelectric ink is commercially available, stable inkjet printable polyvinylidene fluoride-trifluoroethylene (PVDF-TrFE) ink has been developed. PVDF-TrFE layers were then successfully printed and characterized. The results were quite promising, however further improvements of the ink and printing process are required before stepping towards piezoelectric based device fabrication.
10

Métamodèles adaptatifs pour l'optimisation fiable multi-prestations de la masse de véhicules / Adaptive surrogate models for the reliable lightweight design of automotive body structures

Moustapha, Maliki 27 January 2016 (has links)
Cette thèse s’inscrit dans le cadre des travaux menés par PSA Peugeot Citroën pour l’allègement de ses véhicules. Les optimisations masse multi-prestations réalisées sur le périmètre de la structure contribuent directement à cette démarche en recherchant une allocation d’épaisseurs de tôles à masse minimale qui respectent des spécifications physiques relatives à différentes prestations (choc, vibro-acoustique, etc.). Ces spécifications sont généralement évaluées à travers des modèles numériques à très haute-fidélité qui présentent des temps de restitution particulièrement élevés. Le recours à des fonctions de substitution, connues sous le nom de métamodèles, reste alors la seule alternative pour mener une étude d’optimisation tout en respectant les délais projet. Cependant la prestation qui nous intéresse, à savoir le choc frontal, présente quelques particularités (grande dimensionnalité, fortes non-linéarités, dispersions physique et numérique) qui rendent sa métamodélisation difficile.L’objectif de la thèse est alors de proposer une approche d’optimisation basée sur des métamodèles adaptatifs afin de dégager de nouveaux gains de masse. Cela passe par la prise en compte du choc frontal dont le caractère chaotique est exacerbé par la présence d’incertitudes. Nous proposons ainsi une méthode d’optimisation fiabiliste avec l’introduction de quantiles comme mesure de conservatisme. L’approche est basée sur des modèles de krigeage avec enrichissement adaptatif afin de réduire au mieux le nombre d’appels aux modèles éléments finis. Une application sur un véhicule complet permet de valider la méthode. / One of the most challenging tasks in modern engineering is that of keeping the cost of manufactured goods small. With the advent of computational design, prototyping for instance, a major source of expenses, is reduced to its bare essentials. In fact, through the use of high-fidelity models, engineers can predict the behaviors of the systems they design quite faithfully. To be fully realistic, such models must embed uncertainties that may affect the physical properties or operating conditions of the system. This PhD thesis deals with the constrained optimization of structures under uncertainties in the context of automotive design. The constraints are assessed through expensive finite element models. For practical purposes, such models are conveniently substituted by so-called surrogate models which stand as cheap and easy-to-evaluate proxies. In this PhD thesis, Gaussian process modeling and support vector machines are considered. Upon reviewing state-of-the-art techniques for optimization under uncertainties, we propose a novel formulation for reliability-based design optimization which relies on quantiles. The formal equivalence of this formulation with the traditional ones is proved. This approach is then coupled to surrogate modeling. Kriging is considered thanks to its built-in error estimate which makes it convenient to adaptive sampling strategies. Such an approach allows us to reduce the computational budget by running the true model only in regions that are of interest to optimization. We therefore propose a two-stage enrichment scheme. The first stage is aimed at globally reducing the Kriging epistemic uncertainty in the vicinity of the limit-state surface. The second one is performed within iterations of optimization so as to locally improve the quantile accuracy. The efficiency of this approach is demonstrated through comparison with benchmark results. An industrial application featuring a car under frontal impact is considered. The crash behavior of a car is indeed particularly affected by uncertainties. The proposed approach therefore allows us to find a reliable solution within a reduced number of calls to the true finite element model. For the extreme case where uncertainties trigger various crash scenarios of the car, it is proposed to rely on support vector machines for classification so as to predict the possible scenarios before metamodeling each of them separately.

Page generated in 0.4758 seconds