Spelling suggestions: "subject:"design off experiments"" "subject:"design oof experiments""
411 |
Quality by Design through multivariate latent structuresPalací López, Daniel Gonzalo 14 January 2019 (has links)
La presente tesis doctoral surge ante la necesidad creciente por parte de la mayoría de empresas, y en especial (pero no únicamente) aquellas dentro de los sectores farmacéu-tico, químico, alimentación y bioprocesos, de aumentar la flexibilidad en su rango ope-rativo para reducir los costes de fabricación, manteniendo o mejorando la calidad del producto final obtenido. Para ello, esta tesis se centra en la aplicación de los conceptos del Quality by Design para la aplicación y extensión de distintas metodologías ya exis-tentes y el desarrollo de nuevos algoritmos que permitan la implementación de herra-mientas adecuadas para el diseño de experimentos, el análisis multivariante de datos y la optimización de procesos en el ámbito del diseño de mezclas, pero sin limitarse ex-clusivamente a este tipo de problemas.
Parte I - Prefacio, donde se presenta un resumen del trabajo de investigación realiza-do y los objetivos principales que pretende abordar y su justificación, así como una introducción a los conceptos más importantes relativos a los temas tratados en partes posteriores de la tesis, tales como el diseño de experimentos o diversas herramientas estadísticas de análisis multivariado.
Parte II - Optimización en el diseño de mezclas, donde se lleva a cabo una recapitu-lación de las diversas herramientas existentes para el diseño de experimentos y análisis de datos por medios tradicionales relativos al diseño de mezclas, así como de algunas herramientas basadas en variables latentes, tales como la Regresión en Mínimos Cua-drados Parciales (PLS). En esta parte de la tesis también se propone una extensión del PLS basada en kernels para el análisis de datos de diseños de mezclas, y se hace una comparativa de las distintas metodologías presentadas. Finalmente, se incluye una breve presentación del programa MiDAs, desarrollado con la finalidad de ofrecer a sus usuarios la posibilidad de comparar de forma sencilla diversas metodologías para el diseño de experimentos y análisis de datos para problemas de mezclas.
Parte III - Espacio de diseño y optimización a través del espacio latente, donde se aborda el problema fundamental dentro de la filosofía del Quality by Design asociado a la definición del llamado 'espacio de diseño', que comprendería todo el conjunto de posibles combinaciones de condiciones de proceso, materias primas, etc. que garanti-zan la obtención de un producto con la calidad deseada. En esta parte también se trata el problema de la definición del problema de optimización como herramienta para la mejora de la calidad, pero también para la exploración y flexibilización de los procesos productivos, con el objeto de definir un procedimiento eficiente y robusto de optimiza-ción que se adapte a los diversos problemas que exigen recurrir a dicha optimización.
Parte IV - Epílogo, donde se presentan las conclusiones finales, la consecución de objetivos y posibles líneas futuras de investigación. En esta parte se incluyen además los anexos. / Aquesta tesi doctoral sorgeix davant la necessitat creixent per part de la majoria d'em-preses, i especialment (però no únicament) d'aquelles dins dels sectors farmacèutic, químic, alimentari i de bioprocessos, d'augmentar la flexibilitat en el seu rang operatiu per tal de reduir els costos de fabricació, mantenint o millorant la qualitat del producte final obtingut. La tesi se centra en l'aplicació dels conceptes del Quality by Design per a l'aplicació i extensió de diferents metodologies ja existents i el desenvolupament de nous algorismes que permeten la implementació d'eines adequades per al disseny d'ex-periments, l'anàlisi multivariada de dades i l'optimització de processos en l'àmbit del disseny de mescles, però sense limitar-se exclusivament a aquest tipus de problemes.
Part I- Prefaci, en què es presenta un resum del treball de recerca realitzat i els objec-tius principals que pretén abordar i la seua justificació, així com una introducció als conceptes més importants relatius als temes tractats en parts posteriors de la tesi, com ara el disseny d'experiments o diverses eines estadístiques d'anàlisi multivariada.
Part II - Optimització en el disseny de mescles, on es duu a terme una recapitulació de les diverses eines existents per al disseny d'experiments i anàlisi de dades per mit-jans tradicionals relatius al disseny de mescles, així com d'algunes eines basades en variables latents, tals com la Regressió en Mínims Quadrats Parcials (PLS). En aquesta part de la tesi també es proposa una extensió del PLS basada en kernels per a l'anàlisi de dades de dissenys de mescles, i es fa una comparativa de les diferents metodologies presentades. Finalment, s'inclou una breu presentació del programari MiDAs, que ofe-reix la possibilitat als usuaris de comparar de forma senzilla diverses metodologies per al disseny d'experiments i l'anàlisi de dades per a problemes de mescles.
Part III- Espai de disseny i optimització a través de l'espai latent, on s'aborda el problema fonamental dins de la filosofia del Quality by Design associat a la definició de l'anomenat 'espai de disseny', que comprendria tot el conjunt de possibles combina-cions de condicions de procés, matèries primeres, etc. que garanteixen l'obtenció d'un producte amb la qualitat desitjada. En aquesta part també es tracta el problema de la definició del problema d'optimització com a eina per a la millora de la qualitat, però també per a l'exploració i flexibilització dels processos productius, amb l'objecte de definir un procediment eficient i robust d'optimització que s'adapti als diversos pro-blemes que exigeixen recórrer a aquesta optimització.
Part IV- Epíleg, on es presenten les conclusions finals i la consecució d'objectius i es plantegen possibles línies futures de recerca arran dels resultats de la tesi. En aquesta part s'inclouen a més els annexos. / The present Ph.D. thesis is motivated by the growing need in most companies, and specially (but not solely) those in the pharmaceutical, chemical, food and bioprocess fields, to increase the flexibility in their operating conditions in order to reduce production costs while maintaining or even improving the quality of their products. To this end, this thesis focuses on the application of the concepts of the Quality by Design for the exploitation and development of already existing methodologies, and the development of new algorithms aimed at the proper implementation of tools for the design of experiments, multivariate data analysis and process optimization, specially (but not only) in the context of mixture design.
Part I - Preface, where a summary of the research work done, the main goals it aimed at and their justification, are presented. Some of the most relevant concepts related to the developed work in subsequent chapters are also introduced, such as those regarding design of experiments or latent variable-based multivariate data analysis techniques.
Part II - Mixture design optimization, in which a review of existing mixture design tools for the design of experiments and data analysis via traditional approaches, as well as some latent variable-based techniques, such as Partial Least Squares (PLS), is provided. A kernel-based extension of PLS for mixture design data analysis is also proposed, and the different available methods are compared to each other. Finally, a brief presentation of the software MiDAs is done. MiDAs has been developed in order to provide users with a tool to easily approach mixture design problems for the construction of Designs of Experiments and data analysis with different methods and compare them.
Part III - Design Space and optimization through the latent space, where one of the fundamental issues within the Quality by Design philosophy, the definition of the so-called 'design space' (i.e. the subspace comprised by all possible combinations of process operating conditions, raw materials, etc. that guarantee obtaining a product meeting a required quality standard), is addressed. The problem of properly defining the optimization problem is also tackled, not only as a tool for quality improvement but also when it is to be used for exploration of process flexibilisation purposes, in order to establish an efficient and robust optimization method in accordance with the nature of the different problems that may require such optimization to be resorted to.
Part IV - Epilogue, where final conclusions are drawn, future perspectives suggested, and annexes are included. / Palací López, DG. (2018). Quality by Design through multivariate latent structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/115489
|
412 |
Modeling and Optimization of Electrode Configurations for Piezoelectric MaterialSchulze, Veronika 30 October 2023 (has links)
Piezoelektrika haben ein breit gefächertes Anwendungsspektrum in Industrie, Alltag und Forschung. Dies erfordert ein genaues Wissen über das Materialverhalten der betrachteten piezoelektrischen Elemente, was mit dem Lösen von simulationsgestützten inversen Parameteridentifikationsproblemen einhergeht. Die vorliegende Arbeit befasst sich mit der optimalen Versuchsplanung (OED) für dieses Problem. Piezoelektrische Materialien weisen die Eigenschaft auf, sich als Reaktion auf angelegte Potentiale oder Kräfte mechanisch oder elektrisch zu verändern (direkter und indirekter piezoelektrischer Effekt). Um eine Spannung anzulegen und den indirekten piezoelektrischen Effekt auszunutzen, werden Elektroden aufgebracht, deren Konfiguration einen erheblichen Einfluss auf mögliche Systemantworten hat. Daher werden das Potential, die Anzahl und die Größe der Elektroden zunächst im zweidimensionalen Fall optimiert. Das piezoelektrische Verhalten basiert im betrachteten Kleinsignalbereich auf zeitabhängigen, linearen partiellen Differentialgleichungen. Die Herleitung sowie Existenz und Eindeutigkeit der
Lösungen werden gezeigt. Zur Berechnung der elektrischen Ladung und der Impedanz, die für das Materialidentifikationsproblem und damit für die Versuchsplanung relevant sind, werden zeit- und frequenzabhängige Simulationen auf Basis der Finite Elemente Methode (FEM) mit dem FEM Simulationstool FEniCS durchgeführt. Es wird auf Nachteile bei der Berechnung der Ableitungen eingegangen und erste adjungierte Gleichungen formuliert. Die Modellierung des Problems der optimalen Versuchsplanung erfolgt hauptsächlich durch die Kontrolle des Potentials der Dirichlet Randbedingungen des Randwertproblems. Anhand mehrerer numerischer Beispiele werden die resultierenden Konfigurationen gezeigt. Weitere Ansätze zur Elektrodenmodellierung, z.B. durch Kontrolle der Materialeigenschaften, werden ebenfalls vorgestellt. Schließlich wird auf mögliche Erweiterungen des
vorgestellten OED Problems hingewiesen. / Piezoelectrics have a wide range of applications in industry, everyday life and research.
This requires an accurate knowledge of the material behavior, which implies the solution of
simulation-based inverse identification problems. This thesis focuses on the optimal design
of experiments addressing this problem.
Piezoelectric materials exhibit the property of mechanical or electrical changes in response
to applied potentials or forces (direct and indirect piezoelectric effect). To apply voltage
and to exploit the indirect piezoelectric effect, electrodes are attached whose configura-
tion have a significant influence on possible system responses. Therefore, the potential,
the number and the size of the electrodes are initially optimized in the two-dimensional
case. The piezoelectric behavior in the considered small signal range is based on a time
dependent linear partial differential equation system. The derivation as well as the exis-
tence, uniqueness and regularity of the solutions of the equations are shown. Time- and
frequency-dependent simulations based on the finite element method (FEM) with the FEM
simulation tool FEniCS are performed to calculate the electric charge and the impedance,
which are relevant for the material identification problem and thus for the experimental
design. Drawbacks in the derivative calculations are pointed out and a first set of adjoint
equations is formulated. The modeling of the optimal experimental design (OED) prob-
lem is done mainly by controlling the potential of the Dirichlet boundary conditions of
the boundary value problem. Several numerical examples are used to show the resulting
configurations and to address the difficulties encountered. Further electrode modeling ap-
proaches for example by controlling the material properties are then discussed. Finally,
possible extensions of the presented OED problem are pointed out.
|
413 |
Entwicklung eines miniaturisierten Fluoreszenzsensors basierend auf molekular geprägten Polymeren / Development of a miniaturized fluorescence sensor based on molecularly imprinted polymersKunath, Stephanie 03 June 2013 (has links) (PDF)
Die vorliegende Arbeit befasst sich mit der Entwicklung von Biosensoren mit dem Ziel, mit Hilfe der Kopplung molekular geprägter Polymere (MIPs) als neuartiges Rezeptormaterial und dem sensitiven Nachweisprinzip der Fluoreszenz eine neue Qualität des Analytnachweises zu erreichen. Es wurde eine neue Strategie zur Optimierung der Bindungseigenschaften von molekular geprägten Polymeren in wässrigen Lösungsmitteln entwickelt, die die Kopplung aus Design of Experiments und der Optimierung multipler Zielgrößen umfasst. Damit konnten die Polymerbindungseigenschaften für alle vier betrachteten Parameter wesentlich verbessert werden. Mit Hilfe stationärer und zeitaufgelöster Fluoreszenztechniken wurde die Aufklärung der Wechselwirkung zwischen MIP und Analyt auf molekularer Ebene sowie die Charakterisierung einer neuen Nachweisstrategie basierend auf einen Förster-Resonanzenergietransfer-Mechanismus realisiert.
Es wurde ferner ein MIP-Sensor für biologische Proben mit mikrofluidischer Probenzuführung aufgebaut und mittels Fluoreszenzspektrometer als konventionelles Nachweisverfahren etabliert. Darauf aufbauend wurde der optische Nachweis miniaturisiert und somit miniaturisierte Lichtquellen und Detektoren sowie eine faser-optische Lichtleitung eingesetzt. Davon ausgehend erfolgte die Optimierung des Messaufbaus hinsichtlich der Sensitivität und Nachweisgrenze des fluoreszierenden Analyten. Schließlich wurden erstmalig fluoreszenzmarkierte MIP-Partikel zur Lokalisation und Quantifizierung auf Zelloberflächen eingesetzt, d.h. diese dienten als Antikörperersatz der Immunfärbung. / This thesis deals with the development of biosensors with the aim to couple molecularly imprinted polymers (MIPs) as new receptor material with the sensitive detection principle of fluorescence in order to improve analyte detection. A new strategy for optimization of binding parameters of molecularly imprinted polymers in aqueous media was developed which is based on the coupling of design of experiments and the optimization of multiple objective parameters. Due to that the polymer binding properties for all four considered parameters could be optimized considerably. With the help of steady state and time-resolved fluorescence techniques the interaction between MIP and analyte could be clarified on a molecular basis. Furthermore the characterization of a new detection strategy based on a Förster resonance energy transfer mechanism was realized.
Moreover a MIP sensor with microfluidic sample handling for biological samples was built-up and established with fluorescence spectroscopy as conventional detection method. Based on that, the optical detection was miniaturized with respect to light sources, detectors as well as optical fibers for light guidance. This set-up was optimized concerning sensitivity and limit of detection of the fluorescent analyte. Finally, for the first time fluorescently marked MIP particles were applied for imaging on cell surfaces – meaning that they were used for immunostaining as antibody mimics.
|
414 |
Étude de la polymérisation enzymatique de la malolactonates en présence de lipases / Study of the lipase-catalyzed polymerization of malolactonatesCasajus, Hubert 11 December 2017 (has links)
Les polyesters aliphatiques, comme le poly(acide malique) et ses dérivés, sont une famille de polymères aux propriétés de bio(comptabilité) et de bio(dégradabilité) remarquables, qui en font des candidats de choix pour l'élaboration de systèmes de vectorisation de principes actifs. Généralement, ces polymères sont synthétisés via des réactions de polymérisation utilisant des amorceurs, voir des catalyseurs, organiques, organométalliques ou métalliques. La présence de ces molécules, même à l'état de traces, peut être à l'origine d'une toxicité non souhaitée. Par conséquent, l'utilisation de biocatalyseurs, comme les lipases, se développe pour apporter une solution à cet inconvénient. Cependant, cette voie de synthèse enzymatique fait face à d'autres problèmes, tels qu'une polymérisation moins bien maîtrisée et des polymères de masses molaires faibles. Cette thèse a donc pour objectif de mettre au point une voie de polymérisation du malolactonate de benzyle utilisant la lipase de pancréas de porc (PPL) comme amorceur. Dans un premier temps, nous avons optimisé certains paramètres réactionnels permettant d'obtenir des poly(malate de benzyle) , PMLABe, de masses molaires suffisamment élevées pour que ces polymères puissent être utilisés dans la formulation de vecteurs de principes actifs, grâce à l'utilisation et l'extrapolation d'un plan d'expérience. Nous nous sommes ensuite intéressés à la compréhension du mécanisme réactionnel de la polymérisation enzymatique du malolactonate de benzyle, une β-lactone β-substituée. Les différentes études menées ont permis d'approfondir notre connaissance dans ce domaine. Deux mécanismes ont été proposés et des expériences sont en cours pour confirmer l'un d'entre eux. Finalement, comme l'objectif initial est de proposer une méthode de synthèse de dérivés du PMLA plus biocompatibles conduisant à des polymères sans résidus d'amorceurs chimiques toxiques, nous avons comparé les activités biologiques de nanoparticules préparées à partir de PMLABe synthétisés par voie chimique et par voie enzymatique. Pour cela, nous avons mesuré la captation de ces nanoparticules, encapsulant une sonde de fluorescence, par des cellules hépatiques HepaRG. Puis, nous avons évalué la toxicité aiguë et la toxicité chronique de ces nanoparticules vis-à-vis des cellules HepaRG. Ces études ont permis de mettre en évidence certaines propriétés des nanoparticules ayant une influence sur la survie cellulaire et le métabolisme des cellules HepaRG. De la compréhension théorique aux applications potentielles, cette thèse apporte des connaissances sur la polymérisation enzymatique des lactones substituées, un domaine peu décrit dans la littérature. / Aliphatic polyesters, like poly(malic acid)and its derivatives, are a family of polymers with outstanding properties, such as bio(degradability) and bio(compatibility). Therefore, these polyesters can be considered as excellent candidates for the design of drug carriers. These kinds of polymers are usually synthesized thanks to polymerization reactions using organic, organometallic or metallic initiators or catalysts. The presence of such molecules, even in trace amounts, can cause undesired toxicities. Therefore, the use of biocatalysts, like lipases, is attracting more and more interest and research work to circumvent this problem. However, this enzymatic polymerization method has to face to other issues, such as a lower controlled of the polymerization process and polymers with lower molar masses. Therefore, this PhD research work aimed at setting up the enzymatic polymerization of benzyl malolactonate, using porcine pancreatic lipase (PPL). Firstly, we have optimized some reactional parameters allowing to obtain poly(benzyl malate), PMLABe, with molar masses adapted to their uses for the design of drug carriers, thanks to a Design of Experiments (DoE) and its extrapolation. We were then interested by the comprehension of the enzymatic polymerization mechanism of the benzyl malolactonate. The different studies we carried out allowed us to deepen our knowledges of such enzymatic polymerization. Two non-canonical mechanisms were proposed and further experiments are in progress to confirm the one which is the more probable. Finally, because our initial goal was to propose a more biocompatible polymerization method to obtain PMLABe free of traces of chemical initiator, we compared biologic activities of different nanoparticles prepared from PMLABe synthesized using chemical or enzymatic pathway. For that, we have first measured the uptake of these nanoparticles encapsulating a fluorescent dye, by the hepatic cells HepaRG. Then, we have studied the acute and chronic toxicity of the nanoparticles on the HepaRG cells. Results of these studies have highlighted that certain properties of the nanoparticles and/or of the polymers which constituted them have an influence on the cells viability and on the cells metabolism. From the theoretical mechanism to the probable applications, this thesis brings knowledge about the enzymatic polymerization of substituted lactone, a field poorly described in the literature.
|
415 |
Entwicklung eines miniaturisierten Fluoreszenzsensors basierend auf molekular geprägten PolymerenKunath, Stephanie 18 February 2013 (has links)
Die vorliegende Arbeit befasst sich mit der Entwicklung von Biosensoren mit dem Ziel, mit Hilfe der Kopplung molekular geprägter Polymere (MIPs) als neuartiges Rezeptormaterial und dem sensitiven Nachweisprinzip der Fluoreszenz eine neue Qualität des Analytnachweises zu erreichen. Es wurde eine neue Strategie zur Optimierung der Bindungseigenschaften von molekular geprägten Polymeren in wässrigen Lösungsmitteln entwickelt, die die Kopplung aus Design of Experiments und der Optimierung multipler Zielgrößen umfasst. Damit konnten die Polymerbindungseigenschaften für alle vier betrachteten Parameter wesentlich verbessert werden. Mit Hilfe stationärer und zeitaufgelöster Fluoreszenztechniken wurde die Aufklärung der Wechselwirkung zwischen MIP und Analyt auf molekularer Ebene sowie die Charakterisierung einer neuen Nachweisstrategie basierend auf einen Förster-Resonanzenergietransfer-Mechanismus realisiert.
Es wurde ferner ein MIP-Sensor für biologische Proben mit mikrofluidischer Probenzuführung aufgebaut und mittels Fluoreszenzspektrometer als konventionelles Nachweisverfahren etabliert. Darauf aufbauend wurde der optische Nachweis miniaturisiert und somit miniaturisierte Lichtquellen und Detektoren sowie eine faser-optische Lichtleitung eingesetzt. Davon ausgehend erfolgte die Optimierung des Messaufbaus hinsichtlich der Sensitivität und Nachweisgrenze des fluoreszierenden Analyten. Schließlich wurden erstmalig fluoreszenzmarkierte MIP-Partikel zur Lokalisation und Quantifizierung auf Zelloberflächen eingesetzt, d.h. diese dienten als Antikörperersatz der Immunfärbung. / This thesis deals with the development of biosensors with the aim to couple molecularly imprinted polymers (MIPs) as new receptor material with the sensitive detection principle of fluorescence in order to improve analyte detection. A new strategy for optimization of binding parameters of molecularly imprinted polymers in aqueous media was developed which is based on the coupling of design of experiments and the optimization of multiple objective parameters. Due to that the polymer binding properties for all four considered parameters could be optimized considerably. With the help of steady state and time-resolved fluorescence techniques the interaction between MIP and analyte could be clarified on a molecular basis. Furthermore the characterization of a new detection strategy based on a Förster resonance energy transfer mechanism was realized.
Moreover a MIP sensor with microfluidic sample handling for biological samples was built-up and established with fluorescence spectroscopy as conventional detection method. Based on that, the optical detection was miniaturized with respect to light sources, detectors as well as optical fibers for light guidance. This set-up was optimized concerning sensitivity and limit of detection of the fluorescent analyte. Finally, for the first time fluorescently marked MIP particles were applied for imaging on cell surfaces – meaning that they were used for immunostaining as antibody mimics.
|
416 |
Restricted Region Exact DesignsPersson, Johan January 2017 (has links)
Problem statement: The D-optimal design is often used in clinical research. In multi-factor clinical experiments it is natural to restrict the experiment's design space so as not to give a patient the combination of several high dose treatments simultaneously. Under such design space restrictions it is unknown what designs are D-optimal. The goal of the thesis has been to find D-optimal designs for these design spaces. Approach: Two new algorithms for finding D-optimal designs with one, two or three factors with linear models has been developed and implemented in MATLAB. Two restricted design spaces were explored. In cases when the program could not find the D-optimal design an analytic approach was used. Results: Special attention was given to the two factor model with interaction. All of the D-optimal designs for this model, N less or equal to 30, and their permutations have been listed as well as their continous designs. Conclusion: In one of the restricted design regions a simple design pattern appeared for N greater than or equal to 7. In the other restricted design region no obvious pattern was found but its continuous design could be calculated through analysis. It turned out that the number of trials at the lowest dose combination did not change when moving from the full space design to the restricted design regions. / Frågeställning: D-optimala designer är vanliga i kliniska studier. När flera faktorer (läkemedel) prövas samtidigt kan det vara nödvändigt att begränsa försöksrummet så att patienterna undviker att få en hög dos av flera faktorer samtidigt. I sådana begränsade försöksrum är det okänt vilka designer som är D-optimala. Uppsatsens mål har varit att hitta D-optimala designer i begränsade försöksrum. Metod: Två nya algoritmer för att hitta D-optimala designer med en, två eller tre dimensioner och linjära modeller har utvecklats och implementerats i MATLAB. Två begränsade försöksrum har utforskats. I de fall då MATLAB-programmet inte kunde hitta de D-optimala designerna användes analytiska metoder. Resultat: Analys av en tvåfaktormodell med interaktion utforskades särskilt noggrant. Alla D-optimala designer och permutationer av dessa i de båda begränsade försöksrummen har listats för alla N mindre än eller lika med 30, samt även deras kontinuerliga designer. Slutsats: För det ena försöksrummet upptäcktes ett mönster i designen då N är större än eller lika med 7. I det andra försöksrummet upptäcktes inget mönster och det krävdes således analytiska metoder för att finna dess kontinuerliga design. Det visade sig att antalet försök i den lägsta doskombinationen förblev oförändrat då man bytte från det fulla designrummet till de båda begränsade designrummen.
|
417 |
Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitudeFu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.
|
418 |
Développement d’une méthode de méta modélisation des consommations énergétiques des bâtiments en fonction des facteurs d’usages et d’exploitation pour la garantie de résultat énergétique / Development of a metamodel for building energy consumption as a function of space use and HVAC systems operations factors for energy performance guaranteeNovel, Aymeric 07 January 2019 (has links)
À mesure que les performances intrinsèques des bâtiments s’améliorent, les usages énergétiques non réglementés, que nous associons à une notion d’intensité énergétique des usages, prennent de plus en plus d’importance dans le bilan des consommations des bâtiments. De plus, les bâtiments performants font apparaître des problématiques au niveau de l’exploitation des installations. Ces constats nous permettent d’affirmer qu’il est aujourd’hui important de proposer un cadre pour le suivi et l’optimisation de la sobriété énergétique des usages et l’exploitation performante pour la maîtrise des consommations énergétiques réelles des bâtiments. Cette thèse propose tout d’abord de développer des modèles polynomiaux de prédiction de la consommation énergétique tous usages en fonction des facteurs caractérisant l’intensité d’usage, la qualité d’usage et la qualité d’exploitation. Pour cela, nous utilisons le logiciel EnergyPlus afin de réaliser des simulations énergétiques dynamiques (SED) sur des valeurs de paramètres définis par la méthode des plans d’expérience D-optimaux. Le modèle polynomial créé permet alors d’effectuer, avec un faible temps de calcul, une propagation des incertitudes sur les consommations d’énergie calculées. Pour ce faire, nous utilisons les données mesurées en exploitation dans le cadre de la mesure et de la vérification de la performance énergétique, associées à une incertitude concernant leur valeur. Nous pouvons alors déterminer l’incertitude globale sur les consommations énergétiques et identifier les pistes pour la réduire, permettant ainsi un meilleur suivi et encadrement de la consommation énergétique réelle. / Since building envelope and MEP systems characteristics regularly improve, the weight of non-regulatory energy end-uses increases. These energy end-uses are typically associated with tenants or owners’ activities. In addition, high performance buildings show new issues related to HVAC systems operations. Therefore, it is important to evaluate and improve non-regulatory energy end-uses energy as well as HVAC systems operations efficiencies. We have developed polynomial energy models that can predict energy consumption as a function of building’s activities characteristics and HVAC systems operations factors. We used EnergyPlus software in order to build reliable energy models along with the D-optimum design of experiments method (DOE). Then, we used measurement and verification (M&V) data, associated with probability functions, to determine the associated uncertainty of the calculated energy consumption. Finally, we combine the latter with the polynomial modeling error to calculate the energy consumption global uncertainty, with the goal to identify strategies to reduce it.
|
419 |
Méthodes de modélisation statistique de la durée de vie des composants en génie électrique / Statistical methods for the lifespan modeling of electrical engineering componentsSalameh, Farah 07 November 2016 (has links)
La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression. / Reliability has become an important issue nowadays since the most critical industries such as aeronautics, space and nuclear are moving towards the design of more electrical based systems. The objective is to understand, model and predict the aging mechanisms that could lead to component and system failure. The study of the operational constraints effects on the degradation of the components is essential for the prediction of their lifetime. Numerous lifespan models have been developed in the literature in the field of electrical engineering. However, these models have some limitations: they depend on the studied material and its physical properties, they are often restricted to one or two stress factors and they do not integrate interactions that may exist between these factors. This thesis presents a new methodology for the lifespan modeling of electrical engineering components. This methodology is general; it is applicable to various components without prior information on their physical properties. The developed models are statistical models estimated on experimental data obtained from accelerated aging tests where several types of stress factors are considered. The models aim to study the effects of the different stress factors and their different interactions. The number and the configuration of the aging tests needed to construct the models (learning sets) are optimized in order to minimize the experimental cost while maximizing the accuracy of the models. Additional randomly configured experiments are carried out to validate the models (test sets). Two categories of components are tested: two types of insulation materials that are commonly used in electrical machines and OLED light sources. Different forms of lifespan models are presented: parametric, non-parametric and hybrid models. Models are evaluated using different statistical tools in order to study their relevance and to assess their predictability on the test set points. Parametric models allow to quantify the effects of stress factors and their interactions on the lifespan through a predefined analytical expression. Then a statistical test allows to assess the significance of each parameter in the model. These models show a good prediction quality on their test sets. The relationship between the lifespan and the constraints is also modeled by regression trees as an alternative method to parametric models. Regression trees are non-parametric models that graphically classify experimental points into different zones where the constraints are hierarchized according to their effects on the lifespan. Thus, a simple, graphic and direct relationship between the lifespan and the stress factors is obtained. However, unlike parametric models that are continuous in the studied experimental domain, regression trees are piecewise constant, which degrades their predictive quality with respect to parametric models. To overcome this disadvantage, a third approach consists in assigning a linear model to each of the zones identified with regression trees. The resulting model, called hybrid model, is piecewise linear. It allows to refine parametric models by evaluating the effects of the factors in each of the zones while improving the prediction quality of regression trees.
|
420 |
Identificação de danos estruturais a partir do modelo de superfície de resposta / Identification of structural damage based on response surface modelIsabela Cristina da Silveira e Silva Rangel 17 February 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A identificação de danos estruturais é uma questão de fundamental importância
na engenharia, visto que uma estrutura está sujeita a processos de deterioração
e a ocorrência de danos durante a sua vida útil. A presença de danos compromete
o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e
resultam em perdas econômicas consideráveis. Técnicas de identificação de danos
estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo
de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto,
a obtenção de um problema geralmente mal posto e o elevado custo computacional,
inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em
estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades,
na formulação do problema de identificação de danos, pode-se utilizar o
Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No
presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR
da estrutura, objetivando-se a minimização de uma função de erro definida a partir
das frequências naturais experimentais e das correspondentes frequências previstas
pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga
de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na
formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli
simplesmente apoiada na presença de danos é analisado, com intuito de se verificar
as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No
processo de identificação de danos, do presente trabalho, são avaliados os tipos de
superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta
a ser utilizado, determina-se a superfície de resposta considerando os dados
experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do
método Evolução Diferencial (ED) no problema inverso de identificação de danos é
considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se
capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade
do modelo de identificação de danos proposto. / The identification of structural damage is an issue of fundamental importance
in engineering, since a structure is subject to deterioration processes and to the occurrence
of damage throughout its useful lifetime. The presence of damage compromises
the performance and structural integrity, may put human lives at risk and may result
in considerable economic losses. Damage identification and structural health monitoring
techniques built on Finite Element Model (FEM) updating are constant in the
specialized literature. However, the problem generally rank deficient and the high computational
cost, inherent to these techniques, limit or even render their applicability
in structures that require a high order model. To circumvent these difficulties, in the
formulation of the damage identification problem, one may use a Response Surface
Model (RSM) in place of a FEM of the structure. In the present work, the identification
of structural damage considers the update of a RSM of the structure, with the aim at
minimizing an error function defined from the experimental natural frequencies and the
corresponding natural frequencies prescribed by a RSM. The problem of structural damage
identification in a simply supported Euler-Bernoulli beam is studied, taking into
account the natural frequencies in the inverse problem formulation. The behavior of
a simply supported Euler-Bernoulli beam, in the presence of damage, is analyzed, in
order to verify the identification of regions where the damage identification may present
greater difficulties. In the damage identification process, in the present work, after a
suitable choice of the type of the response surface model, the surface model is derived
considering the experimental data selected from an optimal design of experiments. The
use of the Differential Evolution (DE) method in the inverse problem of damage identification
is considered. Considering the numerical results obtained, the strategy adopted
proved to be able to locate and quantify the damage with high accuracy, showing the
capability of the proposed damage identification model.
|
Page generated in 0.3463 seconds