Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
271 |
A step forward in recombinant protein production regulated by the constitutive GAP promoter in Pichia pastoris through bioprocess engineering approachesGarcia Ortega, Xavier 09 February 2016 (has links)
La producció de proteïnes recombinants, tant per aplicacions terapèutiques com industrials, dóna lloc a un mercat que anualment genera milers de milions de dòlars. Entre els organismes hostes destacats que solen ser emprats per a la seva producció, actualment el llevat Pichia pastoris és una de les plataformes d’expressió més efectives i versàtils. Des d’un punt de vista operacional i industrial, i com a alternativa als àmpliament estesos processos basats la utilització de metanol, l’ús del promotor constitutiu GAP ofereix avantatges molt importants. Malgrat aquestes avantatges, però, el desenvolupament d’estratègies de cultiu que doni lloc a processos de producció eficients regulats pel promotor GAP està considerat, encara avui en dia, en un estadi molt primerenc.
Al llarg del curs d’aquesta tesi, diversos paràmetres claus per a assolir millores en termes de rendiment i productivitat en els processos de producció de proteïnes recombinants amb l’esmentat sistema d’expressió van ser abordats a través de les eines de l’enginyeria de bioprocessos. El desenvolupament i implementació de noves estratègies de cultiu va ser dut a terme per a una soca de P. pastoris que expressa constitutivament el fragment d’unió a antigen (Fab) humà 2F5 com a proteïna model. No obstant, s’espera que les millores en els processos de producció assolits siguin també aplicables a l’expressió d’altres proteïnes recombinants d’interès.
Inicialment, amb l’objectiu de valorar l’efecte causat per la capacitat de secreció limitada àmpliament estudiada en aquest hoste d’expressió, un protocol de disrupció cel·lular i d’extracció de proteïnes va ser desenvolupat i optimitzat. Aquests mètodes van permetre assolir un increment molt important en la precisió, i per tant en la veracitat, de la quantificació de producte retingut intracel·lularment.
L’ús de glucosa i de glicerol com a fonts de carboni va ser comparat per les dues fases del cultiu en fed-batch. La selecció de diferents substrats per a cadascuna de les fases va donar lloc a efecte positius importants en el cultiu. Addicionalment, l’efecte de la taxa específica de creixement a la taxa de específica producció va ser estudiat mostrant una clara relació entre la formació de producte i el creixement de biomassa com a resultat d’un important efecte transcripcional de la taxa específica de creixement en el metabolisme central del carboni, i a la vegada, en l’expressió de la proteïna d’interès. Per contra, no va poder ser observat un efecte evident de la taxa específica de creixement a la capacitat de secreció del llevat. Per tant, es van dur a terme cultius en fed-batch a una taxa de creixement alta i constant assolint taxes de producció significativament més elevades respecte d’altres cultiu basats en altres estratègies d’alimentació de font de carboni.
L’impacte de condicions ambientals d’estrès a la fisiologia cel·lular de l’hoste va ser caracteritzat i estudiat amb l’objectiu de millorar significativament els rendiments i les taxes de producció de la proteïna recombinant. Concretament es van obtenir increments importants de producció implementant tant condicions limitants d’oxigen com de deprivació de font de carboni en cultius de P. pastoris. De nou, s’hipotitza que aquests increments estan causats per la regulació del metabolisme central del carboni induïda per la resposta adaptativa de l’hoste a les noves condicions ambientals.
Globalment, el resultat d’aquest estudi és una temptativa amb èxit d’aplicar el coneixement de la fisiologia de l’hoste d’expressió en el disseny racional d’estratègies de cultiu amb l’objectiu de maximitzar el rendiment i la productivitat de processos de producció de proteïnes recombinants explotant paràmetres claus del sistema que augmenten l’expressió de la proteïna. / Recombinant protein, including biopharmaceuticals proteins and industrial enzymes, is a multi-billion dollar market. Among all the suitable host organisms commonly used for its production, the yeast Pichia pastoris is currently one of the most effective and versatile expression platform. From an operational and industrial point of view, alternatively to the widely extended methanol-based processes, the use of the constitutive GAP promoter offers very important advantages. However, the development of cultivation strategies for efficient production processes regulated by the constitutive GAP promoter can be considered that still remains in its infancy.
In the course of this thesis various crucial factors towards increasing the yield and productivity of the process for the production of recombinant proteins with the mentioned expression system were addressed through bioprocess engineering approaches. The development and implementation of the new cultivations strategies was performed for a P. pastoris strain expressing constitutively the human 2F5 antigen-binding fragment (Fab) as a model protein. Nevertheless, it is expected that the production process developments achieved are also applicable for the expression of other recombinant proteins of interest.
Initially, in order to evaluate the effect caused by the reported limiting secretory capacity of the host cell system, a cell disruption and a protein extraction procedure were developed and optimized. These methods allowed achieving an important increase in the accuracy, and therefore reliability, of intracellular product quantification.s
The use of glucose and glycerol as a carbon sources was compared for both phases of a fed-batch cultivation. Important positive effects were observed selecting different substrate for each phase. Furthermore, the effect of the specific growth rate on the specific production rate was studied showing a plain correlation between product formation and biomass growth as a result of the strong transcriptional effect of the specific growth rate in the central carbon metabolism, and in turn, protein of interest expression. In contrast, no clear effect of the specific growth rate could be observed in the secretory capacity of the yeast. Accordingly, fed-batch cultivation at constant and high specific growth rates were carried out reaching production rates significantly higher than cultures based on others carbon source feeding strategies.
The impact of environmental stress conditions on the host cell physiology has been characterized and used in order to enhance significantly the yields and production rates of the recombinant protein. Important production increases have been achieved by carrying out P. pastoris cultivations implementing either carbon-starving or oxygen-limiting conditions. Once more, the increments were hypothesised to be caused by the regulation of the central carbon metabolism induced by the host adaptation response to the new environment.
Overall, the outcome of this study is a successful attempt to apply the host cell system physiology understanding on the rational design of cultivation strategies towards maximizing the yields and productivity of recombinant protein production processes by the exploitation of key factors that enhances the protein expression.
|
272 |
Fuculosa 1-fosfat aldolasa com a biocatalitzador en síntesi: model cinètic i immobilitzacióSuau Tiron, Trinitat 14 June 2007 (has links)
Les aldolases són biocatalitzadors de gran interès en processos de síntesi quiral perquè catalitzen la formació d'enllaços C-C controlant l'estereoselectivitat de l'addició aldòlica. Les aldolases depenents de dihidroxiacetona fosfat (DHAP) catalitzen la reacció de síntesi d'aminopoliols precursors d'iminociclitols, productes d'interès terapèutic.El present treball de tesi doctoral és una aportació a aquest camp, concretament a l'addició aldòlica catalitzada per fuculosa 1-fosfat aldolasa (FucA) a partir de la reacció model d'addició aldòlica entre DHAP i (S)-Cbz-alaninal. S'ha estudiat la influència de les reaccions secundàries en la síntesi amb aldolases depenents de DHAP i s'han determinat les condicions de reacció òptimes per tal de minimitzar l'efecte d'aquestes reaccions secundàries. S'ha proposat un model cinètic incloent els efectes d'inhibició determinats i s'ha validat amb èxit amb reaccions de síntesis realitzades a diferents condicions de reacció. S'ha immobilitzat la FucA amb diferents mètodes: adsorció per afinitat, enllaç covalent (entrecreuament o CLEA, en suport Eupergit C i en agarosa) obtenint elevats rendiments d'immobilització encara que discrets percentatges de retenció de FucA en forma activa. Finalment, s'ha pogut demostrar l'aplicació del derivat FucA-agarosa en síntesi i els avantatges que comporta en quan a productivitat i rendibilitat en un procés de síntesi. / Aldolases are biocatalysts of great interest in synthetic processes because they catalyze the chiral synthesis of formation of a new bond C-C controlling the stereoselectivity of the aldol addition. The dependent dihydroxiacetone phosphate (DHAP) aldolases catalyze the synthetic reaction of aminopolyols which are precursors of iminocyclitols, products of therapeutic interest. The present thesis is a contribution in this field, concretely in the aldol addition catalyzed by fuculose 1-phosphate aldolase (FucA) using a model reaction of aldol addition between DHAP and (S)-Cbz-alaninal. It has been studied the influence of secondary reactions in the synthesis catalyzed by DHAP dependent aldolases. The optimal reaction conditions have been determined in order to minimize these secondary reactions. It has been proposed a kinetic model including the determined inhibitory effects. The kinetic model has been validated with success using several synthetic reactions at different reaction conditions. FucA has been immobilized using several methods: adsorption to affinity supports, covalent bond formation (crosslinking (CLEA), using Eupergit C support and agarose support). High yields have been obtained but low activity retention of FucA in active form. Finally, it has been demonstrated the application of FucA-agarose derivative in synthesis and the advantages in terms of productivity and yield rate in a synthetic process.
|
273 |
Integration of CMOS-MEMS resonators for radiofrequency applications in the VHF and UHF bandsTeva Meroño, Jordi 26 July 2007 (has links)
Aquesta tesi doctoral te com a objectiu fonamental la integració monolítica de microressonadors en una tecnologia comercial, AMS 0.35um, tot utilitzant les capes disponibles del procés tecnològic. Les estructures son alliberades en un procés post-CMOS consistint en un atac humit basat en una solució HF, sense la necessitat de utilitzar cap mascara ni cap procés fotolitografia.Per tal de dissenyar i modelitzar aquests ressonadors, un model electromecànic basat en la deflexió real dels ressonadors serà descrit permetent al dissenyador predir el màxim de corrent a la ressonància. A més a més, un conjunt d'equacions de disseny serà presentat per tots els dispositius fabricats.Al llarg d'aquesta tesi diferents aproximacions tecnològiques tot utilitzant les capes disponibles de la tecnologia estàndard per fabricar microressonadors seran introduïts i discutits. Des del punt de vista del disseny, reduir la distància del gap entre el ressonador i el elèctrode esdevé un dels paràmetres més rellevants que potenciaran la resposta elèctrica del dispositiu. Aleshores, les aproximacions tecnològiques estaran encaminades a reduir la distancia del gap tan com sigui possible. Per a les aproximacions tecnològiques més prometedores, limitacions basades en el col·lapse vertical en el procés de alliberament seran considerats per tal de evitar el disseny s'estructurés amb limitació en el seu funcionament.Una aproximació tecnològica basada en les capes del mòdul estàndard per a la fabricació de capacitats integrades, ha resultat en una de les aproximacions més prometedores per a la fabricació integrada de ressonadors MEMS en el rangs de freqüències VHF i UHF, aconseguint gaps laterals de 40nm. Dispositius exhibint freqüències en el rang VHF, amb factors de qualitat fins a 3000 a 290MHz, seran presentats, obtenint una figura de mèrit de Qxf=9.1011 Hz. A més a més, resultats preliminars en la caracterització d'un anell ressonant en mode acústic a 1GHz serà descrit. / This thesis is focused on the monolithic integration of microresonators in a commercial CMOS technology, AMS-0.35um, by using the standard layers of the process. The structures are released in a maskless post-CMOS process based on a wet hydrofluoric etchant. Those resonators will make the role of frequency selective devices replacing off-chip components of present front-end tranceivers communication systems relying on their reduced size, cost production and lower consumption. In order to design and modelize those microresonators, an electromechanical model based on the real deflection of flexural resonator will be described allowing the designer to predict the maximum current levels at resonance. In addition to that, a set of mechanical design equations will be presented for all fabricated devices. Along this report, different technological approaches using the available layers of the standard technology for fabricating microresonators will be introduced and discussed. From the design point of view, reducing the gap distance between resonator and driver becomes one of the relevant parameters that will enhance the electrical response of the device. Then, the approaches will be focused on reducing gap distances as much as possible. For the most promising approaches, limitations based on the vertical stiction in the releasing process will be considered in order to avoid the design of structures with limited performance.A fabrication approach based on the layers of the standard capacitance module will stand out as the most promising approach for successfully fabricate integrated MEMS resonators in the VHF and UHF frequency range, as expenses of 40nm gap distances. Devices exhibiting frequencies in the VHF range, with high quality factors up to 3000 at 290MHz will be presented, giving a figure of merit of Qxf=9.1011Hz. Furthermore, preliminary results on the characterization of a ring bulk acoustic resonator at 1GHz will be described.
|
274 |
Contributions to Mental PokerCastellà Roca, Jordi 09 May 2005 (has links)
Les xarxes d'ordinadors i especialment Internet han permès que algunes activitats comuns com per exemple comprar o jugar es puguin fer de forma remota (e-shopping i e-gambling). El joc del poker a través d'una xarxa de computadors es coneix com mental poker. Mantenir la operativa del joc al mateix temps que es garanteixes els mateixos estàndards de seguretat, imparcialitat i auditoria que ofereixen els casinos en el poker tradicional és un problema complex. Els aspectes més importants a tenir en compte quan es dissenya un protocol de mental poker són els següents: la funcionalitat del joc, la seguretat, i els costos computacionals y de comunicació. Les propostes en la literatura normalment es centren únicament en els dos primers punts. Això fa difícil saber quina de les propostes és més eficient garantitzant la mateixa funcionalitat i seguretat. La tesi comença amb un anàlisi formal dels costos de les principals propostes en la literatura. El anàlisi no es limita als costos, sinó que estudia la seguretat de cada proposta, de fet, el nostre estudi va detectar una debilitat important en un dels protocols comparats. L'atac es presenta en un capítol separat desprès de l'anàlisi comparatiu global. Els tres capítols següents de la tesi presenten tres nous protocols que milloren les propostes de la literatura en diferents aspectes. La primera proposta pertany a la família de protocols sense TTP i que no preserven la confidencialitat de l'estratègia dels jugadors. La segona proposta és unprotocol sense TTP que preserva la confidencialitat de l'estratègia dels jugadors. El protocolredueix el cost computacional de manera que els jugadors realitzen menys operacionsmatemàtiques. La tercera proposta presenta una nova funcionalitat que normalment no ofereixen els protocols en la literatura, que és la tolerància a l'abandó de jugadors. És a dir, els jugadors poden continuar jugant malgrat alguns jugadors abandonin el jocal mig de la partida. / Las redes de ordenadores y especialmente Internet han permitido que algunas actividades comunes como por ejemplo comprar o jugar se puedan hacer de forma remota (e-shopping y e-gamgling). El juego del poker a través de una red de ordenador es conocido como mental poker. Mantener la operativa del juego al mismo tiempo que se garantizan los mismos estándares de seguridad, imparcialidad y auditoria que ofrecen los casinos para el pokertradicional es un problema complejo. Los aspectos más importantes a tener en cuenta cuando se diseña un protocolo de mental poker son los siguientes: la funcionalidad del juego, la seguridad, y los costes computacionales y de comunicación. Las propuestas en la literatura normalmente se centran únicamente en los dos primeros puntos. Esto hace difícil saber cual de las propuestas es más eficiente garantizando la misma funcionalidad y seguridad. La tesis empieza con un análisis formal de los costes de las principales propuestas en la literatura. El análisis no se limita a los costes, sino que analiza la seguridad de cada propuesta, de hecho, nuestro estudio detectó una importante debilidad en uno de los protocolos comparados. El ataque es presentado en un capítulo separado después del análisis comparativo global. Los tres capítulos siguientes de la tesis presentan tres nuevos protocolos que mejoran las propuestas en la literatura en diferentes aspectos. La primera propuesta pertenece a la familia de protocolos sin TTP y que no preservan la confidencialidad de la estrategia de los jugadores. La segunda propuesta es un protocolo sin TTP que preserva la confidencialidad de la estrategia de los jugadores. El protocolo reduce el coste computacional de manera que los jugadores realizan menos operaciones matemáticas. La tercera propuesta presenta una nueva funcionalidad que normalmente no ofrecen los protocolos en la literatura, que es la tolerancia al abandono de los jugadores. Es decir, los jugadores pueden continuar jugando aunque algunos jugadores abandonen el juego en medio de la partida. / Computer networks and especially the Internet have allowed some common activities such as shopping or gambling to become remote (e-shopping and e-gambling). The poker game played over a network is known as mental poker. The problem with mental poker is the difficulty of keeping it practical while guaranteeing the same standards of security, fairness and auditability offered by standard casinos for physical poker. The important aspects to take into account when designing mental poker protocols are: functionality, security, and computational and communication cost. Proposals in the literature usually focus on the first two items only. This makes comparisons difficult. This thesis starts with a formal cost analysis of the main proposals in the literature. The analysis is not limited to costs, though; security is also analyzed and, in fact, our study detected a fundamental weakness in one of the compared mental poker protocols. The attack is presented in a separate chapter after the global comparative analysis. The three following chapters of this thesis present three new protocols that enhance the proposals in the literature in different ways. The first proposal belongs to the family of TTP-free protocols and does not preserve the confidentiality of player strategies; it reduces the computational cost by avoiding the use of zeroknowledge proofs. The second proposal is TTP-free, preserves the confidentiality of player strategies and reduces the computational cost by requiring players to perform less mathematical operations. The third proposal addresses a novel functionality usually not offered in the literature, namely player dropout tolerance, i.e. the ability to continue the game even if some players leave it.
|
275 |
Multimedia fate modelling and impact of pharmaceutical compounds on freshwater ecosystemsMorais, Sérgio Alberto 22 January 2014 (has links)
Esta tesis tiene como objetivo principal contribuir al desarrollo de las mejores prácticas disponibles en la modelización del destino multimedia y de los efectos de compuestos farmacéuticos para evaluar su impacto en los ecosistemas. La distribución de fármacos a través de los distintos compartimentos ambientales representa un riesgo potencial de toxicidad para los ecosistemas acuáticos. La capacidad de ionización de muchos de estos compuestos en el medio ambiente es un reto para la modelización de su destino multimedia, de su exposición y efectos. El uso de modelos convencionales no polares representa un elevado nivel de incertidumbre en la modelización de la movilidad de compuestos orgánicos ionizables, y en la modelización de su biodisponibilidad para la exposición a organismos y para la degradación en el medio ambiente. El desarrollo y la evaluación de modelos alternativos que incluyan estos puntos son esenciales para mejorar la simulación del comportamiento ambiental de microcontaminantes. La comparación de modelos y la cuantificación de la incertidumbre de sus resultados son fundamentales para su correcta interpretación. Además, la cuantificación de estas incertidumbres es necesaria para establecer prioridades de monitoreo y de investigación adicional entre el gran número de fármacos activos en uso actual teniendo en cuenta las diferentes vías de contaminación ambiental.
En este contexto, se consideraron los siguientes objetivos específicos:
1. Desarrollo de un modelo de destino multimedia, exposición y toxicidad con base en álgebra matricial y adaptado a compuestos farmacéuticos consistente con modelos de evaluación del impacto de ciclo de vida.
2. Desarrollo de un método para la cuantificación de la incertidumbre del modelo, incluyendo la incertidumbre de los modelos de regresión aplicados, y la identificación de los parámetros más pertinentes a la incertidumbre total.
3. Comparar y cuantificar las incertidumbres de los modelos alternativos en términos de los factores de caracterización y de los resultados finales de impacto, contribuyendo a la identificación de las mejores prácticas de modelización del destino multimedia, exposición y efectos de fármacos con base en los conocimientos científicos actuales.
4 Priorización de compuestos farmacéuticos en términos de su impacto probabilístico en los ecosistemas de agua dulce considerando las emisiones directas y indirectas de plantas de tratamiento de aguas para posterior monitorización e investigación adicional.
Capítulo 1 establece el contexto de la tesis y sus objetivos. Capítulo 2 presenta un modelo de destino multimedia, exposición y efectos con base en álgebra matricial, adaptado a fármacos y consistente con el modelo consensual de la UNEP/SETAC, el modelo USEtox. Se presenta un enfoque para cuantificar la incertidumbre de los resultados del modelo usando el análisis de Monte Carlo. El enfoque incluye la incertidumbre asociada a los modelos de regresión utilizados y a los efectos tóxicos, y la variabilidad asociada a los parámetros ambientales y experimentales. El modelo se aplicó a fármacos detectados en lodos de depuradora, posteriormente aplicados a suelos agrícolas. En relación a los compuestos de mayor relevancia, los parámetros más influyentes en la evaluación probabilística de impacto fueron identificados así como temas para investigación futura.
El capítulo 3 presenta una comparación detallada entre el modelo USEtox y el modelo alternativo adaptado a compuestos farmacéuticos. Este modelo alternativo incluye modelos de regresión para estimar parámetros teniendo en cuenta la fracción iónica de una molécula. La comparación se hizo al nivel de los factores de caracterización y al nivel de los resultados finales del impacto teniendo en cuenta tres escenarios de emisiones en distintos compartimientos ambientales. Los parámetros más sensibles de los modelos fueron identificados por análisis de Monte Carlo.
Los capítulos 4 y 5 presentan una priorización de los fármacos detectados en plantas de tratamiento de aguas residuales europeas al nivel de su monitorización ambiental y de temas para investigación futura. En el Capítulo 4 las emisiones directas de efluentes al compartimiento de agua dulce son estudiadas. En el capítulo 5 se consideran las emisiones indirectas: la aplicación de lodos de depuración y de efluentes en suelos agrícolas como fertilizante y como agua de irrigación, respectivamente. Los temas de investigación futura se definieran tanto por la identificación de lagunas en el conocimiento acerca del comportamiento ambiental de los fármacos, como por la contribución de la incertidumbre de los parámetros estimados del modelo a la varianza de los impactos calculados.
En el capítulo 6 se presentan las conclusiones generales y recomendaciones para trabajo futuro.
Palabras clave: Modelo de destino multimedia, Análisis de incertidumbre, fármacos, microcontaminantes, compuestos orgánicos ionizables, ecotoxicidad en agua dulce, plantas de tratamiento de aguas residuales, lodos de depuración, agua regenerada, Evaluación de riego, Impacto comparativo probabilístico, Análisis de ciclo de vida, USEtox. / The overall objective of this dissertation is to contribute to the development of best available practices in environmental multimedia fate and effect modelling for ecosystem impacts assessment of pharmaceutical compounds. The distribution of pharmaceuticals through several environmental media poses a potential toxic hazard to freshwater ecosystems, among other endpoints. The ionising properties of pharmaceuticals represent additional challenges when modelling the multimedia fate, exposure, and effect of this class of chemicals. Large uncertainties are expected when modelling the mobility, as well as the bioavailability for uptake by exposed biota and degradation, of ionising organic chemicals using conventional models. The development and evaluation of alternative approaches that include these issues are essential for the improvement of micropollutants environmental behaviour simulation. Model comparison and quantification of uncertainties of model results are vital for their correct interpretation. Furthermore, the quantification of uncertainties of model results is detrimental to establish priorities for further monitoring, as well as research, the wide number of pharmaceutical active compounds currently in use considering the most important pathways of environmental contamination.
In order to achieve that, the following specific objectives are addressed:
1. Develop a consistent matrix algebra framework for multimedia fate, multipathway exposure and toxicity effects models adapted for pharmaceutical compounds and consistent with life cycle impact assessment models.
2. Develop an approach to quantify the uncertainty of model results, accounting for regression model uncertainty, and identifying the main contributing parameters to overall uncertainty.
3. Compare and quantify the uncertainty of alternative model approaches on the level of characterisation factors as well as of final impact results, contributing to the identification of the best available practices on multimedia fate, exposure and effect modelling of PCs based on current scientific knowledge.
4. Prioritise pharmaceutical compounds on their probabilistic impact on freshwater ecosystems from both WWTP direct emissions and indirect emissions for further monitoring and research.
Chapter 1 puts this dissertation into its context and defines its objectives.
Chapter 2 presents a multimedia fate, exposure, and effect model based on matrix algebra adapted for pharmaceutical compounds and consistent with the UNEP/SETAC consensus model USEtox. An approach to quantify the uncertainty of model results using Monte Carlo analysis is presented. The approach accounts for the uncertainty of regression models and toxicity effects, as well as the variability of environmental parameters and experimental parameter values. The framework is applied to pharmaceuticals detected in biosolids following application on agricultural soils. The most influential parameters of the probabilistic comparative impact assessment were identified, as well as topics for further research for the compounds of most concern.
Chapter 3 is a detailed comparison of the USEtox model with the alternative framework adapted for pharmaceutical compounds. The alternative framework includes regressions to estimate fate parameters that account for the ionized fraction of a molecule. The comparison has been performed at the level of characterisation factors as well as of final impact results for 3 emissions scenarios into different environmental media. The most sensitive model parameters in the estimation of ecotoxicological characterization factors of micropollutants were evaluated by Monte Carlo analysis in both the default USEtox model and in the alternative approach.
Chapter 4 and 5 present a prioritisation of PCs detected in European wastewater treatment plants for further monitoring and research. Chapter 4 presents the pathway of direct discharge of WWTPs emissions to surface waters. In Chapter 5 the indirect emissions pathways to the freshwater compartment are addressed. The indirect emission pathways include the application of biosolids from WWTPs and of effluents as reclaimed water for irrigation, both on agricultural areas and landscapes. Research topics were defined by indentifying important gaps of knowledge as well as by computing the contribution of estimated model parameters’ uncertainty to the impact variance.
Chapter 6 presents general conclusions on the research outlined and will provide
recommendations for future research. Keywords: Multimedia fate model, Uncertainty analysis, Pharmaceuticals, Micropollutants, Dissociating organics, Freshwater ecotoxicity, Wastewater treatment plants, Biosolids, Land application, Reclaimed water, Probabilistic comparative impact, Risk Assessment, LCA, USEtox.
|
276 |
Multi-core hybrid architectures applied to forest fire spread predictionArtés Vivancos, Tomàs 08 September 2015 (has links)
Els incendis forestals són un tipus de desastre natural que representa un gran repte per a la societat a causa dels seus elevats costos econòmics i humans. Amb l’objectiu d’evitar els costos derivats d’aquest desastre natural i millorar l’extinció dels mateixos, els simuladors de propagació d’incendis es poden utilitzar per intentar anticipar el comportament de l’incendi i ajudar a aconseguir una extinció de l’incendi més eficient i segura. Quan es propociona una predicció de la propagació d’un incendi forestal existeixen dos elements claus: la precisió i el temps necessari per computar la predicció.
Sota el context de la simulació de desastres naturals, és ben conegut que part de l’error de la predicció estàsubjecta a la incertesa en les dades d’entrada utilitzades pel simulador. Per aquesta raó, la comunitat científica ha creat diferents mètodes de calibratge per reduir la incertesa de les dades d’entrada i així millorar l’error de la predicció. En aquest treball s’utilitza una metodologia de predicció basada en dues etapes que ha estat provada en treballs previs amb bons resultats. Aquest mètode de calibratge implica una necessitat considerable de recursos computacionals i eleva el temps de còmput a causa de l’ús d’un Algorisme Genètic com a mètode de cerca de les millors dades d’entrada del simulador. S’ha de tenir en compte les restriccions de temps sota les quals treballa un sistema de predicció d’incendis. Es necessari mantenir un equilibri adequat entre precisió i temps de còmput utilitzat per poder proporcionar una bona predicció a temps. Per poder utilitzar la tècnica de calibratge esmentat, s’ha de solucionar el problema que representa que algunes solucions siguin inviables ja que impliquen temps d’execució molt llargs, fet que pot impedir que es pugui donar resposta a temps en un suposat context operacional.
La present Tesi Doctoral utilitza les arquitectures multi-core amb l’objectiu d’accelerar el mètode de predicció basat en dues etapes per poder proporcionar una predicció sota temps de lliurament que es donarien en un context real. Per aquesta raó, es defineix una política d’assignació de nuclis basada en el temps disponible d’execució. Aquesta política d’assignació assignaràun nombre determinat de recursos a una determinada simulació prèviament a ser executada. La política d’assignació es basa en arbres de decisió creats amb els paràmetres de simulació utilitzats. No obstant això, es pro¬posen dos mètodes per a aquells casos on l’Algorisme Genètic tendeix a crear individus el temps d’execució dels quals provoquen que sigui impossible acabar el calibratge a temps: ReTAC i SoftTAC. La proposta ReTAC utilitza la resolució de les simulacions per solucionar el problema. En concret, ReTAC tracta de trobar la mínima reducció de la resolució que permeti que aquelles simulacions que són massa llargues puguin ser executades mantenint la precisió sota control. D’altra banda, SoftTAC utilitza poblacions de grandària dinàmica. Es a dir, els individus no es maten en arribar al límit de temps d’execució assignat a una generació de l’AG, sino que es permet l’execució simultanea d’individus de diferents generacions de l’algorisme genètic.
Totes les estratègies de predicció proposades han estat provades amb casos reals obtenint resultats satisfactoris en termes de precisió i de temps de còmput utilitzat. / Los incendios forestales son un tipo de catástrofe natural que representa un gran reto para sociedad debido a sus elevados costes económicos y humanos. Con el objetivo de evitar los costes derivados de dicho desastre natural y mejorar la extinción de éstos, los simuladores de propagación de incendios se pueden utilizar para intentar anticipar el comportamiento del incendio y ayudar a conseguir una extinción del incendio más eficiente y segura. Cuando se propociona una predicción de la propagación de un incendio forestal existen dos elementos clave: la precisión y el tiempo necesario para computar la predicción.
Bajo el contexto de la simulación de desastres naturales, es bien conocido que parte del error de la predicción está sujeta a la incertidumbre en los datos de entrada utilizados por el simulador. Por esta razón, la comunidad científica ha creado distintos métodos de calibración para reducir la incertidumbre de los datos de entrada y así mejorar el error de la predicción. En este trabajo se utiliza una metodología de calibración basada en dos etapas que ha sido probada en trabajos previos con buenos resultados. Este método de calibración implica una necesidad considerable de recursos computacionales y eleva el tiempo de cómputo debido al uso de un Algoritmo Genético como método de búsqueda de los mejores datos de entrada del simulador. Se debe tener en cuenta las restricciones de tiempo bajo las que trabaja un sistema de predicción de incendios. Es necesario mantener un equilibrio adecuado entre precisión y tiempo de cómputo utilizado para poder proporcionar una buena predicción a tiempo. Para poder utilizar la técnica de calibración mencionada, se debe solucionar el problema que representa que algunas soluciones sean inviables debido a que implican tiempos de ejecución muy largos, lo que puede impedir que se pueda dar respuesta a su debido tiempo en un supuesto contexto operacional.
La presente Tesis Doctoral utiliza las arquitecturas multi-core con el objetivo de acelerar el método de calibración basado en dos etapas y poder proporcionar una predicción bajo tiempos de entrega que se darían en un contexto real. Por esta razón, se define una política de asignación de núcleos basada en el tiempo disponible de ejecución . Esta política de asignación asignará un número determinado de recursos a una determinada simulación previamente a ser ejecutada. La política de asignación se basa en árboles de decisión creados con los parametros de simulación n utilizados.
Sin embargo, se proponen dos métodos para aquellos casos donde el algoritmo genético tienda a crear individuos cuyo tiempo de ejecución provocan que sea imposible acabar la calibración a tiempo: Re-TAC y Soft-TAC. La propuesta ReTAC utiliza la resolución de las simulaciones para solucionar el problema. En concreto, Re-TAC trata de encontrar la mínima reducción de la resolución que permita que aquellas simulaciones que son demasiado largas puedan ser ejecutadas manteniendo la precisión bajo control. Por otro lado, Soft-TAC utiliza poblaciones de tama˜no dinámico. Es decir, los individuos no se matan al alcanzar el límite de timepo de ejecución asignado a una generación del Algoritmo Genético, sino que se permite la ejecución simultanea de individuos de distintas generaciones haciendo que el tamaño de la población sea dinámico.
Todas la estrategias de predicción propuestas han sido probadas con casos reales obteniendo resultados satisfactorios en términos de precisión y de tiempo de cómputo utilizado. / Large forest fires are a kind of natural hazard that represents a big threat for the
society because it implies a significant number of economic and human costs. To avoid
major damages and to improve forest fire management, one can use forest fire spread
simulators to predict fire behaviour. When providing forest fire predictions, there are
two main considerations: accuracy and computation time.
In the context of natural hazards simulation, it is well known that part of the
final forecast error comes from uncertainty in the input data. For this reason several
input data calibration methods have been developed by the scientific community. In
this work, we use the Two-Stage calibration methodology, which has been shown to
provide good results. This calibration strategy is computationally intensive and timeconsuming
because it uses a Genetic Algorithm as an optimization strategy. Taking
into account the aspect of urgency in forest fire spread prediction, we need to maintain
a balance between accuracy and the time needed to calibrate the input parameters. In
order to take advantage of this technique, we must deal with the problem that some of
the obtained solutions are impractical, since they involve simulation times that are too
long, preventing the prediction system from being deployed at an operational level.
This PhD Thesis exploits the benefits of current multi-core architectures with the
aim of accelerating the Two-Stage forest fire prediction scheme being able to deliver
predictions under strict real time constraints. For that reason, a Time-Aware Core
allocation (TAC) policy has been defined to determine in advance the more appropriate
number of cores assigned to a given forest fire spread simulation. Each execution
configuration is obtained considering the particular values of the input data needed
for each simulation by applying a dynamic decision tree. However, in those cases
where the optimization process will drive the system to solutions whose simulation
time will prevent the system to finish on time, two different enhanced schemes have
been defined: Re-TAC and Soft-TAC. Re-TAC approach deals with the resolution of the
simulation. In particular, Re-TAC finds the minimum resolution reduction for such long
simulations, keeping accuracy loss to a known interval. On the other hand, Soft-TAC
considers the GA's population size as dynamic in the sense that none individual will be
killed for over passing the internal generations deadline, but it will be keep executing
and the population size for the subsequent GA's generation is modified according to
that. All proposed prediction strategies have been tested with past real cases obtaining
satisfactory results both in terms of prediction accuracy and in the time required to
deliver the prediction.
|
277 |
Modelos de calibración n−dimensionales para lenguas electrónicasCartas Rosado, Raúl 28 June 2012 (has links)
Las herramientas computacionales que se describen en esta tesis representan posibles alternativas de solución en la construcción de modelos de calibración multivariable a partir de datos obtenidos con arreglos de sensores electroquímicos. Tanto el trabajo experimental como las aplicaciones computacionales están dirigidos a la construcción de lenguas electrónicas de los tipos potenciométrico y voltamperométrico.
Las propuestas de solución que aquí se presentan están basadas en técnicas computacionales diseñadas para explorar grandes bases de datos en la búsqueda de patrones consistentes y/o relaciones sistemáticas entre variables, que permitan posteriormente aplicar estos modelos a nuevos datos con el fin de generar predicciones o estimaciones de resultados esperados.
Algunas de las herramientas se implementaron con redes neuronales tipo perceptrón multicapas y diferentes funciones de transferencia en las neuronas de la capa oculta. Las funciones de activación sigmoidales comúnmente usadas en las redes neuronales se sustituyeron por funciones más complejas y de poco (o nulo) uso en el área química. Para hacer compatible la estructura de la mayoría de los datos usados en esta tesis, con las entradas de las redes neuronales, se hizo un tratamiento previo de la información electroquímica usando técnicas de procesamiento mono- o multi-modales para reducir el número de variables y dimensiones.
Además de las propuestas basadas en estructuras de redes neuronales, también se ha planteado la construcción de modelos a partir de funciones base de los tipos spline truncada y B-spline. La primera se conoce como Splines Adaptativas de Regresión Multivariable (MARS) y la segunda como B-splines Adaptativas de Regresión Multivariable (B-MARS). Adicionalmente a las herramientas anteriormente descritas e implementadas como propuestas de solución, también se construyeron exitosamente modelos de calibración usando la regresión multimodo por mínimos cuadrados parciales (N-PLS). / The computational tools described in this thesis are meant to be alternative solutions to build multivariate calibration models from multi-way data obtained with arrays of electrochemical sensors. Both experimental and computational applications described herein are aimed to build electronic tongues of potentiometric and voltammetric types.
The solution proposals are based on computational techniques designed to explore large databases in search of consistent patterns and/or systematic relationships between variables, allowing then to apply these models to new data to predict or estimate expected results.
Some of the tools were implemented using multilayer perceptron neural networks with complex transfer functions (of little or no use in the chemical area) in the hidden layer neurons. To make compatible the type of structure of most of the data used in this thesis with the input of the neural networks, the electrochemical information was pretreated using mono- or multi-dimensional processing techniques in order to reduce the number of variables and dimensions.
In addition to the structres based on neural networks, we also propose to build models using base functions of the truncated spline and B-spline types. The first is known as Adaptive Regression Splines Multivariable (MARS) and the second as B-splines Multivariate Adaptive Regression (B-MARS). In addition to the tools described above and implemented as proposed solutions, we also built successfully calibration models using multi-way partial least squares regression (N-PLS).
|
278 |
Estudio de la Transferencia Electrónica Intramolecular en Sistemas Moleculares Orgánicos a partir de Especies de Valencia MixtaLloveras Monserrat, Vega 18 December 2006 (has links)
Esta Tesis está enmarcada en el emergente campo de investigación denominado electrónica molecular, que se puede definir como el estudio de procesos electrónicos medidos o controlados a escala molecular. La utilización de moléculas en circuitos electrónicos de tamaño nanoscópico representa el mayor grado de miniaturización posible, con las ventajas que ello conlleva como mayor velocidad de operación o bajo coste de fabricación. Actualmente se han realizado grandes avances en la síntesis, caracterización y ensamblaje de moléculas y existen a escala molecular: rectificadores, puertas lógicas electrónicamente configurables, dispositivos NDR (negative differential resistance), transistores de efecto de campo FET, interruptores, memorias, etc. Ahora bien, uno de los requisitos para usar cualquier componente electrónico molecular es la capacidad de unirlo o integrarlo en la estructura de un dispositivo electrónico. Para conectar una molécula a otra, son necesarios los cables o hilos de escala molecular. Es decir, no cualquier molécula con una función útil se puede considerar automáticamente como un dispositivo electrónico, sino que ha de existir una vía para interaccionar con otros componentes; de ahí la importancia de los hilos moleculares. En esta Tesis se han estudiado las propiedades conductoras de diversos compuestos moleculares orgánicos para definir su comportamiento como hilos moleculares. Un método o aproximación para estudiar el transporte de electrones a través de un hilo molecular consiste en utilizar el hilo molecular como puente de unión entre un sistema dador y otro aceptor de electrones, de manera que pueda darse una Transferencia Electrónica Intramolecular (TEI) entre ambos (transferencia de un electrón de un extremo a otro de la misma molécula). Así, se han estudiado diversos compuestos utilizando para ello especies de valencia mixta (sistemas con dos centros redox con valencia formal distinta que se encuentran unidos covalentemente a una estructura puente o hilo molecular propiamente dicho).Las moléculas estudiadas como hilo molecular han sido: tetratiafulvaleno (TTF), 1-5(p-fenilenvinileno) y diversos compuestos aza-derivados, y como centros electroactivos, los que mejor se adecuaban a las características de estas moléculas: 1,4-benzoquinona, radical perclorotrifenilmetilo (PTM) y ferroceno, respectivamente. En todas las especies de valencia mixta generadas en esta Tesis se ha demostrado la existencia de Transferencia Electrónica Intramolecular, que en la mayoría de los casos se ha podido cuantificar por UV-Vis-NIR, RPE o ambas técnicas a la vez. Esto nos ha permitido evaluar la capacidad conductora de los hilos moleculares estudiados. La interacción electrónica entre centros redox es moderada en todos los casos, por lo que las especies se pueden clasificar como de valencia mixta de Clase II.Se ha demostrado por primera vez que el tetratiafulvaleno es un buen puente molecular para mediar Transferencias Electrónicas Intramoleculares. Por primera vez se ha demostrado a partir del estado fundamental y no del fotoexcitado no sólo que los oligo(p-fenilenvinilenos) son buenos conductores, sino además la influencia de la longitud de la cadena en la barrera de energía térmica, en la velocidad de la Transferencia Electrónica Intramolecular (y por tanto en la conductividad), así como los mecanismos implicados en el proceso. Los compuestos diferrocenilos con puentes aza-derivados estudiados son también buenos hilos moleculares. Presentan interacción electrónica metal-metal en sus especies de valencia mixta y, en la mayoría de los casos también interacción ligando-metal. Por otro lado, también se ha estudiado el reconocimiento de iones metálicos por parte de estos últimos compuestos, mostrando en algún caso una complejación selectiva de iones Mg2+ o Hg2+. Se ha demostrado que el proceso de complejación/descomplejación de iones Mg2+ se puede controlar electroquímicamente de forma reversible y que se puede aprovechar esta propiedad para transportar estos iones de forma eficaz. / The work described in this Thesis is related to the area of molecular electronics, which can be defined as the study of electrical and electronic processes measured or controlled on a molecular scale. Using molecules in nanoscopic electronic circuits means the highest degree of miniaturization is achieved so that a shorter time of data processing can be reached. Nowadays some electronic components exist at the molecular scale such as rectifiers, negative differential resistance (NDR), field effect transistors (FET), switches, memory devices, etc. However, one of the requirements to using any molecular electronic component is the ability to wire it into a device architecture. To connect molecules to one another, molecular-scale wires are necessary. Therefore, describing a molecule doing some useful function does not automatically make it a molecular electronic device-there must be a way to interact with other components. Thus it is important to consider how a molecular electronic device can be wired into a circuit.In this Thesis the conducting properties of different organic molecular compounds have been studied in order to define their behaviour as molecular wires. An approach to study the electron transport through a molecular wire consists of using the molecular wire as a bridging unit between electron donor and acceptor moieties, in order to induce an Intramolecular Electron Transfer between both moieties. Different compounds have been studied using mixed valence species (systems containing two redox centres with different formal valences covalently bridged to a bridge structure or molecular wire). The molecules that have been studied as molecular wires are: tetrathiafulvalene (TTF), 1-5(p-phenylenevinylene) and some aza-derived compounds, as well as these: 1,4-benzoquinone, perchlorotriphenylmethyl radical (PTM) and ferrocene, respectively have been utilised as redox centres. All the formed mixed valence species show an Intramolecular Electron Transfer phenomenon, which can be quantified by UV-Vis-NIR, EPR or both techniques at the same time, which has permitted us to evaluate the conducting capacity of the molecules under study. In all the species the electronic interaction between both redox centres is moderate, so the species can be classified as Class II mixed valence systems.It has been demonstrated for the first time that tetrathiafulvalene is a good molecular bridge to mediate Intramolecular Electron Transfer processes. In addition, it has been demonstrated that oligo(p-phenylenevinylene) molecules (OPPV) are good conductors, making the corresponding studies in the ground state for the first time instead of in the photoexcited state as it has always been made until now. Moreover, the influence of the OPPV length in the thermal energy barrier and in the Intramolecular Electron Transfer rate constant (so that in the conductivity) has been studied as well as the possible electron transfer mechanisms involved in the process. The diferrocenyl compounds with aza-derived bridges studied are also good molecular wires. They show metal-metal electronic interactions in their mixed valence species, and almost all of them also show ligand to metal interaction. The metal ion recognition of the latter compounds has been analysed, with some showing selectivity for Mg2+ or Hg2+ ions. It has also been demonstrated that the complexation/decomplexation process of Mg2+ ions can be controlled electrochemically and reversibly and this can be applied to transport Mg2+ ions effectively.
|
279 |
Escenografia electrònica a la televisió de l'Estat Espanyol. Inicis, evolució i tendènciesBernadas Suñé, Dolors 16 October 2001 (has links)
Una nova escenografia, a partir de l'aplicació de les noves tecnologies de la imatge, es va evidenciar en les pantalles de diversas cadenas de la televisión española en la darrera dècada del segle XX. Definim l'escenografia electrònica com "el continent, l'embolcall d'un produte audiovisual. Aquest embalatge, generat per mitjans electrònicos acompanya al presentador / actor / comunicador i només es fa present en el visionat final de la pantalla del televisor". L'escenografia, i per extensió tot alló que té a veure amb la imatge, és un dels constituents fonamentals d'un programa de televisió. Malgrat aquesta importància manifesta, els estudis al voltant de la imatge són els grans absents en el món de la investigació que se centra més en l'anàlisi dels continguts, segurament per una major facilitat per acotar-los i mesurar-los. Els usos escenogràfics que permeten les noves tecnologies, aquest conjunt inesgotable d'imatges que sorgeixen dels ordinadors en la seva aplicació infogràfica, estan creant noves formes de treballar i de veure la televisió. Aquests usos inèdits (l'escenografia electrònica formava part ja de la informació meteorològica) van servir per a plantejar la hipòtesi de partida del treball d'investigació que considera aquesta tipologia escenogràfica electrònica com la genuïnament televisiva, aplicable amb facilitat als gèneres més específicament televisius. Tot i aquesta facilitat en la implementació, l'escenografia electrònica implica uns canvis en la producció televisiva en general i en l'actuació dels presentadors de televisió en particular que necessiten d'unos assajos previs, d'una coreografia determinada, per a gestionar l'escenografia que, en el seu contacte directe, no existeix.L'estudi està basat en l'anàlisi de dues setmanes mostra (1997 i 1999) d'enregistrament de set canals de televisió generalista de l'estado espanyol (TVE, La 2, TV3, Canal 33, Tele 5, Antena 3 TV i Canal + en les seves emissions en obert). Del global d'aquests enregistraments se n'extreuen les dades d'aquells programes construits amb escenografia electrònica. En l'anàlisi final s'observa que els programes infantils treballen amb una escenografia més imaginativa i amb una coreografia interpretativa, que cobreix uns continguts nous. D'altra banda, els programes d'informació meteorològica ofereixen una escenografia informativa amb coreografia demostrativa per a transmetre uns continguts explicatius. Els programes construits amb escenografia electrònica col·loquen aquest element como el principal i cohesionador de la imatge televisiva. Així, els enquadraments que propicien els tradicionals plans curts, obligats per les petites dimensions de la pantalla del televisor, desapareixen amb l'escenografia electrònica que necessita fer-se evident; amb aquest canvi de protagonisme el presentador passa a un segon terme i li està subordinat: l'escenografia electrònica reclama ser mostrada. La implantació de l'escenografia electrònica, amb un gran poder d'atracció entre els espectadores, sobretot joves, és encara molt limitada i depén de factors creuats. / A new scenery, starting from the application of the new technologies of the image, was evidenced in the screens of diverse chains of Spanish television in the last decade of the XX century. We define the electronic set as "the continent, the encircling of an audiovisual product. This encircling one, generated by electronic means accompanies the bearer / actor / communicator and only it becomes present in the final sight of the screen of the television." The scenery, and for extension everything that that has to do with the image, is one of the fundamental constituents of a television program. In spite of this apparent importance, it is surely absent one of the big ones in the world of the investigation that is centered more in the analysis of the contents, for a bigger easiness to delimit them and to measure them. The scenery uses that allow the new technologies, that inexhaustible group of images that you/they arise of the computers in its infographic application, is creating new forms of working and of seeing the television. These unpublished uses (it was already part of the meteorological information) they were good to outline the departure hypothesis that considers this tipology electronic sets as the genuinely television one, applicable with easiness to the more goods specifically television. In spite of this easiness in the implementation, the electronic scenery implies some changes in the television production in general and in the performance of the television bearers in particular that they need of some previous rehearsals, of a certain choreography, to negotiate the scenery that, in its direct contact, it doesn't exist. The study is based on two weeks sample (1997 and 1999) of recording of seven channels of television of the Spanish state (TVE, The 2, TV3, Channel 33, Tele 5, Antenna 3 TV and Channel + in its emissions in open) Of these recordings the data of those built programs are extracted with electronic scenery. In the final analysis it is observed that the infantile programs offer an imaginative scenery with an interpretive choreography that covers some new contents. On the other hand, the programs of meteorological information offer an informative scenery with demonstrative choreography to transmit some explanatory contents. The built programs with electronic scenery place this element like the main of the television image. This way, the traditional short alignments, forced by the small dimensions of the screen of the television, disappear with the electronic scenery that he/she needs to become evident; the bearer he is subordinate and the scenery claims to be shown. The installation of the electronic scenery, with great power of attraction among the spectators, overalls youths, it is even very limited and it depends on crossed factors.
|
280 |
HW-SW components for parallel embedded computing on Noc-based MPSoCsJoven Murillo, Jaume 15 March 2010 (has links)
Recentment, en el camp del sistemes encastats, estem assistint al creixement de sistemes Multi-Processor System-on-Chip (MPSoC). El paradigma de Network-on-chip (NoC) s'ha proposat una solució viable, eficient, escalable, predictible i flexible per connectar components dins un xip, o inclús sistemes complets basats en busos dins al xip amb la finalitat de crear sistemes altament complexos. Així, el paradigma de computació encastada d'altres prestacions està arribant a través d'integrar hardware altament paral·lel amb llibreries software per obtenir una màxima integració a nivell de plataforma utilitzant de components prèviament dissenyats (IP cores), en la forma de arquitectures NoC-based MPSoCs. No obstant, quan el nombre de components augmenta hi ha diversos desafiaments i problemes a resoldre. El primer repte és el disseny d'una xarxa d'interconnexió que proporcioni qualitat de servei assegurant un cert ample de banda i latència entre cada bloc del sistema, amb el mínim area i consum possible. Ja que l'espai de disseny en arquitectures NoCs és enorme, s'han de desenvolupar entorns de simulació, i verificació per explorar validar i optimitzar múltiples NoC arquitectures. El segon objectiu, que és actualment un forat de recerca, és proveir models de programació paral·lela flexibles i eficients sobre les arquitectures NoC-based MPSoCs. Així, és obligatori l'ús de llibreries software lleugeres capaces d'explotar la capacitats del hardware present a la plataforma d'execució. Fent servir aquestes llibreries software permetrà els programadors reutilitzar i programar de manera fàcil aplicacions paral·leles dins un xip. Finalment, per obtenir un sistema eficient, un punt clau és el disseny de les interfícies HW-SW apropiades. Aquest fet és crucial in multi processadors heterogenis on els paradigmes de programació paral·lela and middleware han d'abstreure els recursos de comunicació durant l'especificació d'aplicacions software. El principal objectiu d'aquesta tesis és enriquir les emergents arquitectures NoC-based MPSoC explorant i fent contribucions de caire científic afrontant els nous reptes apareguts aquest últims anys. Aquesta tesis es focalitza en els següents temes: Descripció of un entorn experimental anomenat NoCMaker per realitzar exploració arquitectural de sistemes NoC-based MPSoC, permetent alhora una validació i prototipatge ràpid. Extensió de les interfícies de xarxa per controlar tràfic heterogeni de diferents estàndards (AMBA AHB, OCP-IP) amb la finalitat de reutilitzar i comunicar de manera transparent múltiple IP cores des del punt de vista de l'usuari. Proporcionar qualitat de servei en temps d'execució a traves de components hardware a la NoC, i de rutines middleware en software. Exploració de les interfícies HW-SW i la compartició de recursos quan una unitat de punt flotant es connecta com a coprocessador a un sistema NoC-based MPSoC. Migració de paradigmes de programació paral·lela, com memòria compartida i pas de missatges en arquitectures NoC-based MPSoCs. En aquesta tesis presentem el desenvolupament d'un model de programació paral·lela basat en pas de missatges (MPI), anomenat on-chip MPI. Això permet el disseny de programes paral·leles distribuïts a nivell de tasca o funció fent servir la programació paral·lela explicita amb els mètodes de sincronia entre els elements integrats en el xip. Proporcionant qualitat de servei en temps d'execució a sobre d'una llibreria OpenMP dissenyada per sistemes de memòria compartida amb la finalitat d'accelerar o balancejar aplicacions critiques i fils d'execució durant la seva execució. Tots els reptes explorats durant aquesta tesi doctoral estan formalitzats en una metodologia hardware-software centrada en la infraestructura de comunicació de la plataforma. Així, el resultat d'aquest treball d'investigació serà una plataforma cluster-on-chip per una computació paral·lela encastada d'altes prestacions, on els components hardware and software poden ser reutilitzats a diverses nivells d'abstracció. / Recently, on the on-chip and embedded domain, we are witnessing the growing of the Multi-Processor System-on-Chip (MPSoC) era. Network-on-chip (NoCs) have been proposed to be a viable, efficient, scalable, predictable and flexible solution to interconnect IP blocks on a chip, or full-featured bus-based systems in order to create highly complex systems. Thus, the paradigm to high-performance embedded computing is arriving through high hardware parallelism and concurrent software stacks to achieve maximum system platform composability and flexibility using pre-designed IP cores. These are the emerging NoC-based MPSoCs architectures. However, as the number of IP cores on a single chip increases exponentially, many new challenges arise. The first challenge is the design of a suitable hardware interconnection to provide adequate Quality of Service (QoS) ensuring certain bandwidth and latency bounds for inter-block communication, but at a minimal power and area costs. Due to the huge NoC design space, simulation and verification environments must be put in place to explore, validate and optimize many different NoC architectures. The second target, nowadays a hot topic, is to provide efficient and flexible parallel programming models upon new generation of highly parallel NoC-based MPSoCs. Thus, it is mandatory the use of lightweight SW libraries which are able to exploit hardware features present on the execution platform. Using these software stacks and their associated APIs according to a specific parallel programming model will let software application designers to reuse and program parallel applications effortlessly at higher levels of abstraction. Finally, to get an efficient overall system behaviour, a key research challenge is the design of suitable HW/SW interfaces. Specially, it is crucial in heterogeneous multiprocessor systems where parallel programming models and middleware functions must abstract the communication resources during high level specification of software applications. Thus, the main goal of this dissertation is to enrich the emerging NoC-based MPSoCs by exploring and adding engineering and scientific contribution to new challenges appeared in the last years. This dissertation focuses on all of the above points: by describing an experimental environment to design NoC-based systems, xENoC, and a NoC design space exploration tool named NoCMaker. This framework leads to a rapid prototyping and validation of NoC-based MPSoCs. by extending Network Interfaces (NIs) to handle heterogeneous traffic from different bus¬based standards (e.g. AMBA, OCP-IP) in order to reuse and communicate a great variety off-the-shelf IP cores and software stacks in a transparent way from the user point of view. by providing runtime QoS features (best effort and guaranteed services) through NoC-level hardware components and software middleware routines. by exploring HW/SW interfaces and resource sharing when a Floating Point Unit (FPU) co¬processor is interfaced on a NoC-based MPSoC. by porting parallel programming models, such as shared memory or message passing models on NoC-based MPSoCs. We present the implementation of an efficient lightweight parallel programming model based on Message Passing Interface (MPI), called on-chip Message Passing Interface (ocMPI). It enables the design of parallel distributed computing at task-level or function-level using explicit parallelism and synchronization methods between the cores integrated on the chip. by provide runtime application to packets QoS support on top of the OpenMP runtime library targeted for shared memory MPSoCs in order to boost or balance critical applications or threads during its execution. The key challenges explored in this dissertation are formalized on HW-SW communication centric platform-based design methodology. Thus, the outcome of this work will be a robust cluster-on-chip platform for high-performance embedded computing, whereby hardware and software components can be reused at multiple levels of design abstraction.
|
Page generated in 0.0478 seconds