• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 298
  • 104
  • 64
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 498
  • 118
  • 101
  • 98
  • 85
  • 71
  • 58
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Desarrollo y validación de un sistema basado en ENFET para aplicación en Diálisis

Silva Cárdenas, Carlos Bernardino 16 February 2009 (has links)
El trabajo de investigación que se describe en la presente memoria se plantea como objetivo el desarrollo de un EnFET con aplicación clínica en la medición de la concentración de urea de manera indirecta en líquido dializado para propósito de diagnóstico clínico más rápido, exacto y utilizando pequeñas cantidades de componentes químicos, específicamente en diálisis. El ENFET implementado atiende a la reacción química en donde la urea es catalizada por la enzima ureasa, utilizando una membrana enzimática con la ureasa como la enzima escogida. Para conseguir el objetivo planteado, se ha diseñado y puesto a punto la tecnología de fabricación del ISFET. Sobre la base de los resultados obtenidos por el propio autor en el desarrollo de su tesina, se ha desarrollado el tratamiento previo del transductor ISFET, su acondicionamiento y obtención de la sensibilidad adecuada para la aplicación clínica que se persigue. Se ha puesto también a punto el proceso de formación de la membrana enzimáticaconveniente, así como la técnica de inmovilización de la enzima ureasa y la "fijación" de la enzima ureasa sobre el transductor ISFET. La fijación de la membrana es uno de los puntos críticos del micro-sensor puesto que el período de vida del dispositivo depende totalmente de la "calidad" de la misma. Finalmente se han caracterizado en laboratorio los dispositivos EnFET obtenidos.El trabajo realizado ha generado un ENFET de fácil industrialización, con un tiempo de vida superior a dos meses y medio, eficiente para la medida indirecta de la concentración de urea en sangre a partir de la medida de la concentración de urea en el líquido dializado. El dispositivo se ha verificado en laboratorio realizando medidas de la concentración de urea sobre muestras ideales y comparando las medidas obtenidas con el dispositivo con medidas realizadas según procedimientos analíticos convencionales.Los parámetros del ENFET que reflejan su excelente calidad son Sensibilidad (mV/dec urea): 77.02; Límite inferior de respuesta lineal: 3.10-4 M; Rango lineal de Detección: 3.10-4 M - 2.10-3 M ;Tiempo de respuesta: 90s; Estabilidad del potencial medido: ±0.3mV; Tiempo de vida: 75 días. Los ENFETs desarrollados fueron sometidos a pruebas de reproducibilidad o repetitividad de la respuesta observándose que satisfacen ampliamente los requerimientos consistentes en que se obtienen valores de potencial eléctrico de valores similares en 10 mediciones efectuadas en dos días consecutivos. La desviación de los valores medidos respecto al valor promedio (253.61mV) aparece entre -0.34mV a 0.50mV. Estos valores del potencial eléctrico que aparece en la interfase membrana enzimática-óxido del ISFET, prácticamente constantes, y que esta relacionado en forma indirecta con la concentración de urea en la solución, permiten asegurar el buen desempeño del ENFET en pruebas reales en trabajo continuo. Posteriormente, el dispositivo se ha validado en aplicación realizando medidas de concentración de urea en muestras de liquido dializado de pacientes del Hospital Parc Tauli recogidas en distintas etapas del proceso de diálisis y procediendo a comparar y hacer las correlaciones respectivas con los valores medidos sobre las mismas muestras por un laboratorio comercial mostrándose que la diferencias en las medidas son del orden de 2.5%.
102

Design and fabrication of miniaturised electroanalytical systems

Godino Amado, Neus 18 March 2010 (has links)
La miniaturització de dispositius és sens dubte un procés més complex que la simple reducció de les seves mides. Aquesta tesi es centra en la miniaturització de dispositius d'electroanàlisis basats en detecció amperomètrica. Des del punt de vista de la detecció, la definició més acceptada de microelèctrode el defineix com un elèctrode pel qual una de les seves dimensions és inferior a la capa de difusió. En aquests cassos, la contribució de la difusió radial al perímetre del microelèctrode té un pes molt important en el valor del corrent global. Des del punt de vista de la integració, la reducció de la mida dels dispositius i la seva integració en sistemes microfluídics comporta una sèrie d'avantatges com: portabilitat, fiabilitats, reducció del consum de volum de la mostra i de reactius, així com l'automatització de l'anàlisi. Aquesta tesi s'ha centrat en dos objectius fonamentals: l'estudi i l'optimització de la detecció utilitzant models basats en elements finits, així com la integració dels detectors en sistemes microfluídics. Primer es van realitzar models sobre tècniques amperomètriques bàsiques, simulant tant el cas de macroelèctrode com el de microelèctrode. Una vegada capaços de modelar aquestes tècniques, els models van ser aplicats a la predicció del comportament de dispositius reals. El primer dispositiu modelat va ser un microrespiròmetre. Utilitzant simulacions, hem estat capaços d'extreure informació metabòlica d'un biofilm en aquest complicat sistema, on va ser necessari el càlcul de paràmetres de transport de l'oxigen a través de les diferents capes de materials que composaven el mateix. Més tard, el coneixement acumulat en el modelatge de matrius de microelèctrodes va ser aplicat al modelatge de matrius de nanoelèctrodes, els quals són un pas natural en el procés de miniaturització. En aquest cas, van ser necessaris models en tres dimensions per tal de descriure el procés de transport de matèria, ja que la contribució de la difusió radial, prèviament mencionada, és encara més important i fa impossible la reducció dels models a dues dimensions. A l'última part de la tesi, es van integrar microelèctrodes en sistemes microfluídics. En aquests dispositius es van combinar l'ús de partícules magnètiques amb detecció electroquímica, sent possible desenvolupar dispositius aplicables a un ampli rang de bioassajos. Els dispositius van ser fabricats utilitzant tècniques de prototipatge ràpid en polímers. L'objectiu era crear un sistema versàtil de fàcil ús al laboratori, així com de fàcil modificació, que pugui ser modificat en funció de les demandes de les diferents aplicacions. Aquest sistema va ser posteriorment optimitzat incloent una microvàlvula. Gràcies a l'ús d'aquest component actiu és possible minimitzar un dels problemes més importants en l'electroquímica, com és el deteriorament de la superfície dels elèctrodes. A més a més, és possible integrar i realitzar processos de biofuncionalització en el mateix dispositiu, ja que la càmera de detecció es manté en tot moment independent de la resta del sistema. Un dels reptes de l'esmentada integració d'aquesta vàlvula va ser la seva fabricació utilitzant els mateixos materials i els mateixos processos de prototipatge que la resta del microdispositiu.
103

Extending the Usability of a Dynamic Tuning Environment

Caymes Scutari, Paola Guadalupe 19 July 2007 (has links)
La demanda de cómputo de altas prestaciones está en constante especialmente en el área científica ya que debe resolver problemas complejos. En general, el volumen de datos y las operaciones que deben realizarse sobre ellos requieren la utilización de sistemas muy potentes. Ello ha conducido a una mayor utilización del paradigma paralelo/distribuido. El proceso de optimización, denominado proceso de sintonización, es el proceso mediante el cual el comportamiento de la aplicación es adaptado y mejorado a travÎs de la modificación de sus parámetros críticos. El proceso de sintonización incluye varias fases. En primer lugar, durante una fase de monitorización se recoge información acerca del comportamiento de la aplicación. A continuación, dicha información es analizada para detectar problemas, deducir las causas y determinar soluciones. Finalmente, deben aplicarse los cambios necesarios en el código de la aplicación para resolver el problema y así mejorar su rendimiento. Afortunadamente, existen diferentes herramientas y aproximaciones para ayudar a los usuarios en las diferentes fases de optimización (monitorización, análisis o sintonización). Una de las herramientas disponibles es MATE (Monitoring, Analysis and Tuning Environment), un entorno para la sintonización dinámica y automática de aplicaciones paralelas. MATE, como su nombre indica, consiste en tres fases continuas e iterativas para adaptar el comportamiento de la aplicación de acuerdo al estado actual del ambiente de ejecución. El conocimiento que utiliza MATE para sintonizar los problemas de rendimiento es encapsulado en módulos de software denominados "tunlets". Cada tunlet provee la lógica necesaria para recolectar información de la ejecución de la aplicación, analizarla y decidir cuáles son las acciones de sintonización necesarias. El objetivo del presente trabajo es extender la usabilidad de MATE, cubriendo dos aspectos diferentes de MATE: - la mejora del rendimiento alcanzado por el análisis centralizado realizado por MATE, dado que representa un cuello de botella cuando la aplicación crece. En este trabajo presentamos una alternativa para lograr que MATE escale. - hacer de MATE una herramienta más amigable para facilitar la inclusión de conocimiento en MATE. De esta manera, se logra que MATE sea transparente. Respecto del primer aspecto, se propone una nueva aproximación para ejecutar el proceso de análisis, denominada Distributed-Hierarchical Collecting-Preprocessing Approach. Esta nueva aproximación se basa en la recolección distribuida de eventos lo que alivia la recolección centralizada realizada por MATE en su implementación original, así como también el preprocesamiento de las operaciones acumulativas o comparativas, siempre que sea posible. De esta manera, el Global Analyzer recibe de cada Collector-Preprocessor una estructura que condensa resumida sólo la información necesaria para la evaluación global de modelo de rendimiento, lo que reduce considerablemente la sobrecarga sufrida en la aproximación centralizada. De esta manera, MATE presenta propiedades de escalabilidad. Respecto del segundo aspecto, se propone una metodología, incluyendo un lenguaje y un traductor dise-ados y desarrollados ad hoc para insertar tunlets (conocimiento) en MATE de forma automática. Utilizando la metodología propuesta, el usuario no necesita entrar en detalles de implementación de MATE. Así, mediante la definición de un conjunto de abstracciones sobre la aplicación y sobre el modelo de rendimiento, las abstracciones pueden formalizarse en la especificación de un tunlet por medio del lenguaje propuesto. Tal especificación será automáticamente traducida en un tunlet listo para utilizarse en MATE. Escalabilidad y transparencia son dos cualidades necesarias en MATE para que sea una herramienta más útil y amigable para los usuarios. Las propuestas presentadas intentan proveer MATE con tales características. La experimentación, confirma la viabilidad de las propuestas. / In the last years, computing performance demand has been in increase specially in the scientific field that has to solve complex problems. In general the data set size and the complexity of the operations over them require the use of very powerful systems. Thus, the increasing necessity for high performance systems/computing has been directing the attention of the scientific field towards the parallel/distributed paradigm. The optimization process, so-called tuning process, is the process followed in order to adapt and improve the behaviour of the applications by modifying their critical parameters. It includes several and successive phases. Firstly, during a monitoring phase the information about the behaviour of the application is captured. Next, the information is analyzed, by looking for bottlenecks, deducing their causes and trying to determine the adequate actions to eliminate them. Finally, appropriate changes have to be applied to the code to solve the problems and improve the performance. Fortunately, through the years different approaches and tools have been developed with the aim of helping the user during some of the optimization phases (monitoring, analysis or tuning phases). One of the available tools is MATE (Monitoring, Analysis and Tuning Environment), which is an automatic and dynamic tuning environment for parallel applications. MATE works in three continuous and iterative phases in order to adapt the deployment of the application according to the current state of the execution environment. MATE includes the knowledge to tune performance problems in pieces of software called --tunlets'. Each tunlet includes the logic to collect behavioural information, analyze it on the fly and decide what the required tuning actions are. The objective of this work is to extend the usability of MATE. Our work covers two different aspects of MATE: - the improvement of the performance reached by the centralized analysis executed by MATE, due to it turns in a bottleneck as the size of the application increases. Thus, we provide an alternative to make MATE scalable. - the increase in the user-friendliness of MATE in order to facilitate the inclusion of new performance knowledge in it. Thus, we make MATE transparent for the users. According to the first aspect, we propose a novel approach to execute the analysis process, called Distributed-Hierarchical Collecting-Preprocessing Approach. This approach is based on the distributed collection of events which alleviates the centralized old-fashion in which collection was done, and in the preprocessing of cumulative or comparative operations as possible. Thus, the Global Analyzer receives just the necessary information condensed in a unique message from each Collector-Preprocessor, which considerably reduces the overload of Global Analyzer. In this way, MATE is provided with scalability properties. According to the second aspect, we provide a methodology, including a designed language and a developed translator to automatically insert tunlets (knowledge) in MATE. When some problem has to be tuned in a parallel application the user has to develop the corresponding tunlet. By using our methodology, the user is exempted from being involved in implementation details of MATE. Thus, by defining a set of abstractions about the application and the performance model, such abstractions can be formalized in a tunlet specification using the provided language. Such specification will be automatically translated in a tunlet ready to be used in MATE. Both scalability and transparency of MATE are qualities necessary to make MATE a more useful and user-friendly tool. The proposals and developments presented attempt to provide MATE with such characteristics. Experiments showed the viability of the proposals.
104

Scheduling for Interactive and Parallel Applications on Grids

Fernández del Castillo, Enol 07 November 2008 (has links)
La computación grid constituye uno de los campos más prometedores de los sistemas informáticos. La próxima generación de aplicaciones científicas se beneficiará de una infraestructura de gran escala y multi organizacional que ofrece más potencia de cómputo de la que puede ofrecer cualquier institicuón de forma individual. Los sistemas grid necesitan planificadores de alto nivel que gestionen de forma adecuada los recursos distribuídos en varias organizaciones. Estos sistemas de gestión de recursos grid deben tomar decisiones de planificación sin realmente poseer los recursos y sin tener control total sobre las aplicaciones que en dichos recursos se ejecutan, introduciendo nuevos desafíos a la hora de realizar la planificación de aplicaciones. Aunque los sistemas grids consisten de muchos recursos y las aplicaciones enviados a estos sistemas pueden aprovechar estos recursos usándolos de forma coordinada, la mayoría de los sistemas de gestión de recursos se han centrado en la ejecución de aplicaciones secuenciales, convirtiendo el grid en un gran sistema multi-sitio donde las aplicaciones se ejecutan de forma batch.Sin embargo, en esta tesis nos hemos centrado en un tipo de aplicaciones que ha recibido poca atención hasta el momento: paralelas e interactivas. Las aplicaciones interactivas requieren la posibilidad de iniciar en un futuro inmediato su ejecución. Además, durante su ejecución es necesario proveer de mecanismos que establezcan un canal de comunicación entre el usuario y la aplicación. En el caso de las aplicaciones paralelas, es necesaria la co-asignación, es decir garantizar la disponibilidad simultánea de los recursos cuando la aplicación necesite usarlos. En este trabajo proponemos una nueva arquitectura para la ejecución de estos tipos de aplicaciones y una implementación de la misma: el gestor de recursos CrossBroker. Esta arquitectura incluye mecanismos que permiten la co-asignación de aplicaciones paralelos y la interacción de los usuarios con las aplicaciones en ejecución. Adicionalmente, con la introducción de un mecanismo de multiprogramación, proporcionamos un inicio de aplicaciones rápido incluso en escenarios de alta ocupación de los recursos. / Grid computing constitutes one of the most promising fields in computer systems. The next generation of scientific applications can profit from a large-scale, multi-organizational infrastructure that offers more computing power than one institution alone is able to afford. Grids need high-level schedulers that can be used to manage the resources spanning different organizations. These Grid Resource Management Systems (GRMS) have to make scheduling decisions without actually owning the grid resources, or having full control over the jobs that are running there. This introduces new challenges in the scheduling process done by the GRMSs. Although grids consist of many resources, and jobs submitted to grid may benefit from using them in a coordinated way, most of the Grid Resource Management Systems have focused on the execution of sequential jobs, with the grid being a large multi-site environment where jobs run in a batch-like way.However, in this work we concentrate on a kind of jobs that have received little attention to date: interactive and parallel jobs. Interactive jobs require the possibility of starting in the immediate future and need mechanisms to establish a communication channel with the user. Parallel applications introduce the need for co-allocation, guaranteeing the simultaneous availability of the resources when they are accessed by the applications. We address the challenges of executing such jobs with a new architecture for a GRMS and an implementation of that architecture called the CrossBroker. Our architecture includes mechanisms to allow the co-allocation of parallel jobs and the interaction of users with running applications. Additionally with the introduction of a multi-programming mechanism, a fast startup of jobs even in high occupancy scenarios is provided.
105

Predicción de la Evolución de los Incendios Forestales Guiada Dinámicamente por los Datos

Denham, Mónica Malen 17 July 2009 (has links)
Desde hace años los incendios forestales son una amenaza para la calidad de vida en nuestro planeta, dado que la cantidad y magnitud de los mismos se ha incrementado de forma alarmante. Actualmente, existe un intenso trabajo para la lucha contra estos incendios y la disminución rápida y efectiva de su avance, de sus consecuencias y de sus peligros. La predicción del comportamiento del fuego en incendios forestales es un tema que se está desarrollando hace tiempo en este marco. Desde la informática, se han desarrollado diversos simuladores del comportamiento del fuego en incendios forestales [3] [4] [5] [14] [17]. Estos simuladores calculan el avance del fuego, dependiendo de su estado inicial y de las características del lugar donde dicho incendio se desarrolla. Esto es, características de la topografía, vegetación [2], humedad del combustible, humedad relativa del ambiente, estado del viento, etc. Estos simuladores son utilizados para predecir el avance del fuego en un lugar y momento específicos. En este marco, una predicci ón es realmente útil si es de buena calidad (se corresponde con la real propagaci on del fuego) y si la respuesta est a dentro de un llímite de tiempo acotado. Por lo tanto, necesitamos simulaciones con alta calidad de respuesta, que realmente realmente reflejen el real avance del fuego, y respuestas que se obtengan velozmente, minimizando el tiempo de la misma. Estos dos factores son necesarios y determinan caracter ísticas importantes de nuestro trabajoUn problema frecuentemente encontrado en la utilización de estas herramientas informáticas para predecir el comportamiento del fuego es la cantidad y complejidad de los datos de entrada. Normalmente, este tipo de simuladores necesita numerosos datos de entrada, que describan de forma correcta el entorno donde se desarrolla el fuego. Topografía, meteorología y vegetación del entorno del fuego deben estar descriptos de forma adecuada en el nivel de abstracción y detalle que el simulador utilizado requiera. En la realidad, es muy difícil disponer de una correcta descripción de todas estas variables (y sus interacciones). Esta dificultad radica principalmente en: naturaleza dinámica de algunos factores (que varían y siguen su propio patrón de comportamiento), parámetros que no pueden ser medidos directamente (por lo que se utilizan estimaciones de los mismos), parámetros que no pueden ser medidos en todos los puntos (utilizándose interpolaciones), mapas (topográficos, vegetación, etc.), los cuales pueden estar desactualizados, o utilizar discretizaciones que representan de forma incorrecta las características que están representando, etc. Es necesario disponer una correcta descripción del entorno del fuego, dado que predicciones con datos de entrada que no sean correctos, no serán útiles, pues predecirán un fuego en un entorno que no es el real. En este trabajo de investigación se ha propuesto un framework donde se tiene como objetivo mejorar la calidad de los datos de entrada del simulador utilizado. Además, se pone gran esfuerzo en minimizar los tiempos de respuesta. En este trabajo se utiliza el simulador fireLib [5], un simulador que implementa el modelo de propagación de fuego desarrollado por Rothermel [20] [21]. Para mejorar la calidad de los datos de entrada, se realiza un procesamiento sobre el espacio de búsqueda que es el resultado de considerar todas las posibles combinaciones de los parámetros de entrada en sus rangos de variación. Esto da como resultado un espacio de búsqueda muy grande. Con el objetivo de evitar que esta búsqueda penalice el tiempo de respuesta, se utiliza un algoritmo genético [16] [19] guiado dinámicamente por los datos: Dynamic Data Driven Genetic Algorithm [7] [8] [9]. Se ha desarrollado este framework que consta de dos etapas [1] [6]: etapa de ajuste y etapa de predicción. Durante la etapa de ajuste, se buscará la mejor combinación de los datos de entrada para el incendio que se desea predecir. Un individuo del Algoritmo Genético, es una combinación determinada de valores para los parámetros de entrada del simulador utilizado. El objetivo de la etapa de ajuste es encontrar el mejor individuo, el que minimice el error en la simulación del avance del fuego. Para esto, se consideran tres instantes de tiempo en el avance del fuego: ti, ti+1 y ti+2. Los primeros dos instantes, se utilizarán durante la etapa de ajuste para buscar valores correctos de los parámetros de entrada. A su vez, la predicciá para el ultimoon efectiva se realizar´´instante de tiempo (ti+2). De esta forma, se simula el avance del fuego desde el instante ti hasta el instante ti+1. El resultado de la simulación es comparada con el avance del fuego real para ese mismo instante de tiempo. El resultado de esta comparación sirve como feedback para mejorar la elección de los valores de entrada. El resultado de la etapa de ajuste es un unico individuo, él que ha mostrado la simulación de mayor calidad. Luego, este individuo es utilizado como entrada para la etapa de predicción, la cual recibe el mapa del incendio en el instante ti+1 para predecir el avance del fuego hasta el instante de tiempo ti+2. De esta forma, durante la etapa de predicción se está buscando un conjunto de parámetros de entrada que representen de forma correcta el entorno del fuego que se desea predecir. Estos valores que logran buenas simulaciones (por lo tanto, buena descripción del entorno del fuego), son utilizados en la etapa posterior para obtener la predicción. Esta forma de trabajo, se basa en la hipótesis de que las características del entorno se mantengan durante las etapas que dicho proceso involucra (etapas de ajuste y predicción). De esta forma, el algoritmo genético recorre el espacio de búsqueda y descubre buenos valores para los parámetros de entrada en base a la comparación con el mapa del avance real del fuego. Esta forma de trabajo, permite mejoras en el algoritmo genético y estas mejoras son las principales aportaciones de este trabajo. Se proponen y desarrollan dos métodos para guiar el algoritmo genético. Ambos se basan en conocimiento aportado por el análisis del mapa del fuego real. De esta forma, el avance real del fuego desde el instante ti hasta el instante ti+1, aporta características que permiten definir datos útiles del entorno, los cuales se inyectan de forma dinámica durante el algoritmo genético para guiar la búsqueda hacia zonas con valores correctos para los parámetros de entrada. Aunque muchos factores influyen en el comportamiento del fuego, es sabido que la pendiente del terreno y el viento son factores determinantes en la forma y la velocidad de avance del fuego. En nuestra aplicación, se considera que las características del terreno son conocidas (pendiente y orientación de la misma, parámetros estáticos en el tiempo). Mediante el análisis del avance del fuego real desde el instante de tiempo ti hasta el instante ti+1 se obtienen sus principales características, y gracias a la composición de esta información con los datos de la pendiente, se puede determinar cuáles son las condiciones necesarias del viento para lograr un avance similar al real observado. Entonces, en vez de que la combinación del viento y pendiente determinen el avance del fuego, en nuestro caso, conociendo el avance del fuego y la pendiente, determinamos los valores del viento necesarios para que haya ocurrido el avance del fuego observado. De esta forma, se inyecta este conocimiento para mejorar la calidad en los datos de entrada y converger de manera más rápida hacia buenos resultados. Teniendo en cuenta que el viento es un factor dinámico, que tiene su propio patrón de comportamiento (el cual es muy difícil de predecir en el entorno de un incendio), se está inyectando valores para el mismo obtenidos a partir de la propagación real del fuego. El framework desarrollado constó de una primera implementación secuencial y de otra paralela, la cual permite aprovechar los recursos de hardware paralelos disponibles en la actualidad. Además, se han desarrollado dos métodos para guiar dinámicamente el algoritmo genético [10] [11] [12] [13]: método computacional y método analítico. El método computacional es totalmente independiente del simulador subyacente y del framework en sí. Utiliza una base de datos con información de distintos incendios para encontrar los valores necesarios. A su vez, el método analítico fue desarrollado como método de validación del primero, y se basa en los cálculos hechos por el simulador, por lo tanto, totalmente dependiente del mismo. La implementación en paralelo del algoritmo fue realizada utilizando el paradigma master/worker [15] [18], donde el total de los individuos de cada población es distribuida entre los distintos workers. El trabajo se ha distribuido de forma tal que cada worker realiza la simulación y la comparación con el mapa real con un grupo de individuos de la población. De esta forma se han distribuido las poblaciones de individuos, donde la aplicación muestra más requerimiento de tiempo de CPU. Distribuyendo los individuos en grupos, se logra balance de carga y disminuir la comunicación, aumentando la granulaidad de la aplicación. Se han desarrollado distintas pruebas con mapas sintéticos (esto es, avances de fuegos simulados) como así también con mapas reales. Los resultados obtenidos son satisfactorios, guiar la búsqueda del algoritmo genético ha logrado aumentar la calidad de las simulaciones, por lo tanto de las predicciones. Los resultados del método computacional fueron corroborados por correlación con los resultados del método analítico. Además, el algoritmo paralelo permite utilizar poblaciones de mayor dimensión, lo que mostró mejorar los resultados sin penalizar el tiempo de respuesta. También, la disminución del error en las simulaciones en este método que incluye una primer etapa de ajuste mostró ser mucho más efectiva (más calidad de predicción) que cuando no se hace este preprocesamiento con los parámetros de entrada. Se ha logrado mejorar las predicciones, sin mejorar el simulador, sino, mejorando la calidad en los parámetros utilizados. El método propuesto se ha implementado de forma tal que el simulador se vea como una "caja negra", la cual se puede cambiar y el método sería aún útil (con los cambios necesarios en formato de entradas y salidas). / Forest fires are part of natural balance in our planet. Natural fires are provoked by natural factors combination: dry seasons, favorable fuel moistures, electrical storms, volcanoes, earth¬quakes, etc. Natural forest fires can devastate overall forests as well as productive forest areas, farms, etc. Nowadays, human is arduously working on this problem in order to avoid and to reduce forest fires damages. As results of this effort there exist different kind of studies, strategies and tools used to prevent fires, to define risk areas and to reduce the fire effects when a disaster occurs. Forest fire control and manage are complex tasks, due to forest fires are related with weather, topography, human population, fire aspects, etc., having all of them its own behavior pattern. Furthermore, there exist several behavior interactions between them, that determine additional behavior characteristics, resulting in very complex fire behavior pattern. This problem is nowadays studied by di_erent areas. Technology is not an exception, and informatics tools are continuously developed. One of the most important computer tool for forest fires are forest fire behavior simulators. These kind of simulators determine the advance of the fire line, taking into account beginning fire state, topography conditions, weather aspects, fuel characteristics, etc [3], [4], [5] [14] [17] [20] [21]. Furthermore, this kind of problem has the additional requirement that time constraints add. A forest fire prediction is really useful when it is available before the real fire propagation occurs and when prediction really describes real fire progress. In order to be reliable, it is necessary high quality predictions, it means, predicted fire progress must be as similar to the real fire as possible. During this work, we are going to use the forest fire simulator called fireLib [5] holding it in a framework that attempts to improve input parameter accuracy in order to increase prediction quality. Usually, a prediction is made using a forest fire simulator which receives several inputs (fire environment description) and it returns the state of the fire for a later instant of time. Input parameters usually include: initial fire front state, topography, vegetation [2], wind, fuel hu¬midities, and additionally, relative moisture, cover crown, cover clouds, etc. All these input parameters depend on the forest fire simulator used. Thus, having initial fire line and environmental characteristics, simulator uses some fire prop¬agation model in order to simulate fire behavior. Taking into account this classical prediction method, we can see that it is a straight, simply method and it has the advantage of performing just one simulation (what means low processor time requirements). But these advantages are in a sense the main weak point of the method: final prediction quality depends on the suitability of the unique simulation (that means, using a unique input parameters set). As we had mentioned during previous paragraphs, the accuracy of the input parameters are really open to debate due to having its actual values is not easy, some times it is impossible. Consequently, we are going to present a method where a search of better parameter values is performed in order to reduce input data uncertainty [1]. This method consists of two stages: a new stage was added before the prediction step. This new stage is called Calibration stage, and it allows us to find a set of input parameter values that achieve a good simulation from instant ti to instant ti+1. Then, we can use this good set of input parameters to predict fire behavior during the next instant of time (ti+2). Once a combination of values for the input parameters is founded, we consider that the environmental characteristics that are good described by these values at instant ti+1 will re¬main useful for the subsequent instant of time (from ti+1 to ti+2). Then we use these values for obtaining the predicted map for instant ti+2. This scheme is based on the premise that environmental features will be maintained during involved time steps. In addition, each of these input parameters have its own valid range where they can vary, and in fact, these ranges may be di_erent: they vary depending on the characteristic that it represents. Thus, the amount of di_erent combinations of these parameter values leaves us a very big search space. In order to avoid that this Calibration Stage becomes a bottle neck, we had developed a Dynamic Data Driven Genetic Algorithm [16] [19]. Strategies adopted through this application result in an e_cient search solution. Our Dynamic Data Driven Genetic Algorithm dynamically incorporates new data (from storage device or on line captured) promising more accuracy data analysis, more accurate pre¬dictions, more precise controls and more reliable outcomes [8] [9] [7]. Taking into account that two stages method needs the information of the real fire spread from instant ti to ti + 1, useful information will be obtained from the analysis of this real fire progress. This information will be used for steering searching process through genetic algorithm, in order to improve the values of the parameters. Our genetic algorithm intents to minimize our error function (individual fitness): error value determines the di_erences between real fire line and simulated fire line. Due to simulator imple¬ments a cellular automata model, all involved maps are a grid of cells, then, the error function is based on a cell by cell comparison (of real and simulated maps). When either slope nor wind are strong enough, fire grows forming a circular shape. But when wind or slope are presented (both or one of them), they influence fire growth in a de¬terminant way. Shape, velocity, direction, intensity, all of these fire features are influenced by wind and slope factors. Wind velocity and direction, slope inclination and aspect combination are crucial in fire spread behavior. Thus, knowing wind and slope decisive influences and knowing the real fire shape (by the analysis of real fire at instant ti+1 disposed in calibration stage), we can combine this informa¬tion in order to incorporate additional data that will be useful in order to improve fire spread simulations. This information will be used as feedback information in order to improve simula¬tion accuracy. Actually, slope and real propagation are known. This information is used to calculate wind speed and wind direction needed to generate the observed fire propagation in presence of the current slope features. Once wind main characteristics are calculated they will be used through two methods for dynamically steering our genetic algorithm: Computational and Analytical Methods. In particular, Analytical Method was developed in order to validate Computational Method operation. Computational Method uses di_erent forest fires information (including fire environment) in order to discover wind main features. Forest fires data can come from historical real fires, prescribed burnings, or synthetic simulated fires (using a forest fire simulator). Forest fire main characteristics are stored through a data base. Data base information must be as complete as possible, in order to reflect the most amount of fire cases that can happen in the real world. In this data base several fire spreads are stored and we look for a fire progress similar to the real fire line observed for instant ti+1 in presence of similar or equal slope characteristics. Historical real fires information could be used in order to construct our application data base. Unfortunately, detailed real fires information was not available for us since we were deal¬ing with prescribe and synthetic fires. In order to generate a suitable data base the forest fire simulator fireLib was used for obtaining a high number of detailed burning cases. Computational Method is based on following process: real forest fire progress is analyzed at time ti+1, thus, fire progress direction, velocity and distance are obtained. Then, all real forest fire characteristics are used in order to find the most similar fire into the data base. When most similar fire is founded, wind direction and velocity are injected during genetic algorithm operation. Specifically, these wind values will be used to define a subrange through the whole parameter valid range and, when mutation operator takes place, wind values will be assigned using a ran¬dom value limited by the new subrange (taking into account data base cases incompleteness). Analytical Method was created in order to evaluate the proper operation of Computational Method. This method is based on an exhaustive study of Rothermel model and fireLib sim¬ulator ([21] and [5]). This method is based on some calculus performed by the simulator in order to obtain fire direction and velocity, by the combination of wind, slope and environmental factors. Once the model and simulator was studied and understood, we use the steps performed by the simulator but in a suitable order, for obtaining wind characteristics from slope and real fire characteristics combination. When Analytical Method is applied, each simulation is performed using an individual (sce¬nario) and ideal wind values are calculated and stored together with such individual. Then, these values are assigned as individual wind velocity and direction when elitism or mutation operations take place during Dynamic Data Driven genetic algorithm execution. In practice, we expect that this method will be more precise than Computational Method but, by contrast, it is severely coupled to the underlying simulator (being this fact an important method drawback). Taking into account application response time limits, non simulation dependences and simu¬lations time requirements, proposed application was developed using the parallel paradigm [15] [18], dividing simulation processes and error calculus between di_erent parallel tasks. Master process performs genetic algorithm operations and distributes population individu¬als between worker processes. Every time a worker process receives a group of individuals, it performs the simulation and calculates the error function with each individual. In order to avoid that application communication pattern became a bottle neck, individuals are distributed by groups (chunks) instead of individual transmissions. When a worker final¬izes the evaluation of a specific chunk, this worker process returns the evaluated chunk to the master process. Then, master process sends another non evaluated chunk to it until all chunks are evaluated. During this work, two main objectives were considered: prediction quality improvement (what means prediction error reduction) and reduction of prediction process time requirements. Several times, these two aspects have mutual dependencies: suitable simulation accuracy can be achieved if enough time is available for prediction process. On the other hand, if prediction results are required in a short term of time, this feature can attempt on prediction quality. During this work, experimental results were analyzed and best application characteristics were studied. We could see that 2 stages prediction method achieve best results when they are compared with classical prediction. Performing a pre-search of input parameters values achieve an important error reduction due to the use of suitable input parameters values. Steering methods, Computational Method as well as Analytical Method, in most of the cases, reduce simulation errors, achieving more precise simulations during calibration stage, and consequently, more precise predictions [10] [11] [13]. These Methods reduce total execution time, on account of the acceleration of searching convergence. Using real fire progress knowledge, genetic algorithm is fast guided to promising individual search space zones [10] [11] [13]. In order to obtain real fire progress characteristics, additional methods were developed. These methods had showed good performance when they where used for di_erent kind of maps: linear maps, elliptical maps, real cases, synthetic cases, di_erent sizes of cells, etc. Parallel application proposed was tested in order to evaluate its scalability. Master and worker process times had decreased when number of computing elements had increased. "On demand" dealing of work, communication reduction (because of chunks communication), etc. achieve a good performance application [12]. For most of the performed tests similar behavior could be seen: Computational Method convergences more quickly to good individual zones. Then, fewer iterations can be executed and steering methods finds good results. Thus, execution time of two stages prediction method can be reduced as well. Referencias/References[1] Abdalhaq B., "A Methodology to Enhance the Prediction of Forest Fire Propagation." PhD Thesis. Universitat Autònoma de Barcelona (Spain). June 2004. [2] Anderson H., "Aids to Determining Fuel Models For Estimating Fire Behavior." Intermountain Forest and Range Experiment Station Ogden, UT 84401. General Technical Report INT.122. April 1982. [3] Andrews P., "BEHAVE: Fire Behavior prediction and modeling systems -Burn subsystem." part 1. General Technical Report INT-194. Odgen, UT, US Department of Agriculture, Forest Service, Intermountain Research Station. pp. 130. 1986. [4] Andrews, P. "BehavePlus fire modeling system: past, present, and future.". Proceedings of 7th Symposium on Fire and Forest Meteorological Society, 23-25 Octubre de 2007, Bar Harbor, Maine, Boston. http://ams.confex.com/ams/pdfpapers/126669.pdf. Acceded on October 2008. [5] Bevins C., "FireLib User Manual & Technical Reference". http://www.fire.org/downloads/fireLib/1.0.4/firelib.pdf. Acceded on January 2006. [6] Bianchini G., "Wildland Fire Prediction based on Statistical Analysis of Multiple Solutions." PhD Thesis. Universitat Aut-onoma de Barcelona (Spain). July 2006. [7] Coen J., Beezley J., Bennethum L., Douglas C., Kim M., Kremens R., Mandel J., Qin G. and Vodacek A. "Wildland Fire Dynamic Data-Driven Application System." Center for Computational Mathematics Reports, University of Colorado at Denver and Health Sciences Center. November 2006. UCDHSC/CCM Report number 238. [8] Darema, F. "Dynamic Data Driven Applications Systems: A New Paradigm for Application Simulations and Measurements." ICCS 2004, LNCS 3038, Springer Berlin / Heidelberg, pp. 662-669. [9] Douglas C., "Dynamic Data Driven Application Systems homepage." http://www.dddas.org. Acceded on November 2007. [10] Denham M., Cortés A., Margalef T., Luque E., "Algoritmos Genéticos Guiados Para Predicción de Incendios Forestales". Actas del XVIII Jornadas de Paralelismo JP'07. Zaragoza (Spain), 2007. Vol II, pp. 733-741. [11] Denham M., Cortés A, Margalef T. and Luque E. "Applying a Dynamic Data Driven Genetic Algorithm to Improve Forest Fire Spread Prediction". International Conference on Computational Science (ICCS) 2008, Cracovia, Polonia. Computational Science -ICCS 2008. LNCS Volume 5103, Springer Berlin Heidelberg. Pp: 36-45. [12] Denham M., Cortés A, Margalef T. "Parallel Dynamic Data Driven Genetic Algorithm for Forest Fire Prediction." 16th European PVM/MPI Users' Group Meeting. Espoo, Finlandia, Septiembre del 2009. LNCS Volume 5759, Springer Berlin Heidelberg. Pp: 323-324. [13] Denham M., Cortés A., Margalef T. "Computational Steering Strategy to Calibrate Input Variables in a Dynamic Data Driven Genetic Algorithm for Forest Fire Spread Prediction". International Conference on Computational Science (ICCS) 2009, USA. LNCS Volume 5545, Springer Berlin Heidelberg. Págs: 479-488. [14] Finney M. "FARSITE: Fire Area Simulator-model development and evaluation. " Res. Pap. RMRS-RP-4, Ogden, UT: U.S. Department of Agriculture, Forest Service, Rocky Mountain Research Station, 1998. [15] Foster I., "Designing and Building Parallel Programs." (Online) Addison-Wesley ISBN 0201575949, chapter 8 Message Passing Interface. Disponible en http://wwwunix.mcs.anl.gov/dbpp/text/node94.html (1995) [16] Koza J. "Genetic Programming. On the programming of computers by means of natural selection". Massachusetts Institute of Technology. Cambridge, Massachusetts 02142. The MIT Press, 1992. [17] Lopes A., Cruz M. y Viegas D. "FireStation -An integrated software system for the numerical simulation of fire spread on complex topography." Environmental Modelling and Software 17(3): 269-285 (2002) [18] "MPI: The Message Passing Interface Standard." http://www-unix.mcs.anl.gov/mpi/ [19] Michalewicz, Z. "Genetic algorithms + data structures = Evolution Programs." ISBN 9783540606765, Springer 1996. [20] Rothermel R., "A mathematical model for predicting fire spread in wildland fuels". USDA FS, Ogden TU, Res. Pap. INT-115, 1972. [21] Rothermel R. C. "How to Predict the Spread and Intensity of Forest and Range Fires". Gen. Tech. Rep. INT-143. Ogden, UT: U.S. Department of Agriculture, Forest Service, Intermountain Forest and Range Experiment Station, 1983. pp. 1-5.
106

Estratègies d’operació per a la producció de lipases de Rhizopus oryzae amb el fenotip Mut(s) de Pichia pastoris mitjançant substrats mixtes

Arnau Jiménez, Carol 15 April 2011 (has links)
En aquest treball s’ha optimitzat el procés de producció de lipases de Rhizopus oryzae amb el fenotip Muts de Pichia pastoris mitjançant la utilització de substrats mixtes establint les condicions de procés més favorables. S’utilitza un sistema de 48 milibioreactors de 12 ml de volum amb l’objectiu d’optimitzar el procés de selecció de l’estratègia de cultiu més efectiva. Quan els cultius es realitzen utilitzant els fenotips Muts i Mut+ de P. pastoris sota promotors induïbles (AOX i FLD) s’obté un creixement deficient. La principal problemàtica recau en el sistema de condensació que presenten els milibioreactors a la part superior. S’utilitza el promotor GAP utilitzant glicerol i glucosa com a substrats, amb el que es demostra la viabilitat del sistema de 48 milibioreactors pel seguiment de bioprocessos. Posteriorment davant les avantatges que presenta la utilització de substrats mixtes en soques de fenotip Muts sota el promotor AOX, s’utilitzen sorbitol o glicerol juntament amb el metanol per observar l’efecte del cosubstrat sobre la producció de ROL. A l’utilitzar el sorbitol es realitzen cultius en semicontinu mantenint la concentració de metanol fixada en 0.5, 2 i 4 g l-1 i es manté la μ fixada en 0.01 i 0.02 h-1. S’observa que la concentració de metanol residual en el medi de cultiu és el paràmetre clau per l’optimització de la producció de ROL, trobant-se els valors màxims quan aquesta es troba fixada a 2 g l-1. A l’augmentar o bé disminuir aquesta concentració, la productivitat disminueix considerablement (2 vegades). Finalment es valida un sistema SIA per a l’anàlisi de sorbitol en línia. El sorbitol es considera un cosubstrat excel·lent però presenta una baixa μmax, fent així que el procés de producció sigui menys efectiu, si es compara amb una font de carboni alternativa. S’utilitza el glicerol com a cosubstrat, el que permetrà treballar a μ 5 vegades superiors. Es realitzen cultius en semicontinu mantenint la concentració de metanol fixada en 2 g l-1 (valor optimitzat prèviament). En aquest treball es realitzen diferents cultius on la μ es manté fixada en 0.1, 0.05 i 0.02 h-1. Es conclou que per evitar la repressió del promotor AOX la relació establerta entre les μ ha de ser inferior a 6 (μGli μMet-1), degut que al superar aquest valor s’observa una clara repressió del promotor AOX. A continuació, es decideix realitzar el canvi d’escala de les condicions més productives. Es realitzen varis cultius utilitzant el reactor a un volum inicial de treball de 30 l. Després d’estimar un favorable canvi d’escala es reprodueixen les condicions obtingudes en el millor dels processos. Durant aquest primer cultiu s’obtenen valors de productivitat volumètrica i específica 2.8 vegades inferiors als obtinguts prèviament en 5 l. Es realitzen experiments per comprovar la mescla del metanol al reactor UD50 mostrant un gradient màxim de 0.5 gMet l-1 a les diferents alçades. Es realitza una modificació al sistema d’addició del metanol, addicionant-lo de forma submergida a mitja alçada del reactor. Posteriorment els resultats milloren en un 48%, en comparació a l’addició pel capçal del reactor. Finalment es treballa amb una construcció genètica del fenotip Muts de P. pastoris que inclou la coexpressió del gen HAC1. Es treballa amb 2 soques, la primera coexpressa el gen HAC1 de forma induïble sota el promotor AOX i la segona ho realitza de forma constitutiva sota el promotor GAP. Quan s’utilitza la soca que coexpressa el gen de forma induïble, es troben millores significatives (augment de 1.5 vegades de la productivitat) al realitzar una estratègia amb substrats mixtes (sorbitol i metanol) a les condicions prèviament optimitzades. Quan s’utilitza la soca que coexpressa el gen de forma constitutiva, no es presenten millores en el procés de producció. / The objective of this thesis was to optimize the production of Rhizopus oryzae lipase in fed-batch mixed substrate conditions with a Pichia pastoris Muts strain. A milibioreactors bloc of 48 reactors with 12 ml working volume was tested to optimize the culture conditions under fed-batch strategy. When Mut+ and Muts phenotypes were used under AOX and FLD promoters, no satisfactory growth was observed, related with a deficiency presented by the cooler system allowing a lose of methanol of 0.5 gMet l-1 h-1. However, when Pichia pastoris under the constitutive promoter GAP was used, satisfactory growth was observed obtaining similar values than the ones obtained at higher volumes (5 l). In conclusion the 48 milibioreactors bloc represents an excellent tool to optimize the ROL production under GAP promoter, although was not satisfactory under AOX and FLD promoters. Subsequently to the advantage of using mixed substrates in place of using methanol as a sole carbon source, some experiments were done to optimize the ROL production under fed-batch conditions using sorbitol and glycerol as cosubstrats. When sorbitol was used the specific growth rate was maintained on 0.01 i 0.02 h-1 by a preprogrammed exponential feed. Methanol set-point concentration was maintained on 0.5, 2 i 4 g l-1 controlled by a predictive algorithm. Lipolytic activity, yields, productivity and specific productivity, but also specific growth, consumption and production rates were analyzed showing that the best values were reached when methanol concentration was fixed on 2 g l-1 showing an important reduction when this set-point was increased or decreased, independently of the specific growth rate used. The experiments showed that the key parameter was the set-point of methanol. On the other hand the specific growth influence was not representative. Finally a SIA analyser of sorbitol was tested. Sorbitol is considered an excellent cosubstrat but this low μmax in comparison with other possible cosubstrats, assures low productions. Different experiments using glycerol as cosubstrat were made at a constant methanol set-point of 2 g l-1, at three different glycerol feeding rates to assure a constant specific growth rate of 0.02, 0.05 and 0.1 h-1, by means of a pre-programmed exponential feeding rate strategy. The best production values were reached at the lowest specific growth rate tested. With Muts phenotype glycerol could not increase the productivity of the process comparing with sorbitol due to inhibitory effect on methanol consumption and recombinant lipase production. The specific growth relation must be fixed lower than 6 (μGli μMet -1), to avoid AOX promoter repression. The scale-up of the most effective process was done using a Biostat UD50 (30 l working volume). Methanol concentration was fixed on 0.02 h-1 and the specific growth rate was fixed on 0.02 h-1 by a sorbitol pre-programmed exponential feed. An encouraging scale-up was assumed (better KLa and similar geometry), although the first feed-batch cultivations under this conditions did not reproduced the values obtained under lab scale (5 l). Problems were related to the unsuccessful distribution (maximal gradient was 0.5 gMet l-1) of the substrates along the different height of the reactor. Methanol addition was submerged to the half height of the reactor to improve substrate distribution along the reactor. Feed-batch cultivation was done, and ROL production values were increase about 48%, in comparison with result obtained when methanol was added by the reactor headspace. And important increase was obtained, but is still necessary further research to reproduce values obtained in lab-scale. Finally a new Pichia pastoris strain construction co-expressing constitutively and inductively HAC 1 gene was used to optimize ROL production. Feed- batch cultivations were done using methanol and sorbitol as cosubstrats under the same conditions previously optimize (methanol concentration on 2 g l-1 and μ on 0.02 h-1). When inductively co-expression was used important improvements were obtained on productivity and specific productivity. On the other hand, when constitutively coexpression was used, inferior production values were obtained in comparison with results obtained with the non engineered strain.
107

Miniaturization of Planar Microwave Components Based on Semi-Lumped Elements and Artificial Transmission Lines: Application to Multi-Band Devices and Filters

Durán-Sindreu Viader, Miguel 26 July 2011 (has links)
La miniaturización de componentes de microondas es uno de los retos de los dispositivos de comunicación actuales y futuros. Por esta razón, esta tesis está orientada al estudio de nuevas estrategias de miniaturización de componentes planares de microondas no radiativos. A lo largo de este trabajo, se han aplicado diferentes técnicas de miniaturización para el diseño de diversos componentes de microondas como dispositivos multi-banda o filtros, incluyendo también implementaciones eléctricamente reconfigurables. Para obtener esta compactación de tamaño requerida y/o funcionalidad multi-banda, se proponen nuevas líneas artificiales basadas en los resonadores semi-discretos open split ring resonators (OSRRs) y open complementary split ring resonators (OCSRRs). De esta forma, se presentan nuevas líneas de transmission compuestas zurdo diestras (composite right-left handed o CRLH) aplicándose al diseño de inversores de impedancia, divisores de potencia y filtros paso banda de banda ancha. Adicionalmente, mediante la combinación de estos resonadores con componentes semi-disctretos adicionales, se presentan líneas CRLH extendidas (E-CRLH) y se aplican a la implementación de inversores de impedancia, divisores de potencia y híbridos en cuadratura con funcionalidad en cuatro bandas (quad-band), así como filtros paso banda de banda dual. Para demostrar y validar su funcionalidad, se implementan y fabrican diferentes demostradores de prueba de concepto para todos los dispositivos anteriormente mencionados, obteniendo un buen ajuste entre las simulaciones y la medida. Además, también se presentan los modelos circuitales, así como la metodología de diseño basada en el método de extracción de parámetros. A través de este método, se demuestra que los modelos circuitales proporcionan una descripción precisa de las estructuras consideradas. También se estudia la reconfigurabilidad de las líneas CRLH presentadas considerando sustratos ferroeléctricos, específicamente titanato de bario estroncio (barium-strontium-titanate o BST). Mediante esta técnica, se demuestra la reconfigurablidad de estas líneas CRLH, obteniendo un rango de sintonía simulada y medida del 36.6%. Una vez experimentalmente validada esta técnica, se dota de reconfigurabilidad a los componentes mono banda y de banda dual basados en líneas CRLH previamente presentados, explorando tanto la metodología como sus limitaciones. Finalmente, también se presentan nuevos filtros compactos con respuestas abruptas basados en los resonadores de salto de impedancia (stepped-impedance-resonators o SIRs) acoplados a una línea de transmisión coplanar. Tras analizar el resonador aislado y su modelo circuital, se diseñan filtros elípticos paso bajo y paso alto, así como filtros paso banda con ceros de transmisión mediante la teoría de filtros convencional, obteniendo estructuras con un alto grado de compactación y buena funcionalidad. / The miniaturization of microwave components is one of the challenges of present and future communication devices. For this reason, this thesis is focused on the study of new miniaturization strategies for planar non-radiating microwave components. Throughout this work, different miniaturization approaches have been applied to the design of several microwave components such as multi-band devices and filters, including also electronically tunable implementations. To obtain the required compact sizes and/or multi-band functionality, new artificial lines based on the semi-lumped open split ring resonators (OSRRs) and open complementary split ring resonators (OCSRRs) are proposed. Firstly, composite right-/ left-handed (CRLH) transmission lines are presented, applying such lines to the design of dual-band impedance inverters and Y-junction power dividers, as well as wideband band-pass filters. In addition, by combining these resonators with additional semilumped components, extended composite right-/left-handed (E-CRLH) transmission lines are also reported and applied to implement quad-band impedance inverters, power dividers, branch-line couplers and dual-band band-pass filters. To demonstrate and validate its functionality, different proof-of-concept demonstrators for all the aforementioned devices are implemented and fabricated, where a good agreement between simulations and measurement is obtained. Furthermore, the circuit models and the design methodology for all the presented devices are also reported, based on a parameter extraction method. Through this method it is demonstrated that the circuit models provide an accurate description of the considered structures. The tunability of such CRLH lines is also analyzed by means of barium-strontiumtitanate (BST) thick-films. With this approach, a tunable CRLH line with simulated and measured tunability range of 36.6% is demonstrated. Once this approach is experimentally validated, the previously presented mono-band and dual-band components based on the CRLH lines are provided with this tunability, exploring both its methodology and limitations. Finally, new compact filters with sharp responses are also presented based on stepped-impedance-resonators (SIRs) coupled to coplanar waveguide (CPW) host transmission lines. After analyzing the isolated resonator and its circuit model, elliptictype low-pass and high-pass filters, as well as band-pass filters with transmission zeros are designed through the conventional filter theory, where a high-degree of compactness as well as good performance is demonstrated.
108

Frame work for Integrating Scheduling Policies into Workflow Engines

Martínez, Gustavo Enrique 30 September 2011 (has links)
En este trabajo se ha desarrollado una nueva solución para la integración de políticas de planificación de workflows en sistemas gestores de workflows (workflow engines). SchedFlow es la solución propuesta e implementada, la cual Permite que un usuario final pueda utilizar la política de planificación que desee, ya sea esta estática o dinámica, sin necesidad de modificar el sistema gestor de workflow. Además SchedFlow toma en cuenta cuando una tarea del workflow no se puede ejecutar por eventos externos, como que una máquina está siendo utilizada por el usuario principal de la misma. En este tipo de escenarios SchedFlow realiza la replanificación de tareas, siempre bajo la política de planificación definida o elegida por el usuario. Como resultado se ha obtenido una aportación novedosa ya que normalmente si el usuario desea utilizar una política de planificación específica, deberá modificar el gestor de workflow para que soporte dicha política de planificación. Un punto importante a destacar, es que esta tesis además de contener un estudio exhaustivo de la bibliografía existente en el área, y de realizar un análisis de problema y diseño de solución propuesta, implementa la solución en un entorno oportunístico real. Los resultados de esta tesis para la planificación de workflows en entornos Grid, abre una nueva vía para el estudio de políticas de planificación para este tipo de aplicaciones, que será aprovechado por futuras investigaciones en la UAB.
109

Evaluation of Trametes versicolor ability to bioremediate Polycyclic Aromatic Hydrocarbons (PAHs) in different matrices

Borràs Camps, Eduard 21 January 2012 (has links)
Com a resultat de les activitats humanes, la contaminació deguda a productes químics alliberats al medi s’ha convertit en un problema global, essent una amenaça real per a l’activitat humana. La contaminació pot afectar qualsevol compartiment de l’ecosistema. Els hidrocarburs derivats del petroli, on s’inclouen els hidrocarburs policíclics aromàtics (HAPs), són contaminants que afecten de manera particular el sòl. Actualment existeixen diverses tècniques per a la restauració d’emplaçaments contaminats, inclosa la bioremediació. La micorremediació, àrea de coneixement en què s’emmarca la tesi, ha guanyat atenció en els últims anys ja que és una tècnica ambientalment respectuosa. Aquest treball presenta els resultats de les investigacions prèvies al desenvolupament d’un tractament de bioremediació de sols contaminats per hidrocarburs policíclics aromàtics mitjançant el fong ligninolític Trametes versicolor. Els resultats de l’esmentada investigació es presenten en tres apartats diferenciats. El primer es centra en la producció de biomassa del fong per a posteriors aplicacions en processos de bioremediació. Es divideix en dues seccions: • La primera es basa en la producció de biomassa en cultiu submergit. Els experiments es van centrar en formular un medi definit de cultiu de baix cost que permetés obtenir nivells elevats de biomassa, en la morfologia desitjada (pellets). El reactor fluïditzat per polsos d’aire amb control de pH va resultar ser el més adequat. La producció s’escalà a un bioreactor de 10 litres. • La segona secció analitza la colonització del fong sobre suports lignocel·lulòsics provinents de residus agrícoles per a posterior aplicació en el sòl. La selecció dels millors substrats per a la colonització es va basar en el nivell de biomassa (ergosterol), la producció de lacasa i la capacitat de degradar naproxè en 24 hores. Es va demostrar que el fong era capaç de colonitzar el sòl tant en condicions estèrils com en no estèrils mantenint, en tot cas, la capacitat degradativa. El segon apartat es centra en la degradació d’hidrocarburs policíclics aromàtics pel fong. Es divideix en tres seccions: • La primera es basa en la selecció d’un surfactant per a la degradació de HAPs en medi líquid, essent el millor el surfactant no iònic Tween 80. Es va poder demostrar la capacitat degradativa de diversos HAPs en medi líquid; tant en experiment per separat com en mescles. Així mateix, també es va demostrar que en les condicions de cultiu l’enzim lacasa podia degradar alguns dels compostos. • La segona secció fa referència a la identificació de productes intermediàris de degradació d’HAPs. També es va estudiar la capacitat de degradació d’aquests intermediaris per part del fong. • En la tercera secció es van provar diferents sistemes de degradació en sòl, on el bioslurry es presenta com el més efectiu en termes d’eficàcia de degradació. Es va poder comprovar que en les biopiles airejades el fong va tenir problemes derivats del rang termofílic assolit. El darrer apartat es basa en la degradació dels HAPs de la creosota. Es divideix en dues seccions: • La primera es centra en la degradació dels HAPs de la fracció aromàtica de la creosota. Es van estudiar diferents sistemes i es va determinar que el fong era més eficient en degradació en biopiles. En cultius submergits, medi líquid i slurry, el fong era efectiu en la degradació d’HAPs de baix pes molecular però no en aquells d’alt pes molecular. Es va observar l’efecte inhibitori sobre Trametes tant dels compostos addicionals afegits junt amb la creosota com en augmentar la concentració de HAPs. ! • La segona secció és fruit de la col·laboració amb el Laboratori de Biotecnologia Ambiental de l’Institut de Microbiologia de l’Acadèmia de les Ciències de la República Txeca de Praga. S’estudià l’efecte de la interacció del fong amb la població microbiana del sòl durant processos de bioremediació d’HAPs en sòl.! El treball experimental s’ha dut a terme en el “Grup de degradació de contaminants industrials i valorització de residus” del Departament d’Enginyeria Química de la UAB. L’objectiu general de recerca del grup és el desenvolupament de processos biotecnològics per a degradar compostos xenobiòtics difícilment degradables per tractaments convencionals. / Como consecuencia de las actividades humanas, la contaminación debida a productos químicos liberados en el medio se ha convertido en un problema global, siendo una amenaza real para la actividad y la salud de los seres vivos. La contaminación puede afectar a cualquier compartimento del ecosistema. Concretamente, los hidrocarburos derivados del petróleo son contaminantes que afectan de manera particular al suelo, entre los cuales destacan los hidrocarburos policíclicos aromáticos (HPAs). Actualmente existen diversas técnicas para la restauración de emplazamientos contaminados por estos compuestos. Cabe destacar que en los últimos años la comunidad científica ha centrado especialmente los esfuerzos en el campo de la micorremediación (área de conocimiento donde se enmarca la presente tesis) dado que se trata de una técnica ambientalmente respetuosa. El trabajo presenta los resultados de las investigaciones previas al desarrollo de un tratamiento de bioremediación de suelos contaminados por hidrocarburos policíclicos aromáticos mediante el hongo ligninolítico Trametes versicolor. Los resultados de la mencionada investigación se presentan en tres apartados diferenciados. El primero se centra en la producción de biomasa del hongo para posteriores aplicaciones en procesos de bioremediación. Se divide en dos secciones: • La primera se basa en la producción de biomasa en cultivo sumergido. Los experimentos se centraron en formular un medio de cultivo definido de bajo coste que permitiera obtener niveles elevados de biomasa, en la morfología deseada (pellets). El reactor fluidizado por pulsos de aire con control de pH resultó ser el más adecuado. La producción se escaló a un bioreactor de 10 litros. • La segunda sección analiza la colonización del hongo sobre soportes lignocelulósicos provenientes de residuos agrícolas para posterior aplicación en el suelo. La selección de los mejores sustratos para la colonización se basó en el nivel de biomasa (ergosterol), la producción de lacasa y la capacidad de degradar naproxeno en 24 horas. Se demostró que el hongo era capaz de colonizar el suelo tanto en condiciones estériles como no estériles manteniendo, en todo caso, la capacidad degradativa. El segundo apartado se centra en la degradación de hidrocarburos policíclicos aromáticos por el hongo. Se divide en tres secciones: • La primera se basa en la selección de un surfactante para la degradación de HPAs en medio líquido, siendo el surfactante no iónico Tween 80 aquel que dio mejores resultados. Se pudo demostrar la capacidad degradativa de diversos HPAs en medio líquido; tanto en experimentos por separado como en mezclas. Asimismo, también se demostró que en las condiciones de cultivo la enzima lacasa podía degradar algunos de los compuestos. • La segunda sección hace referencia a la identificación de productos intermediarios de degradación de HPAs. También se estudió la capacidad de degradación de estos intermediarios por parte del hongo. • En la tercera sección se probaron diferentes sistemas de degradación en suelos, donde el bioslurry resultó el más efectivo en términos de eficacia de degradación. Se pudo comprobar que en las biopilas aireadas el hongo tuvo problemas derivados del rango termofílico alcanzado. El último apartado se basa en la degradación de los HPAs de la creosota. Se divide en dos secciones: • La primera se centra en la degradación de los HPAs de la fracción aromática de la creosota. Se estudiaron diferentes sistemas y se determinó que el hongo era más eficiente en degradación en las biopilas. En cultivos sumergidos, medio líquido y slurry, el hongo era efectivo en la degradación de HPAs de bajo peso molecular pero no en aquellos de alto peso molecular. Se observó el efecto inhibitorio sobre Trametes versicolor tanto de los compuestos adicionales añadidos junto con la creosota como al aumentar la concentración de HPAs. • La segunda sección es fruto de la colaboración con el Laboratorio de Biotecnología Ambiental del Instituto de Microbiología de la Academia de las Ciencias de la República Checa en Praga. Se estudió el efecto de la interacción del hongo con la población microbiana del suelo durante procesos de bioremediación de HPAs en suelos. El trabajo experimental se ha llevado a cabo en el "Grupo de degradación de contaminantes industriales y valorización de residuos" del Departamento de Ingeniería Química de la UAB. El objetivo general de investigación del grupo es el desarrollo de procesos biotecnológicos para degradar compuestos xenobióticos difícilmente degradables mediante tratamientos convencionales. / As a result of human activities pollution aroused as a global concern due to improper release of chemicals into the environment. Contamination represents a real threat to humans and can affect any ecosystem compartment. Petroleum hydrocarbons affect typically soil, including polycyclic aromatic hydrocarbons (PAHs). Several conventional clean-up techniques are available for site restoration, including bioremediation. Mycoremediation, attained interest in the last decades as it is assumed to be an environmental-friendly technique. This work shows the results of the basic research previous to the development of a polycyclic aromatic hydrocarbons polluted soil bioremediation treatment by means of the white rot fungus Trametes versicolor. The results of the mentioned research are presented in three differentiated sections. The first section focuses on the fungal biomass production for posterior applications in bioremediation processes. It is divided into two subsections: • The first part focuses on biomass production of in submerged cultures. The experiments were aimed at formulating a low-cost defined medium to obtain high amounts of biomass, in the preferred morphology (pellets). The air-pulsed fluidized bioreactors equipped with pH control were the most appropriate. The production was scaled-up to a 10 liters bioreactor. • The second part analyzes the fungal colonization of lignocellulosic supports for further application in soil. The selection of the optimal substrate for colonization based on active biomass amounts, laccase production and the capacity to degrade naproxene in 24 hours. It was demonstrated that the fungus was capable of colonizing soil both under sterile and non-sterile conditions maintaining, in any case, the degradative capacity. The second section focuses on the fungal ability to degrade polycyclic aromatic hydrocarbons. It is ddivided into three subsections: • The first part focuses on the selection of an optimal surfactant for PAHs degradation in liquid medium, obtaining the best results with the non-ionic surfactant Tween 80. The degradation of several PAHs by T. versicolor in liquid medium was demonstrated; both in individual-PAHs experiment as well as in PAHs-mixtures. Likewise, it was also demonstrated that under culture conditions laccase might degrade some of the studied compounds. • The second section includes the identification of PAHs metabolites arising from degradation. The fungal degradation capacity of these intermediates was also examined. • In the third section different degradation systems of were tested for soil treatment, the bioslurry resulted as the most effective in terms of degradation efficiency. It was checked out that in aerated biopiles, the fungus had problems derived from attaining termophilic ranges. The last section deals with the creosote-PAHs degradation. It is divided into two subsections: • The first part focuses on the fungal PAHs-degradation of the creosote aromatic fraction. Different systems were studied and it was determined that the fungus was more efficient at degrading PAHs in biopiles approach. In submerged cultures, liquid medium and slurry, the fungus was effective at degrading low-molecular-weight PAHs but not those of high-molecularweight. It was also observed inhibitory effects on Trametes due to the additional compounds present in creosote as well as when increasing the total PAHs concentration. • The second section is a result of the collaboration with the Laboratory of Environmental Biotechnology in the Institute of Microbiology, which belongs to the Academy of Sciences of the Czech Republic (Prague). The effect on PAHs removal during the interaction between soil microbial population and white-rot fungi during soil bioremediation processes was studied. The experiments have been carried out in the "Group of degradation of industrial pollutants and valuation of waste" from the Department of Chemical Engineering in the UAB. The main research motivation of the group is to develop specific biotechnological processes to degrade xenobiotic compounds that are scarcely degraded by conventional treatments.
110

General Dynamic Surface Reconstruction: Application to the 3D Segmentation of the Left Ventricle

García Pañella, Oscar 24 March 2004 (has links)
Aquesta tesi descriu la nostra contribució a la reconstrucció tridimensional de les superfícies interna i externa del ventricle esquerre humà. La reconstrucció és un primer procés dins d'una aplicació global de Realitat Virtual dissenyada com una important eina de diagnòstic per a hospitals. L'aplicació parteix de la reconstrucció de les superfícies i proveeix a l'expert de manipulació interactiva del model en temps real, a més de càlculs de volums i de altres paràmetres d'interès. El procés de recuperació de les superfícies es caracteritza per la seva velocitat de convergència, la suavitat a les malles finals i la precisió respecte de les dades recuperades. Donat que el diagnòstic de patologies cardíaques requereix d'experiència, temps i molt coneixement professional, la simulació és un procés clau que millora la eficiència.Els nostres algorismes i implementacions han estat aplicats a dades sintètiques i reals amb diferències relatives a la quantitat de dades inexistents, casuístiques presents a casos patològics i anormals. Els conjunts de dades inclouen adquisicions d'instants concrets i de cicles cardíacs complets. La bondat del sistema de reconstrucció ha estat avaluada mitjançant paràmetres mèdics per a poder comparar els nostres resultats finals amb aquells derivats a partir de programari típic utilitzat pels professionals de la medicina.A més de l'aplicació directa al diagnòstic mèdic, la nostra metodologia permet reconstruccions de tipus genèric en el camp dels Gràfics 3D per ordinador. Les nostres reconstruccions permeten generar models tridimensionals amb un baix cost en quant a la interacció manual necessària i a la càrrega computacional associada. Altrament, el nostre mètode pot entendre's com un robust algorisme de triangularització que construeix superfícies partint de núvols de punts que poden obtenir-se d'escàners làser o sensors magnètics, per exemple. / Esta tesis describe nuestra contribución a la reconstrucción tridimensional de las superficies interna y externa del ventrículo izquierdo humano. La reconstrucción es un primer proceso que forma parte de una aplicación global de Realidad Virtual diseñada como una importante herramienta de diagnóstico para hospitales. La aplicación parte de la reconstrucción de las superficies y provee al experto de manipulación interactiva del modelo en tiempo real, además de cálculos de volúmenes y de otros parámetros de interés. El proceso de recuperación de las superficies se caracteriza por su velocidad de convergencia, la suavidad en las mallas finales y la precisión respecto de los datos recuperados. Dado que el diagnóstico de patologías cardíacas requiere experiencia, tiempo y mucho conocimiento profesional, la simulación es un proceso clave que mejora la eficiencia.Nuestros algoritmos e implementaciones han sido aplicados a datos sintéticos y reales con diferencias en cuanto a la cantidad de datos inexistentes, casuística presente en casos patológicos y anormales. Los conjuntos de datos incluyen adquisiciones de instantes concretos y de ciclos cardíacos completos. La bondad del sistema de reconstrucción ha sido evaluada mediante parámetros médicos para poder comparar nuestros resultados finales con aquellos derivados a partir de programario típico utilizado por los profesionales de la medicina.Además de la aplicación directa al diagnóstico médico, nuestra metodología permite reconstrucciones de tipo genérico en el campo de los Gráficos 3D por ordenador. Nuestras reconstrucciones permiten generar modelos tridimensionales con un bajo coste en cuanto a la interacción manual necesaria y a la carga computacional asociada. Por otra parte, nuestro método puede entenderse como un robusto algoritmo de triangularización que construye superficies a partir de nubes de puntos que pueden obtenerse a partir de escáneres láser o sensores magnéticos, por ejemplo. / This thesis describes a contribution to the three-dimensional reconstruction of the internal and external surfaces of the human's left ventricle. The reconstruction is a first process fitting in a complete VR application that will serve as an important diagnosis tool for hospitals. Beginning with the surfaces reconstruction, the application will provide volume and interactive real-time manipulation to the model. We focus on speed, precision and smoothness for the final surfaces. As long as heart diseases diagnosis requires experience, time and professional knowledge, simulation is a key-process that enlarges efficiency.The algorithms and implementations have been applied to both synthetic and real datasets with differences regarding missing data, present in cases where pathologies and abnormalities arise. The datasets include single acquisitions and complete cardiac cycles. The goodness of the reconstructions has been evaluated with medical parameters in order to compare our results with those retrieved by typical software used by physicians.Besides the direct application to medicine diagnosis, our methodology is suitable for generic reconstructions in the field of computer graphics. Our reconstructions can serve for getting 3D models at low cost, in terms of manual interaction and CPU computation overhead. Furthermore, our method is a robust tessellation algorithm that builds surfaces from clouds of points that can be retrieved from laser scanners or magnetic sensors, among other available hardware.

Page generated in 0.0443 seconds