Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
181 |
Wildland Fire Prediction based on Statistical Analysis of Multiple SolutionsBianchini, Germán 21 July 2006 (has links)
En diferentes áreas científicas, el uso de modelos para representar sistemas físicos se ha tornado una tarea habitual. Estos modelos reciben parámetros de entradas representando condiciones particulares y proveen una salida que representa la evolución del sistema. Usualmente, dichos modelos están integrados en herramientas de simulación que pueden ser ejecutadas en una computadora.Un caso particular donde los modelos resultan muy útiles es la predicción de la propagación de Incendios Forestales. Los incendios se han vuelto un gran peligro que cada año provoca grandes pérdidas desde el punto de vista ambiental, económico, social y humano. En particular, las estaciones secas y calurosas incrementan seriamente el riesgo de incendios en el área Mediterránea. Por lo tanto, el uso de modelos es relevante para estimar el riesgo de incendios y predecir el comportamiento de los mismos.Sin embargo, en muchos casos, los modelos presentan una serie de limitaciones. Estas se relacionan con la necesidad de un gran número de parámetros de entrada. En muchos casos, tales parámetros presentan cierto grado de incertidumbre debido a la imposibilidad de medirlos en tiempo real, y deben ser estimados a partir de datos indirectas. Además, en muchos casos estos modelos no se pueden resolver analíticamente y deben ser calculados aplicando métodos numéricos que son una aproximación de la realidad.Se han desarrollado diversos métodos basados en asimilación de datos para optimizar los parámetros de entrada. Comúnmente, estos métodos operan sobre un gran número de parámetros de entrada y, a través de optimización, se enfocan en hallar un único conjunto de parámetros que describa de la mejor forma posible el comportamiento previo. Por lo tanto, es de esperar que el mismo conjunto de valores pueda ser usado para describir el futuro inmediato.Sin embargo, esta clase de predicción se basa en un solo conjunto de parámetros y, por lo que se explicó, debido a aquellos parámetros que presentan un comportamiento dinámico, los valores optimizados pueden no resultar adecuados para el siguiente paso.El presente trabajo propone un método alternativo. Nuestro sistema, llamado Sistema Estadístico para la Gestión de Incendios Forestales, se basa en conceptos estadísticos. Su objetivo es hallar un patrón del comportamiento del incendio, independientemente de los valores de los parámetros. En este método, cada parámetro es representado mediante un rango de valores y una cardinalidad. Se generan todos los posibles escenarios considerando todas las posibles combinaciones de los valores de los parámetros de entrada, y entonces se evalúa la propagación para cada caso. Los resultados son agregados estadísticamente para determinar la probabilidad de que cada área se queme. Esta agregación se utiliza para predecir el área quemada en el siguiente paso.Para validar nuestro método, usamos un conjunto de quemas reales prescritas. Además, comparamos nuestro método contra otros dos. Uno de estos dos métodos fue implementado para este trabajo: GLUE (Generalized Likelihood Uncertainty Estimation). Dicho método corresponde a una adaptación de un sistema hidrológico. El otro caso (Método Evolutivo) es un algoritmo genético previamente desarrollado e implementado también por nuestro equipo de investigación.Los sistemas propuestos requieren un gran número de simulaciones, razón por la cual decidimos usar un esquema paralelo para implementarlos. Esta forma de trabajo difiere del esquema tradicional de teoría y experimentación, lo cual es la forma común de la ciencia y la ingeniería. El cómputo científico está en continua expansión, principalmente a través del análisis de modelos matemáticos implementados en computadores. Los científicos e ingenieros desarrollan programas de computador que modelan los sistemas bajo estudio. Esta metodología está creando una nueva rama de la ciencia basada en métodos computacionales, la cual crece de forma acelerada. Esta aproximación es llamada Ciencia Computacional. / In many different scientific areas, the use of models to represent the physical system has become a common strategy. These models receive some input parameters representing the particular conditions and provide an output representing the evolution of the system. Usually, these models are integrated in simulation tools that can be executed on a computer.A particular case where models are very useful is the prediction of Forest Fire propagation. Forest fire is a very significant hazard that every year provokes huge looses from the environmental, economical, social and human point of view. Particularly dry and hot seasons seriously increase the risk of forest fires in the Mediterranean area. Therefore, the use of models is very relevant to estimate fire risk, and predict fire behavior.However, in many cases models present a series of limitations. Usually, such limitations are due to the need of a large number of input parameters. In many cases such parameters present some uncertainty due to the impossibility to measure all of them in real time and must be estimated from indirect measurements. Moreover, in most cases these models cannot be solved analytically and must be solved applying numerical methods that are only an approach to reality (still without considering the limitations that present the translations of these solutions when they are carried out by means of computers).Several methods based on data assimilation have been developed to optimize the input parameters. In general, these methods operate over a large number of input parameters, and, by mean of some kind of optimization, they focus on finding a unique parameter set that would describe the previous behavior in the best form. Therefore, it is hoped that the same set of values could be used to describe the immediate future.However, this kind of prediction is based on a single value of parameters and, as it has been said above, for those parameters that present a dynamic behavior the new optimized values cannot be adequate for the next step.The objective of this work is to propose an alternative method. Our method, called Statistical System for Forest Fire Management, is based on statistical concepts. Its goal is to find a pattern of the forest fire behavior, independently of the parameters values. In this method, each parameter is represented by a range of values with a particular cardinality for each one of them. All possible scenarios considering all possible combinations of input parameters values are generated and the propagation for each scenario is evaluated. All results are statically aggregated to determine the burning probability of each area. This aggregation is used to predict the burned area in the next step.To validate our method, we use a set of real prescribed burnings. Furthermore, we compare our method against two other methods. One of these methods was implemented by us for this work: GLUE (Generalized Likelihood Uncertainty Estimation). It corresponds to an adaptation of a hydrological method. The other method (Evolutionary method) is a genetic algorithm previously developed and implemented by our research team.The proposed system requires a large number of simulations, a reason why we decide to use a parallel-scheme to implement them. This way of working is different from traditional scheme of theory and experiment, which is the common form of science and engineering. The scientific computing approach is in continuous expansion, mainly through the analysis of mathematical models implemented on computers. Scientists and engineers develop computer programs that model the systems under study. This methodology is creating a new branch of science based on computational methods that is growing very fast. This approach is called Computational Science.
|
182 |
Computational framework for the white point interpretation based on nameabilityTous Terrades, Francesc 28 July 2006 (has links)
En aquest treball presentem un marc per a l'estimació del punt blanc en imatges sota condicions no calibrades, on considerem múltiples solucions interpretades. D'aquesta manera, proposem la utilització d'una cua visual que ha estat relacionada amb la constància de color: aparellament de colors. Aquest aparellament de colors està guiat per la introducció d'informació semàntica referent al contingut de la imatge. Així doncs, introduïm informació d'alt nivell dels colors que esperem trobar en les imatges. Tenint en compte aquestes dues idees, aparellament de colors i informació semàntica, i les aproximacions computacionals a la constància de color existents, proposem un mètode d'estimació de punt blanc per condicions no calibrades que lliura múltiples solucions, en funció de diferents interpretacions dels colors d'una escena. Plantegem l'extracció de múltiples solucions ja que pot permetre extreure més informació de l'escena que els algorismes clàssics de constància de color. En aquest cas, les múltiples solucions venen ponderades pel seu grau d'aparellament dels colors amb la informació semàntica introduïda. Finalment demostrem que la solució plantejada permet reduir el conjunt de solucions possibles a un conjunt més significant, que és petit i fàcilment interpretable. El nostre estudi està emmarcat en un projecte d'anotació d'imatges que pretén obtenir descriptors que representen la imatge, en concret, els descriptors de la llum de l'escena. Definim dos contextos diferents per aquest projecte: condicions calibrades, quan coneixem alguna informació del sistema d'adquisició, i condicions no calibrades, quan no coneixem res del procés d'adquisició. Si bé ens hem centrat en el cas no calibrat, pel cas calibrat hem proposat també un mètode computacional de constància de color que introdueix l'assumpció de 'món gris' relaxada per a generar un conjunt de solucions possibles més reduït. Aquest mètode té un bon rendiment, similar al dels mètodes existents, i redueix el tamany del conjunt de solucions obtingut. / In this work we present a framework for white point estimation of images under uncalibrated conditions where multiple interpretable solutions can be considered. In this way, we propose to use the colour matching visual cue that has been proved as related to colour constancy. The colour matching process is guided by the introduction of semantic information regarding the image content. Thus, we introduce high-level information of colours we expect to find in the images. Considering these two ideas, colour matching and semantic information, and existing computational colour constancy approaches, we propose a white point estimation method for uncalibrated conditions which delivers multiple solutions according to different interpretations of the colours in a scene. However, we present the selection of multiple solutions which enables to obtain more information of the scene than existing colour constancy methods, which normally select a unique solution. In this case, the multiple solutions are weighted by the degree of colour matching between colours in the image and semantic information introduced. Finally, we prove that the feasible set of solutions can be reduced to a smaller and more significant set with a semantic interpretation. Our study is framed in a global image annotation project which aims to obtain descriptors which depict the image, in this work we focus on illuminant descriptors.We define two different sets of conditions for this project: (a) calibrated conditions, when we have some information about the acquisition process and (b) uncalibrated conditions, when we do not know the acquisition process. Although we have focused on the uncalibrated case, for calibrated conditions we also propose a colour constancy method which introduces the relaxed grey-world assumption to produce a reduced feasible set of solutions. This method delivers good performance similar to existing methods and reduces the size of the feasible set obtained.
|
183 |
RADIC: a powerful fault-tolerant architectureAmancio Duarte, Angelo 28 June 2007 (has links)
La tolerancia a fallos se ha convertido en un requerimiento importante para los ingenieros informáticos y los desarrolladores de software, debido a que la ocurrencia de fallos aumenta el coste de explotación de un computador paralelo. Por otro lado, las actividades realizadas por el mecanismo de tolerancia de fallo reducen las prestaciones del sistema desde el punto de vista del usuario. Esta tesis presenta una arquitectura tolerante a fallos para computadores paralelos, denominada RADIC (Redundant Array of Distributed Fault Tolerance Controllers,), que es simultáneamente transparente, descentralizada, flexible y escalable. RADIC es una arquitectura tolerante a fallos que se basa un controlador distribuido para manejar los fallos. Dicho controlador se basa en procesos dedicados, que comparten los recursos del usuario en el computador paralelo. Para validar el funcionamiento de la arquitectura RADIC, se realizó una implementación que sigue el estándar MPI-1 y que contiene los elementos de la arquitectura. Dicha implementación, denominada RADICMPI, permite verificar la funcionalidad de RADIC en situaciones sin fallo o bajo condiciones de fallo. Las pruebas se han realizado utilizando un inyector de fallos, involucrado en el código de RADICMPI, de manera que permite todas las condiciones necesarias para validar la operación del controlador distribuido de RADIC. También se utilizó la misma implementación para estudiar las consecuencias de usar RADIC en un ambiente real. Esto permitió evaluar la operación de la arquitectura en situaciones prácticas, y estudiar la influencia de los parámetros de RADIC sobre el funcionamiento del sistema. Los resultados probaron que la arquitectura de RADIC funciona correctamente y que es flexible, escalable, transparente y descentralizada. Además, RADIC estableció una arquitectura de tolerancia a fallos para sistemas basados en paso de mensajes. / Fault tolerance has become a major issue for computer engineers and software developers because the occurrence of faults increases the cost of using a parallel computer. On the other hand, the activities performed by the fault tolerance mechanism reduce the performance of the system from the user point of view. This thesis presents RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers,) a fault-tolerant architecture to parallel computers, which is simultaneously transparent, decentralized, flexible and scalable. RADIC is a fault-tolerant architecture that implements a fully distributed controller to manage faults. Such controller rests on dedicated processes, which share the user's resources in the parallel computer. In order to validate the operation of RADIC, we created RADICMPI, a message-passing implementation that includes the elements of the RADIC architecture and complies with the MPI-1 standard. RADICMPI served for to verifying the functionality of RADIC in scenarios with and without failures in the parallel computer. For the tests, we implemented a fault injector in RADICMPI in order to create the scenarios required to validate the operation of the RADIC distributed controller. We also used RADICMPI to study the practical aspects of using RADIC in a real environment. This allowed us to evaluate the operation of our architecture in practical situations, and to study the influence of the RADIC parameters over the system performance. The results proved that the RADIC architecture operated correctly and that it is flexible, scalable, transparent and decentralized. Furthermore, RADIC established a powerful fault-tolerant architecture model for message-passing systems.
|
184 |
Modelización y Asignación de Tareas para Aplicaciones Paralelas con Flujo Continuo de Datos de EntradaGuirado Fernández, Fernando 20 July 2007 (has links)
Las aplicaciones paralelas que procesan flujos continuos de datos de entrada, denominadas como aplicaciones pipeline, son de gran interés para la comunidad científica. Los principales criterios de rendimiento en el proceso de su optimización son dos: (a) minimizar la latencia, de forma que se obtenga el resultado para un dato de entrada en el menor tiempo posible y (b) conseguir un ratio de datos procesados por unidad de tiempo predeterminado, valor denominado como productividad.La necesidad de procesar una flujo continuo de datos, añade un factor de iteratividad en la ejecución de las tareas, lo cual supone un incremento en la complejidad de su optimización respecto a las aplicaciones que solo procesan un dato de entrada.El objetivo de este trabajo de tesis contribuye en aportar una solución en la optimización de las aplicaciones pipeline. El proceso de optimización está basado en la obtención de una productividad específica en la ejecución de la aplicación. Para realizarllo, se aborda el problema mediante dos estrategias: (a) cuando la aplicacione no tienen la capacidad de alcanzar la productividad requerida, se crea una nueva estructura para el grafo de tareas que lo permita y, (b) en la situación de que le requerimiento de productividad sí sea alcanzable, se definen estrategias de mapping que asignan las tareas a los procesadores asegurando la capacidad de obtener el rendimiento marcado como objetivo. La arquitectura de ejecución escogida en esta tesis está basada en la arquitectura de memoria distribuida, por ser ésta la más utilizada en la actualidad en el cómputo de altas prestaciones.Con respecto a la definición del grafo de tareas, esta tesis desarrolla dos técnicas basadas en la paralelización/replicación de taeras y que minimizan la sobrecarga de las comunicaciones. Ambas técnicas localizan las tareas que actúan como cuello de botella en la obtención del requisito de productividad. Con el conocimiento de su funcionalidad y del tipo de flujo de datos a tratar aplican: (a) paralelismo de datos para disminuir el tiempo de cómputo individual de cada uno de los datos de entrada o (b) replicación de tareas para aumentar la capacidad de procesar, de forma concurrente, más datos del flujo de entrada. En el proceso de mapping, en el que las tareas de la aplicación serán asignadas a los nodos de procesamiento de la arquitectura de ejecución, esta tesis propone dos heurísticas de mapping basadas en el concepto de etapa síncrona y con diferente complejidad. Estas heurísticas reciben el nombre de MPASS (Mapping of Pipeline Applications based on Synchronous Stages) y MPART (Mapping of Pipeline Applications based on Reduced Tree). Ambas heurísticas, poseen los mismos objetivos para la asignación: (a) obtener una productividad prefijada, minimizando el número de nodos de procesamiento o (b) minimizar la latencia, bajo un requisito de productividad a alcanzar y, de nuevo, minimizando el número de nodos de procesamiento.La experimentación se ha realizado utilizando un conjunto de aplicaciones sintéticas que modelan el comportamiento de las aplicaciones pipeline y tres aplicaciones reales de diferentes ámbitos científicos: el compresor de vídeo MPEG2, IVUS (IntraVascular UltraSound), encargada de procesar imágenes medicas para definir la estructura arterial y BASIZ (Bright And Satured Images Zones), que detecta en una secuencia de imágenes, aquellas regiones que captan la atención del ojo humano. Los resultados obtenidos demuestran como las técnicas propuestas son capaces de alcanzar el redimiento marcado como objetivo, proponiendo la estructura más adecuada para el grafo de tareas y mediante el mapping apropiado para las aplicaicones pipeline. / Parallel applications that process an input data stream, called pipeline applications, are currently focussing the interest of scientific comunity. The main issues to deal with in the optimization process of these applications are the following two: (a) to minimize latency, allowing the execution of one data of the input stream in the smallest possible time and, (b) to achieve a specific ratio of data processed per time unit, named as throughput.The necessity of processing an input data stream, adds a characteristic of iterativity in the execution of tasks that increases the complexity of the optimization of these applications compared with this for parallel applications that only process a single input data.The aim of this thesis is to contribute with a solution in the optimization of the pipeline applications. The optimization process is based on the obtention of a specific throguhput for the application during the execution. To do this, we confront the problem with two kind of strategies: (a) when the pipeline application is not able to achieve the throughput requirement, we develop the definition of a new task graph structure that allows it and, (b) in the situation where the required throuhgput is achievable, we define task mapping strategies that assign tasks to processors ensuring the capacity of obtaining the performance objective. The execution architecture selected in this thesis is based on the distributed memory arquitecture, as can be the clusters of workstations, which in the present time are broadly used on high performance computing.Related to the task graph definition issue, this thesis propose two new techniques based on task parallelization/replication and reduce the communications overhead. Both techniques find the bottleneck tasks that don't allow to reach the throughput requirement. With the knowledge of their functionality and the kind of input data stream they apply: (a) data parallelism to minimize the individual computation time of a single input data or, (b) task replication in order to increase the ability of the pipeline application to process concurrently a higher number of input data.In the mapping process, where the tasks of the applications are assigned to the processors on the execution architecture, this thesis proposes two new mapping heuristics based in the synchronous stage concept, with different complexity. These heuristics are named as MPASS (Mapping of Pipeline Applications based on Synchronous Stages) and MPART (Mapping of Pipeline Applications based on Reduced Tree). Both mapping heuristics have the same objectives: (a) to obtain the throughput used as the requirement by minimizing the number of processors and, (b) to minimize the latency, under a throughput requirement to be achieved by minimizing the number of processors to be used too.The experimentation process is carried out using a set of synthetic applications that model the behaviour of the pipeline applications, and with three real applications of different scientific fields: the video mpeg-2 compressor, IVUS (IntraVascular-UltraSound) that process medical images in order to determine the arterial structure and BASIZ (Bright and Satured Images Zones) that detects on a image sequence, the zones that capture the main interest of the human eye. The results show that the proposed techniques are able to reach the target performance, proposing the best suitable task graph structure and the appropriate task mapping for these pipeline applications.
|
185 |
Automatic dynamic tuning of parallel/distributed applications on computational gridsFernandes de Carvalho Costa, Genaro 20 July 2009 (has links)
Las aplicaciones paralelas presentan diversos problemas de prestaciones al ser cambiadas para ejecutar en entornos Grid. Las características del sistema pueden ser diferentes en cada ejecución y en algunos casos dentro de una misma ejecución. Los recursos remotos comparten enlaces de red y, los procesos de la aplicación comparten las maquinas con otros procesos. En esos escenarios se propone el uso de la técnica de sintonización dinámica de prestaciones para ayudar las aplicaciones a adaptarse a los cambios en las características del sistema con la intención de resolver los problemas de prestaciones. Esta tesis analiza el problema de la ejecución de aplicaciones paralelas en entornos Grid, herramientas para el análisis de prestaciones disponibles y modelos adecuados para la sintonización dinámica de aplicaciones paralelas en este tipo de entorno. De este análisis, se propone una arquitectura para sintonización dinámica de aplicaciones paralelas en entornos Grid llamada GMATE. Esta arquitectura incluye diversas contribuciones. En el caso donde un gestor de recursos de alto nivel decide el mapeo de procesos de la aplicación, se proponen dos aproximaciones para el seguimiento de procesos que habilita GMATE a localizar donde las capas de software del Grid ha mapeado los procesos de la aplicación. Una aproximación consiste en la integración de GMATE a las capas de software del Grid. La otra integra los componentes requeridos de GMATE dentro de los binarios de la aplicación. El primer enfoque requiere derechos de administración en cuanto que el segundo incrementa el binario del la aplicación, lo que torna más lento el arranque de la misma. Para respetar las políticas de las organizaciones propietarias de los recursos, todas las comunicaciones usan el mismo certificado de seguridad de la aplicación. Esas comunicaciones son hechas con base en las capas del Grid. Esta aproximación habilita la arquitectura a monitorizar y sintonizar los procesos de la aplicación de forma dinámica a las restricciones de cortafuegos de las organizaciones y políticas de uso de la red en las mismas. Para bajar la necesidad de comunicaciones en la arquitectura GMATE, se encapsula parte de la lógica requerida para colectar las medidas y para cambiar los parámetros de la aplicación en componentes encuestados que ejecutan dentro de espacio de memoria del proceso de la aplicación. Para colectar medidas, se ha creado componentes sensores que disminuyen la necesidad de comunicaciones llevando el procesamiento de eventos para dentro del proceso de la aplicación. Diferente de la instrumentación tradicional, los sensores pueden retrasar la transmisión de los eventos y ejecutar operaciones básicas como sumas, temporizadores, promedios o generación de eventos basados en umbrales. Esas capacidades reducen los requerimientos de comunicaciones que son útiles en situaciones de bajo ancho de banda. Se propone también el encapsulamiento de la lógica de cambio en las aplicaciones en componentes actuadores. Los actuadores son instalados en el flujo de ejecución de la aplicación y posibilita la sincronización y baja intrusión en cambio de variables y ejecución de funciones para modificar la aplicación. La arquitectura propuesta posibilita la comunicación entre sensores y actuadores lo cual habilita la sintonizaciones sencillas sin necesidad de comunicaciones. Para aplicar la sintonización dinámica en entornos Grid, necesitamos de un modelo de prestaciones que pueda ser usado en entornos con heterogeneidad de red y procesadores para guiar el proceso. Se propone un modelo de prestaciones basado en una heurística para lograr usar el máximo número de esclavos y el mejor tamaño de grano en una ejecución Maestro-Esclavo en sistemas Grid. Se considera que una clase de aplicaciones pueden ser desarrolladas con la capacidad de cambiar el tamaño de grano en tiempo de ejecución y que esa acción cambia la relación entre cómputo y comunicación. En el escenario donde usuarios reciben un conjunto de recursos para una ejecución paralela, esos recursos pueden configurar un sistema de múltiples clústeres. La heurística del modelo presentado permite guiar la selección de los recursos para disminuir el tiempo total de ejecución de la aplicación. Se intenta buscar el punto donde el maestro usa el máximo número de esclavos posible asignando prioridad a aquellos más rápidos. Se presentan los resultados de sintonización del tamaño de grano y número de esclavos en ejecuciones Maestro-Esclavo en entornos Grid donde se logra bajar el tiempo total de ejecución de la aplicación y aumentando la eficiencia de uso de los recursos. Se presentan las implementaciones de las aplicaciones multiplicación de matrices, N-Body y cargas sintéticas las cuales tienen diferentes grados en la relación entre cómputo y comunicación en escenarios de cambio del tamaño de grano. / When moving to Grid Computing, parallel applications face several performance problems. The system characteristics are different in each execution and sometimes within the same execution. Remote resources share network links and in some cases, the processes share machines using per-core allocation. In such scenarios we propose to use automatic performance tuning techniques to help an application adapt itself thus a system changes in order to overcome performance bottlenecks. This thesis analyzes such problems of parallel application execution in Computational Grids, available tools for performance analysis and models to suit automatic dynamic tuning in such environments. From such an analysis, we propose system architecture for automatic dynamic tuning of parallel applications on computational Grids named GMATE. Its architecture includes several contributions. In cases where a Grid meta-scheduler decides application mapping, we propose two process tracking approaches that enable GMATE to locate where a Grid middleware maps application processes. One approach consists of the integration of GMATE components as Grid middleware. The other involves the need to embed a GMATE component inside application binaries. The first requires site administration privileges while the other increases the application binary which slows down application startup. To obey organizational policies, all communications use the same application security certificates for authentication. The same communications are performed using Grid middleware API. That approach enables the monitoring and tuning process to adapt dynamically to organizational firewall restrictions and network usage policies. To lower the communication needs of GMATE, we encapsulate part of the logic required to collect measurements and change application parameters in components that run inside the processing space. For measurements collection, we create sensor components that reduce the communication needs by event processing inside the process space. Different from traditional instrumentation, sensors can postpone the event transmission and perform basic operations such as summarizations, timers, averages or threshold based event generation. That reduces the communication requirements in cases where network bandwidth is expensive. We also encapsulate the modifications used to tune the application in components called actuators. Actuators may be installed at some point in the program flow execution and provide synchronization and low overhead control of application variables and function executions. As sensors and actuators can communicate with each other, we can perform simple tuning within process executions without the need for communication. As the dynamic tuning is performance model-centric, we need a performance model that can be used on heterogeneous processors and network such Grid Systems. We propose a heuristic performance model to find the maximum number of workers and best grain size of a Master-Worker execution in such systems. We assume that some classes of application may be built capable of changing grain size at runtime and that change action can modify an application's compute-communication ratio. When users request a set of resources for a parallel execution, they may receive a multi-cluster configuration. The heuristic model allows for shrinking the set of resources without decreasing the application execution time. The idea is to reach the maximum number of workers the master can use, giving high priority to the faster ones. We presented the results of the dynamic tuning of grain size and the number of workers in Master-Worker applications on Grid systems, lowering the total application execution time while raising system efficiency. We used the implementation of Matrix-Multiplication, N-Body and synthetic workloads to try out different compute-communication ratio changes in different grain size selections.
|
186 |
P2P-VoD on Internet: Fault Tolerance and Control ArchitectureGodoi, Rodrigo 23 July 2009 (has links)
Un sistema de Vídeo bajo Demanda (Video on Demand - VoD) proporciona que un conjunto de clientes acceda a contenidos multimedia de manera independiente; los usuarios se conectan al sistema, eligen el contenido a visualizar y empiezan a disfrutar del servicio en cualquier instante de tiempo. El vídeo es enviado al cliente, que recibe, descodifica y visualiza el contenido siempre esperando garantía de Calidad de Servicio (Quality of Service - QoS) por parte del sistema. Uno de los objetivos principales en el diseño de servicios de VoD es soportar un gran número de peticiones concurrentes generadas por clientes geográficamente distribuidos; los sistemas de VoD deben conseguir un servicio factible a gran escala y de alta calidad, imponiendo bajos costes de operación y pocas restricciones de despliegue. Recientemente, la distribución de contenidos multimedia en forma de flujo de datos en Internet viene presentando un crecimiento espectacular. La Internet es el entorno más popular de usuarios interconectados y está presente en todo el mundo. Debido a las características de escala global y entorno publico de Internet, esta se ha hecho el ambiente más importante para desplegar el servicio de Vídeo bajo Demanda a gran escala (Large-scale Video on Demand - LVoD). Debido a las limitaciones del modelo cliente-servidor centralizado, los paradigmas peer-to-peer (P2P) y multicast son extensamente aplicados en la distribución multimedia para mejorar la escalabilidad y prestaciones del sistema a través de la compartición de recursos. El P2P está basado en la libre cooperación de iguales con vistas al desarrollo de una tarea común; aprovecha recursos disponibles en el lado del usuario final (almacenamiento, contenido, ancho de banda, poder de procesamiento etc.). El multicast a su vez es una estrategia de comunicación donde un origen tiene la capacidad de transmitir información que puede ser recibida simultáneamente por un grupo de destinos interesados en el mismo contenido. Sin embargo, los paradigmas P2P y multicast añaden nuevas cuestiones en el diseño servicios de VoD para Internet. Los peers son heterogéneos en sus recursos y actúan por su propio libre albedrío, llegando y dejando el sistema en cualquier momento; la carencia o el cambio de la fuente de datos provocada por fallos de peers afectan fuertemente la QoS en sistemas de VoD basados en técnicas de multicast y P2P. Así, la tolerancia a fallos se ha hecho una cuestión crucial en servicios de VoD basados en P2P a fin de garantizar QoS. El mecanismo de tolerancia a fallos se consigue a través del intercambio de mensajes de control; además, el tratamiento de fallos es limitado en el tiempo para proporcionar ausencia de errores y por consiguiente mantener la QoS. Un buen esquema de control se hace imprescindible y su diseño debe ser cuidadoso debido a la restricción de tiempo real del servicio multimedia y el overhead impuesto al sistema por los mensajes de control. Esta tesis presenta un Esquema de Tolerancia a Fallos (Fault Tolerance Scheme - FTS) que trabaja construyendo un sistema de backup distribuido, basado en las capacidades de los propios peers. El FTS está diseñado para organizar un pequeño conjunto de peers que almacenan estáticamente porciones de los archivos multimedia en un buffer llamado 'buffer altruista'. Los clientes que componen el backup distribuido colaboran en el mecanismo de tolerancia a fallos del sistema reservando espacio de almacenamiento (buffer) y capacidad de ancho de banda de subida; los peers seleccionados forman un Grupo de Tolerancia a Fallos (Fault Tolerance Group - FTG). Los resultados obtenidos muestran que el mecanismo de control tiene gran impacto sobre el sistema y exige un diseño cuidadoso; el Esquema de Tolerancia a Fallos propuesto colabora para reducir el overhead impuesto al sistema y es capaz de conseguir tiempos de respuesta bajos en el manejo de fallos; esto mejora la experiencia del usuario reduciendo el retraso en el inicio de la visualización y garantiza un mejor uso de recursos de almacenamiento (buffer). El FTS también distribuye las tareas de control proporcionando fiabilidad y robustez al sistema de VoD. / A Video on Demand (VoD) system provides multimedia content to a set of clients in independent manner; users connect to the system, choose the content to view and start enjoying the service at any given moment. The video is down-streamed to the client, who receives, decodes and displays the content always expecting guaranteed Quality of Service (QoS) from the system. One of the main goals in designing VoD services is to support a great number of concurrent requests generated by geographically distributed clients; VoD systems must achieve a feasible large-scale and high-quality service with the lower costs and fewer deployment restrictions. Recently, multimedia streaming distribution in the Internet presented a spectacular growing. The Internet is the most popular environment of connected users and is deployed throughout the world. Owing to the public and global scale features of Internet, it has become the most important environment to deploy large-scale Video on Demand service (LVoD). Owing to the limitations of centralised server-client model, Peer-to-Peer (P2P) and multicast approaches are widely applied in the multimedia distribution to improve system scalability and performance by sharing resources. P2P is based in the free cooperation of equals in view of the performance of a common task; it takes advantage of available resources at the end host side (storage, content, bandwidth, power processing etc.). The multicast is a communication strategy where a sender has the capability to transmit information that can be received concurrently by a group of interested destinations. Nevertheless, P2P and multicast paradigms add new issues in the design of Internet VoD services. Peers are heterogeneous in their resources and act by their own free will, coming and leaving the system at any time; the lack or the change of data source provoked by peer faults strongly affects the QoS in VoD systems based in P2P and multicast techniques. This way, fault tolerance has become a major issue in P2P-based VoD services in order to guarantee QoS. The fault tolerance mechanism is achieved through the exchange of control messages; moreover, the failure treatment is time limited for providing error absence and consequently maintaining the QoS. A good control scheme is needed and its design must be careful owing to the soft real-time restriction of multimedia service and the overhead imposed on the system. This thesis presents a Fault Tolerance Scheme (FTS) that works by constructing a backup system in a distributed manner, based in own peers' capabilities. The FTS is designed to organise a small set of peers to store portions of the multimedia files statically in a buffer called the 'altruist buffer'. The clients that make up the distributed backup collaborate in system fault tolerance mechanism by reserving buffer space and upload bandwidth capacity; the selected peers form a Fault Tolerance Group (FTG). Results show that the control mechanism has great impact over the system and demands a caution design; the proposed Fault Tolerance Scheme collaborates to reduce the overhead imposed on the system and is able to achieve low response times in dealing with failures; this improves user experience by reducing start-up delays and guarantees a better usage of buffer resources. The FTS also distributes the control tasks providing reliability and robustness to the VoD system.
|
187 |
RTCVD synthesis of carbon nanotubes and their wafer scale integration into FET and sensor processesMartín Fernández, Iñigo 14 September 2010 (has links)
Los nanotubos de carbono (CNTs, carbon nanotubes) son moléculas tubulares cuyo diámetro es de escala nanométrica y cuyas paredes están formadas por capas monoatómicas de carbono. Su estructura en combinación con su morfología unidimensional confieren unas propiedades muy especiales que hacen de los CNTs un material muy atractivo para el desarrollo de amplia gama de aplicaciones.
En el marco de la micro y nanotecnología, los CNTs son un material muy prometedor para la fabricación de dispositivos y sistemas, por ejemplo, en el campo de la nanoelectrónica, los sensores o los sistemas nanoelectromecánicos (NEMS, del inglés nanoeletcromechanical systems). Sin embargo, dado que aún no se han estandarizado procesos para su síntesis controlada, su integración sigue siendo un reto.
Esta tesis fue concebida para avanzar en la integración CNTs en distintos micro y nanodispositivos. El trabajo realizado aborda la ingeniería de procesos, el diseño de dispositivos, y la fabricación y la caracterización de esos dispositivos. Se plantearon dos objetivos principales. El primero fue el adquirir el conocimiento de la síntesis de CNTs mediante la técnica de depósito químico desde fase vapor por calentamiento rápido (RTCVD, rapid termal chemical vapour deposition) y desarrollar procesos para la síntesis de CNTs de una estructura concreta y en una determinada configuración. El segundo objetivo fue el desarrollo de procesos de fabricación para la integración de CNTs en dispositivos basados en diferentes tecnologías y con diferentes funcionalidades.
A pesar de la problemática inherente al desarrollo de los procesos tecnológicos, se cumplieron la mayor parte de los objetivos inicialmente propuestos.
La síntesis de CNTs se logró mediante catalizadores convencionales (principalmente hierro y níquel) y mediante catalizadores no convencionales (platino). Cabe destacar que los procesos de síntesis de CNTs fueron estandarizados a nivel de obleas de 4 pulgadas, tanto para configuraciones de baja densidad de CNTs monocapa (SWCNTs, single-walled carbon nanotubes) como para configuraciones de alta densidad de CNTs multicapa (MWCNTs, multi-walled carbon nanotubes), ya que la síntesis tradicionalmente se realiza a nivel de chip. En cuanto a la integración de CNTs, se optimizaron dos procesos principalmente. Por un lado, se desarrolló una tecnología para la fabricación masiva en oblea de transistores basados en SWCNTs. Mediante esta tecnología se logró la fabricación de 10.000 transistores funcionales en obleas de 4 pulgadas. Por otro lado, se integró gran densidad de MWCNTs sobre los electrodos metálicos de dispositivos que habían sido demostrados para detección bio-electroquímica. La caracterización de estos electrodos demostró que esta actualización de la tecnología mejora el rendimiento de la fabricación y las características electroquímicas de los electrodos respecto a los diseños anteriores.
Los resultados presentados en esta tesis son un paso adelante para la Integración a muy gran escala (VLSI, very large system integration) de CNTs. Los procesos que se desarrollaron son de interés en el campo de la nanoelectrónica, en el campo de la bio-sensores electroquímicos, para la fabricación de dispositivos optoelectrónicos y para la fabricación de NEMS. / Carbon nanotubes (CNTs) are tubular molecules which diameters may be smaller than one nanometre and which walls are formed of single carbon atom layers that are arranged in a honey comb lattice. Because of their one dimensional aspect ratio and properties, which are conferred by their structural arrangement, CNTs are a very attractive material for a wide range of applications.
In the frame of micro- and nanotechnology, CNTs have been demonstrated to be very promising for the fabrication of devices and systems for nanoelectronics, sensors or nanoelectromechanical systems (NEMS). However, standardised processes for their fully controlled synthesis and their successful integration into those systems are still challenging.
This thesis was conceived to advance on the wafer scale integration of CNTs into micro- and nanodevices. Performed work dealt with process engineering, device design, device fabrication and device characterization. Two major goals were pursued: (i) to acquire the knowhow on the synthesis of CNTs by rapid thermal chemical vapour deposition (RTCVD) to develop recipes to synthesize certain in structure CNTs and certain in morphology CNT arrays, and (ii) the wafer scale integration of CNTs into devices with different functionalities and technological processes by conventional fabrication steps.
Despite the inherent problematic of the technological process developments, most of the initially foreseen goals were fulfilled.
The CNT synthesis was achieved by conventional (mainly iron and nickel) and by nonconventional (platinum) catalyst materials. It is remarkable how the CNT RTCVD synthesis processes were standardized at 4 inch wafer scale for either low density of single-walled (SW) CNT arrays or for dense, vertically aligned multi-walled (MW) CNT arrays, since the CNT synthesis is normally performed at chip level.
Regarding the wafer scale integration of the CNTs, two main processes were optimised. On the one side, SWCNTs were integrated in the fabrication of CNT-FETs. This technology resulted in the fabrication of 10,000 functional CNT-FETs on 4 inch wafers in a sole fabrication process. Later on, the technology was upgraded for the fabrication of passivated CNT-FET devices for electrochemical sensing. On the other side, dense arrays of MWCNTs were integrated into devices based on metallic electrodes that had previously been demonstrated for bio-electrochemical sensing. These electrodes were demonstrated to improve the fabrication yield and the electrochemical characteristics with respect to the previous designs.
Presented in this thesis results are a step forward to the Very Large Scale Integration (VLSI) of CNTs. The developed processes are of interest in the field of nanoelectronics, in the field of bio-electrochemical sensing, for the fabrication of optoelectronic devices and for the fabrication NEMS.
|
188 |
Bioremediation of polycyclic aromatic hydrocarbons (PAHs)-contaminated soil: process evaluation through composting and anaerobic digestion approachSayara, Tahseen A. S. 11 May 2010 (has links)
Among the different available remediation technologies, it is well-known that bioremediation methods which mainly depend on microorganisms to degrade, transform, detoxify or break down the contaminants, they are recognized as cost-effective and environmental-friendly methods. In fact, microorganisms “engine of bioremediation process” carry out their normal duty under aerobic or anaerobic conditions, which without doubt extends and motivates the desires to make use of such abilities to reduce environmental threats caused by various contaminants. However, to achieve satisfactory results during any bioremediation process, providing optimal conditions for microorganisms is considered as an essential/crucial task. Composting as one of the applied bioremediation technologies used to remediate soils contaminated with organic contaminants like PAHs still needs more investigation although a valuable effort has been devoted to elucidate the behaviour of this process in the remediation of PAHs-contaminated soils. However, till recently, anaerobically treatment of PAHs-contaminated soil received less attention as it was believed that PAHs are poorly or even impossible to be degraded under such conditions. Therefore, the present study tried to touch both aerobically bioremediation of PAH-contaminated soil through composting and anaerobically treatment of the same soil under strict methanogenic conditions. For both remediation approaches, the effect of some controlling factors had been also evaluated through experiment design methodology employing central design (CCD) technique.
Regarding the composting process, the obtained results demonstrated that this technology is an advantageous and indisputable method to decontaminate PAHs-contaminated soils within short period. Additionally, compost derived from the organic fraction of municipal solid wastes (OFMSW) was found to enhance the contaminants (PAHs) removal rate to high extent. Moreover, a lucid correlation between the contaminants removal rate and the compost stability degree was observed, such that more stable composts better enhanced the remediation process as these composts are believed to have a considerable fraction of humic matter which facilitates the desorption of the contaminants, and get more available as a consequence. At the same time, treatments with stable composts do not produce high temperature during the composting process, and normally they are in the mesophilic ranges which are more favourable for such bioremediation process.
Bioaugmentation of the process through introducing white-rot fungi with desired catalytic capacity (Trametes Versicolor) in attempt to accelerate the degradation process demonstrated that no effect or enhancement was achieved through such approach.
In the second part of the research, anaerobically treatment of PAHs-contaminated soil has been investigated under strict methanogenic conditions employing two types of inocula; thermophilic and mesophilic. The obtained results demonstrated the effectiveness of such biological treatments in this field. Nevertheless, the process was relatively less effective compared with composting. Furthermore, under these conditions and due to unclear reasons, reversible results were obtained as PAHs concentrations were increased with prolonged incubation, indicating the reversed bioformation of PAHs under such oxygen-deficient conditions. Therefore, future work should be devoted to clarify the reasons behind this behaviour.
|
189 |
Simulación de altas prestaciones para modelos orientados al individuoMostaccio, Diego Javier 20 March 2007 (has links)
Existen diversos campos de la biología que necesitan realizar experimentos para estudiar el modelo de comportamiento de diferentes especies. En la presente tesis, se analizan las diferentes posibilidades de análisis en base a sistemas de simulación de altas prestaciones donde se ha desarrollado un laboratorio virtual que permite a los científicos experimentar con sus modelos y realizar pruebas mediante métodos de simulación distribuida. El modelo utilizado es un Modelo Orientado al Individuo con el cual se puede conocer el comportamiento de un grupo partiendo de la interacción entre los individuos que forman el sistema.
Una de las limitaciones de este tipo de simulación orientada al individuo es que es necesario reproducir modelos con un alto grado de detalle. Este tipo de simulaciones necesita grandes potencia de cómputo y solo ha podido transformarse en los últimos años. En virtud de los avances en tecnología de computadores y redes que han favorecido la disponibilidad de cómputo de altas prestaciones (HPC), las simulaciones con grandes cantidades de individuos o alto nivel de detalle, pueden realizarse hoy en día en tiempos considerablemente aceptables a diferencia de las realizadas en sistemas de cómputo convencionales. El laboratorio virtual, que se ha desarrollado como parte del trabajo experimental para probar las teorías de esta tesis, puede ser ejecutado eficientemente en un computador de altas prestaciones y utilizado por científicos de diversas áreas del conocimiento que trabajen con modelos de este tipo.
El modelo orientado al individuo utilizado en este trabajo está diseñado para considerar las tres dimensiones, a diferencia de los modelos bidimensionales utilizados hasta el momento, del movimiento de peces. Esta transformación del modelo se ha llevado a cabo derivando el modelo bidimensional, ampliamente utilizando, y obteniendo resultados excelentes en comparación con sus predecesores.
En este trabajo los objetivos se han centrado en un modelo que describe el comportamiento de peces en un grupo dentro del espacio, pero todos los pasos realizados demuestran que es posible extraer una metodología general para la resolución de problemas y que puede ser generalizada para modelos orientados al individuo de otras especies o sistemas biológicos.
Las aportaciones que presenta este trabajo son el diseño y desarrollo de una metodología de modelado y simulación de altas prestaciones utilizando como caso de uso el movimiento de peces (fishschool) y la implementación de un laboratorio virtual para científicos interesados en el estudio de modelos orientados al individuo (especialmente el de comportamiento de peces) con el agregado que la metodología de trabajo es aplicable a otros campos de la investigación en el ámbito de la ciencia computacional y los sistemas biológicos. Como trabajo adicional también se ha desarrollado un modelo analítico del simulador y se realizan un conjunto de propuestas para mejorar la eficiencia y prestaciones en técnicas de simulación distribuida. / There are several areas in biology that need to perform experiments to study the model behavior of different species. In this thesis, we will analyze the different possibilities of analysis based on high performance simulation systems. In order to study these environments a virtual laboratory has been developed and this allows scientists to experiment and test their models using distributed simulation methods. The model used is an individual-oriented model which allows to know the behavior of a group based on the interaction between individuals within the system.
One limitation of this type of individual-oriented simulation is that models need to be replicated with a high degree of detail. Such simulations require large computational power and, in recent years, with the advance in computer technology and networks it is possible to obtain low cost infrastructures for high performance computing (HPC). These HPC simulations allow experiments with large numbers of individuals or high level of detail in reduced intervals of time unlike those in conventional computer systems. The virtual laboratory, which has been developed as part of experimental work to test the theories of this thesis, can be performed efficiently in a high performance computer and used by scientists from diverse areas of knowledge working with such models.
The Individual-oriented models used in this work are designed to consider three dimensions, unlike two-dimensional models used in the major part of the models of the literature, to the fish movement. This model transformation was carried out by deriving the two-dimensional model, and excellent results are obtained compared to their predecessors.
In this thesis, the objectives have focused on a model that describes the behavior of fish in a group within the space, but their analysis shows that it is possible to extract a general methodology to solve problems and can be generalized to individual-oriented models from other species or biological systems.
The main featured in this work are the design and development of a methodology for modeling and high performance simulation for fish movement (fishschool). The proof of concept of this thesis has been made by developing a virtual laboratory that can be used for scientists interested in studying individual-oriented models (the fish movement behavior in our case) with the addition that the methodology is appliable to other research topics in the field of computer science and biological systems. Additional work also includes an analytical model of the simulator and a set of proposals are suggested in order to improve the efficiency and performance in distributed simulation techniques.
|
190 |
Disseny i desenvolupament de minibioreactors amb instrumentació per a l’optimització de cultius cel· lularsSoley Astals, Albert 22 December 2010 (has links)
L’activitat de recerca i desenvolupament en el camp de la biotecnologia genera de forma
altament dinàmica noves cèl· lules i productes d’interès en múltiples sectors. En aquest
context, cal explorar en temps raonables i amb mitjans altament tecnificats i
estandarditzats, el potencial productor de les diferents cèl· lules modificades, en quant al
seu creixement, la capacitat producció i la qualitat dels productes obtinguts. Establir les
condicions d’un procés productiu basat en cèl· lules requereix completar un nombre
d’etapes molt elevat: des de la selecció del model cel· lular i la realització de treballs de
biologia molecular fins a assolir un procés productiu amb unes condicions optimitzades.
En aquest treball es presenta el disseny i desenvolupament d’un sistema de múltiples
minibioreactors orientats a escometre les primeres fases del desenvolupament del
bioprocés de forma ràpida, sistemàtica i amb informació rellevant sobre l’evolució de les
principals variables de cultiu, de manera que sigui possible realitzar, entre altres
experiments, la selecció de clons, caracterització del seu comportament en cultiu,
optimització de medis de cultiu, i proves de toxicitat de molècules sobre els perfils dels
cultius.
El disseny del sistema de múltiples minibioreactors presentat reuneix els avantatges dels
sistemes habituals de cultiu a petita escala, com són el treball amb volums reduïts i la
capacitat de realitzar diversos cultius en paral· lel, així com els avantatges del treball
amb reactors de major volum, com són l’homogeneïtat i el coneixement que les
principals variables del cultiu estan en valors no limitants per a aquest. Així doncs, s’ha
donat una elevada importància a que els minibioreactors disposin d’un sistema
d’agitació que permeti assegurar l’homogeneïtat del seu contingut, i a disposar de
sistemes de seguiment. Aquests permeten d’una banda conèixer els valors de les
variables dels cultius, i d’altra banda la caracterització del comportament de les cèl· lules
estudiades, obtenint dades útils per al disseny dels bioprocessos corresponents que
puguin ser transferires amb èxit els processos cap a majors escales, i permetent
prosseguir el camí cap a l’escala de producció sense que apareguin incidències,
bàsicament pèrdues de productivitat, degudes a la manca de coneixement existent
habitualment en les cultius a petita escala.
Prèviament a iniciar l’etapa de desenvolupament tecnològic, s’ha realitzat un estudi
preliminar per tal de tenir un major coneixement de les prestacions necessàries dels
equips, tant pel que fa a la funcionalitat dels sistemes que proporcionen les condicions
necessàries per al creixement dels cultius (agitació i aeració), com pel que fa a la potencialitat i limitacions dels sistemes de seguiment seleccionats. D’entrada, l’objectiu
ha estat seguir el pH i l’oxigen dissolt com a variables del cultiu, la concentració
cel· lular per a conèixer el creixement, i el consum d’oxigen com a indicador metabòlic,
si bé el pH també és una variable que dóna informació interessant relativa al
metabolisme i fisiologia dels cultius.
Donats els diferents enfocaments de desenvolupament possibles en funció dels models
cel· lulars a emprar, se n’ha seleccionat un d’ells, les cèl· lules animals. Així, el disseny
detallat del sistema de minibioreactors s’ha orientat cap a aplicacions amb aquest model
cel· lular, i aquesta elecció també s’ha tingut en compte en el capítol de
desenvolupament, on s’han posat a punt els sistemes per a permetre la realització
d’aquest tipus de cultius (bàsicament agitació i aeració), realitzant una caracterització
hidrodinàmica dels minibioreactors desenvolupats. D’altra banda, també en aquest
capítol es presenta el desenvolupament de les tècniques per a seguir la concentració
cel· lular, el pH, l’oxigen dissolt i consum d’oxigen.
La darrera part d’aquest treball, una vegada desenvolupades i validades les diferents
tecnologies, consta de la realització de cultius emprant diferents tipus de cèl· lules,
valorant la reproduïbilitat de l’equip i discutint la informació que aquest proporciona
quan una línia cel· lular es cultiva a condicions diferents.
Finalment, també cal remarcar que aquest treball obre les portes al desenvolupament de
noves prestacions per al sistema de múltiples minibioreactors desenvolupat, com són el
control del pH i de l’oxigen dissolt, i la possible utilització del sistema per al cultiu de
bacteris i llevats. / The research and development in the biotechnological field generates a vast amount of
new cells and products of interest for various economical sectors. In this framework, it is
needed to explore, in reasonable times and with automated means, the potential of the
generated, regarding its growth, productivity and quality of the obtained products.
Establishing the culture conditions of a productive process based in cells required
accomplishing several stages: from the selection of the cellular system and the
realization of molecular biology works to the achievement of a bioprocess having
optimized conditions.
In this work the design and development of a multiple minibioreactor system is
presented, having the aim of fastening the first stages of the bioprocess development, in
a systematic way, and acquiring relevant information regarding the evolution of the
main culture variables, making possible the realization of various sorts of experiments
such as clone selections, the characterization of its culture performance, the culture
medium optimization, and the toxicological evaluation of molecules.
The design of the multiple minibioreactor system combines the benefits of the usual
small scale culture systems, such as the consumption of small amounts of medium ad
the capability of performing multiple parallel cultures, and the benefits of larger scale
culture systems, such as the homogeneity and the knowledge of the main culture
variables, ensuring these do not have limiting values.
Consequently, special attention has been paid to the development of a stirring system
ensuring the homogeneity of the bioreactor content and to the monitoring systems
allowing the characterization of the cell growth and metabolism, which permits having
sufficient data to upscale the process, minimizing the risks of such duty.
Before starting the technological development stage, a preliminary study has been done
with the aim of identifying and characterizing the required equipment features,
regarding the auxiliary equipment supplying the culture conditions (stirring, aeration),
and also regarding the potentiality and limitations of the monitoring systems. The main
culture environmental variables to be monitored are pH and dissolved oxygen, whereas
to monitor growth cellular concentration is to be followed. Additionally, oxygen
consumption is to be used as a metabolic indicator, and pH is also a variable from which
it can be obtained interesting information regarding culture physiology and metabolism.
Given the different design possibilities for the required technologies depending on the
cellular models to be used, one of them, precisely mammalian cells have been chosen.
Thus, the detailed design and development of the minibioreactor system has been
directed towards applications with such cellular model, paying special attention to the
characteristic requirements of mammalian cells (basically agitation and aeration), and to
the hydrodynamic characteristics of the system. On the other hand, also in the
technological development chapter, techniques to monitor cell concentration, pH,
dissolved oxygen and oxygen consumption have been implemented.
Once the technological development has been completed and the required functionalities
validated, in the last part of this work various cultures are performed with the aim of
evaluating the culture reproducibility, and the information obtained by the equipment as
it is used for culturing a certain cell line at various conditions.
Finally, it is also interesting to underline the potential fields of development based on
this work: new features of the multiple minibioreactor system, such as the pH and
dissolved oxygen controls, and the potential use of the system for the culture of bacteria
and yeast.
|
Page generated in 0.2483 seconds