Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
151 |
Algoritmos de asignación basados en un nuevo modelo de representación de programas paralelosRoig Mateu, Concepció 24 July 2002 (has links)
En el momento de ejecutar una aplicación paralela, el programador (o el usuario) se enfrenta a decisiones importantes para reducir el tiempo de ejecución global, tales como cuántos procesadores ha de usar para ejecutar la aplicación y, dado un número de procesadores, cómo distribuir las tareas de la aplicación aprovechando al máximo su capacidad de concurrencia. Al problema de resolver la distribución de las tareas de una manera global se le conoce como el problema del mapping.En la literatura existen dos formas distintas de abordar el problema del mapping en función del conocimiento que se tiene de la aplicación. Cuando el comportamiento de la aplicación es conocido (o predecible) a priori, la asignación se realiza de forma estática (antes de la ejecución), y las tareas se ejecutan en el procesador asignado hasta que finalizan. Por el contrario, cuando el comportamiento de la aplicación no es predecible, la asignación se realiza de forma dinámica, y las tareas pueden cambiar de procesador durante la ejecución. En el presente trabajo nos centramos en el proceso de mapping estático. Para la realización de este proceso, el programa paralelo se suele representar mediante un modelo de grafo de tareas ponderado, que resume las características más relevantes estimadas del comportamiento de la aplicación. En función del tipo de aplicación, en la literatura se utilizan principalmente dos modelos de grafo. Para aplicaciones cuyas tareas se comunican únicamente por el principio y el final, el modelo, denominado TPG (Task Precedence Graph), refleja las comunicaciones y precedencias entre las tareas y el orden parcial de ejecución de las mismas. Cuando se trata de aplicaciones cuyas tareas tienen comunicaciones en cualquier punto, e incluso comunicaciones bidireccionales, en la literatura se utiliza un modelo simplificado, denominado TIG (Task Interaction Graph), en el que no se contemplan las precedencias y se asume que todas las tareas pueden ser simultáneas.Ahora bien, en los entornos actuales de paso de mensajes, el programador no está sujeto a ninguna restricción en cuanto a la ubicación de las primitivas de comunicación dentro de las tareas. Además, debido al tipo de problemas que se resuelven computacionalmente, existe en los últimos años un creciente interés en el desarrollo de aplicaciones formadas por un conjunto de tareas que realizan distintas funciones y que coordinan su ejecución mediante intercambios de información en cualquier punto dentro de las mismas.Para modelar el comportamiento de las aplicaciones con paralelismo de tareas, con un patrón de interacciones entre tareas arbitrario, se propone un nuevo modelo de grafo, denominado Temporal Task Interaction Graph (TTIG). Dicho modelo incluye un nuevo parámetro, denominado grado de paralelismo, que indica la máxima capacidad de concurrencia de las tareas que se comunican, en función de las dependencias provocadas por dichas comunicaciones.A partir del comportamiento obtenido de la aplicación, se propone un mecanismo para determinar las cotas teóricas mínima y máxima sobre el número de procesadores necesario para realizar su ejecución en un tiempo mínimo. A partir del modelo TTIG se definen nuevas políticas de mapping de distintas complejidades que realizan las asignaciones de tareas teniendo en cuenta la posibilidad de concurrencia entre las mismas que indica el grado de paralelismo.En los entornos actuales de paso de mensajes PVM y MPI, la política de mapping que se usa por defecto es una distribución de las tareas basada en el orden de activación de las mismas. Dada la simplicidad de este mecanismo, dichos entornos se mejoran integrando un proceso automático para la extracción del grafo TTIG y para aplicar una política de mapping basada en dicho modelo. / Parallel programming presents the programmers (or the users) with daunting problems when attempting to achieve efficient execution. Two of these problems are to decide how many processors are necessary to execute the application and, for a specific number of processors, how to distribute the application tasks by exploiting their ability of concurrency, also known as the mapping problem.Mapping strategies can be classified as either static or dynamic, depending on the knowledge of the application. When the application has predictable run-time behaviour (i.e. the behaviour is loosely dependent on the input values), the mapping is carried out statically before execution. However, for applications whose run-time behaviour is not deterministic or not so predictable, performing mapping only once at the beginning is insufficient. For these cases the mapping is carried out dynamically during run-time.In this work, we focus on the static mapping problem. In order to accomplish the static mapping efficiently, the characteristics of the parallel program have to be known or estimated prior to execution. In this case, the application is represented in a task graph that summarizes the application behaviour.Depending on the characteristics of the application to be modelled, two distinct task graph models have been extensively used in the literature. The Task Precedence Graph (TPG), is a directed graph where nodes and arcs represent the tasks and the task precedence constraints respectively. This is effective for applications where interactions between tasks take place only at the beginning and at the end of their execution. On the other hand, distributed applications where the executing tasks are required to communicate during their lifetime rather than just at the initiation and at the end, are usually modelled in the literature by the Task Interaction Graph (TIG). This is an undirected graph that does not include temporal information and it is normally assumed that all the tasks may run in parallel.In current message-passing environments, the programmer has no restriction about the allocation of communication primitives inside tasks. Moreover, there is growing interest in the development of applications composed of a set of tasks carrying out different functions (i.e. with task parallelism) that coordinate one to each other through message transference at any point inside them.To model these applications that have an arbitrary task interaction pattern, we propose a new task graph model, called Temporal Task Interaction Graph (TTIG), that captures temporal information about parallel programs with a new parameter called degree of parallelism. This gives information about the potential concurrency that each pair of adjacent tasks can achieve, according to their mutual dependencies.From the definition of the application behaviour, a heuristic method is proposed to determine the theoretical maximum and minimum number of processors that are necessary to execute the application in the minimum time.Starting from the TTIG model, two new mapping algorithms are defined with different complexities, that carry out the allocation according to the ability of concurrency of tasks indicated by the degree of parallelism.In current message-passing environments PVM and MPI, the processor mapping mechanism is based on simply heuristics that take decisions independently of the relationship exhibited by tasks. Thus, these environments are enhanced by integrating an automatic mechanism to extract the TTIG for a given application, and to apply a mapping heuristic based on the model.
|
152 |
On the design and construction de agent-mediated institucionsRodríguez Aguilar, Juan Antonio 25 July 2001 (has links)
El presente trabajo aborda la especificación, diseño e implementación de organizaciones abiertas de agentes. Se defiende que tales organizaciones pueden ser diseñadas e implementadas de manera efectiva como organizaciones electrónicas institucionalizadas (instituciones electrónicas) compuestas de un gran número de agentes heterogéneos (tanto humanos como software) adoptando diversos roles e interactuando por medio de ilocuciones. Adicionalmente postulamos que el diseño y la implementación de instituciones electrónicas deben ser guiadas por una metodología bien fundamentada. Es por ello que proponemos una especificación formal de instituciones electrónicas que fundamente su diseño, análisis e implementaciónA continuación presentamos un modelo computacional que emerge de y fielmente captura la formalización resultante de la noción de institución electrónica. Nuestro modelo computacional se define y explota sobre la base de la noción de mediación para fundamentar la construcción de infraestructuras para instituciones electrónicas. Así, proponemos construir instituciones electrónicas a partir de agentes institucionales ---agentes en los que la institución delega sus servicios e interagentes ---agentes software autónomos dedicados a mediar la interacción entre cada agente y la sociedad de agentes en el marco de una institución electrónica. De esta manera las instituciones electrónicas son concebidas computacionalmente como instituciones electrónicas mediadas por agentes, ya que tanto los servicios institucionales como las interacciones son mediados por agentes.Ilustramos la construcción práctica de instituciones electrónicas mediadas por agentes describiendo el desarrollo de una casa electrónica de subastas inspirada en las lonjas de pescado tradicionales donde agentes heterogéneos (humanos y software) pueden comerciar.Finalmente presentamos la evolución de la casa de subastas electrónicas a una plataforma para la experimentación en escenarios de subasta. Mostramos cómo en tales escenarios agentes compradores y vendedores de diferentes complejidades participan en subastas definidas de acuerdo a unas condiciones de mercado estandarizadas, siendo evaluados en función de su rendimiento en el mercado. Desde nuestro punto de vista tales escenarios competitivos constituyen interesantes y ricos dominios en los que estudiar cuestiones generales relacionadas con arquitecturas de agentes que comercian y, más específicamente, con sus comportamientos estratégicos. / This thesis focuses on the specification, design and implementation of open agent organisations. We argue that open agent organisations can be effectively designed and implemented as institutionalised electronic organisations (electronic institutions) composed of a vast amount of heterogeneous (human and software) agents playing different roles and interacting by means of speech acts. Then we take the view that the design and development of electronic institutions must be guided by a principled methodology. For this purpose we propose a formal specification of electronic institutions that founds their design, analysis and development.Next we present a computational model that arises from and fully captures the resulting formalisation of electronic institution. Our computational model strongly relies on and exploits the notion of mediation for founding the realisation of electronic institutions' infrastructures. Thus we propose how to fully realise an electronic institution based on institutional agents ---the agents to which the institution delegates its services--- and interagents ---autonomous software agents devoted to mediating the interaction between each agent and the agent society in the framework of an electronic institution. Therefore electronic institutions are computationally conceived as agent-mediated electronic institutions since both institutional services and interactions are mediated by agents.We illustrate the practical realisation of agent-mediated electronic institutions by describing the development of an electronic auction house inspired by the age old institution of the fish market where heterogeneous (software and human) agents may trade.Lastly we present the evolution of the electronic auction house into a test-bed for experimenting with auction-based trading scenarios. We show how in these scenarios trading agents of arbitrary complexity participate in auctions under a collection of standardised market conditions and are evaluated according to their actual market performance. We argue that such competitive situations constitute convenient problem domains in which to study issues related with trading agent architectures in general and agent-based trading strategies in particular.
|
153 |
Statistical Independence for classification for High Dimensional DataBressan, Marco José Miguel 26 March 2003 (has links)
No description available.
|
154 |
Trust and reputation for agent societiesSabater Mir, Jordi 28 July 2002 (has links)
No description available.
|
155 |
A Methodology to Enhance the Prediction of Forest Fire PropagationAbdalhap, Baker 18 June 2004 (has links)
Los incendios forestales tienen efectos significativamente negativos sobre la ecologiíta, economía y sociedad. La simulación de propagación del fuego es todo un reto, debido a la complejidad de los modelos físicos implicados, de la necesidad de una gran cantidad de cómputo y de las dificultades en proporcionar los parámetros de la entrada exactos. Hay ciertos parámetros que no se pueden medir directamente, pero que pueden ser estimados a partir de las medidas indirectas (por ejemplo, los contenidos de agua en la vegetación). Otros parámetros se pueden medir en algunos puntos particulares, pero el valor de tales parámetros se debe, entonces, interpolar al terreno entero (por ejemplo, la velocidad del viento y la dirección). En ambos casos es extremadamente difícil saber el valor exacto de cada parámetro en tiempo de ejecución. Todos estos factores implican que, en la mayoría de los casos, los resultados proporcionados por los simuladores no concuerdan con la propagación del fuego real. Así, los simuladores no son enteramente útiles, puesto que las predicciones no son confiables. Los parámetros de entrada son una de las principales fuentes de desviación entre los resultados del simulador y la propagación del fuego real. Una manera de superar este problema consiste en la optimización de los parámetros de entrada con el objetivo de encontrar un conjunto de valores de entrada de modo que la propagación predicha del fuego concuerde con la propagación del fuego real. Algoritmos evolutivos para optimizar los parámetros de la entrada se han utilizado. Sin embargo, tales técnicas de optimización se deben realizar en tiempo real, y por lo tanto, se deben aplicar algunos métodos para acelerar el proceso de optimización. En este trabajo, hemos aplicado un análisis de sensibilidad a los parámetros de entrada del simulador, con el objetivo de determinar cuales de ellos afectan más el resultado de la simulación, una vez identificados los parámetros más sensibles, se concentra el esfuerzo de optimización sobre ellos aprovechamos así, el cómputo ofrecido por los sistemas distribuidos.A continuación se describe la organización de la tesis:En el capítulo uno introducimos la ciencia computacional y la predicción de propagación de incendios forestales. Después introducimos la metodología para mejorar la predicción (capítulo 2). En el capitulo 3, discutimos las maneras posibles de paralelizar la metodología y la implementación de la misma. Los resultados experimentales de comparación de algoritmos de optimización se incluyen en el capitulo 4. En capítulo 5 se describen diferentes estrategias para acelerar la optimización. Y, por último la aplicación de la metodología sobre casos reales se presenta en el capítulo 6. / Wild land fire is an important problem from the ecological, economical and social point of view. Fire propagation simulation is seen as a challenging problem in the area of simulation, due to the complexity of the physical models involved, the need for a great amount of computation and the difficulties of providing accurate input parameters. There are certain parameters that cannot be measured directly, but that must be estimated from indirect measures (for example, the moisture contents in vegetation). Other parameters can be measured in some particular points, but the value of such parameters must then be interpolated to the whole terrain (for example, the wind speed and direction). In both cases it is extremely difficult to know the exact value of each parameter at run-time. All these factors imply that, in most cases, the results provided by simulation tools do not match real propagation. Thus, that simulation tools are not wholly useful, since the predictions are not reliable. Input parameters appear as one of the major sources of deviation between predicted results and real-fire propagation. A way to overcome this problem, consist of optimizing the input parameters with the aim of finding an input set so that predicted fire propagation matches real fire propagation. Evolutionary algorithms have been used to optimise the input parameters. However, such optimization techniques must be carried out during real time operation and, therefore, some methods must be applied to accelerate the optimization process. For this purpose, we propose to apply a sensitivity analysis to the input parameters in order to asses their output impact degree and, consequently, determine the parameters that are worthy to spend time in tuning and the parameters that is better not to spent too much effort on them and keep them in an estimated value. These methods take advantage of the computational power offered by distributed systems.The thesis is organized as followsFirst we introduce computational science and some issues of forest fire propagation prediction. Then we introduce a theoretical description of the enhanced prediction method (Chapter 2). Then, we discuss the possible ways of parallelizing the method and a description of the implementation is stated in chapter 3. After that an illustration of experimental comparison of the implemented optimization techniques is reported in chapter 4. We discuss, in chapter 5, the theory and experiments of possible ways to accelerate the optimization methods. Finally, in chapter 6, an application of the complete methodology on real cases is included. In the following we describe in more details each chapter.In chapter 2, we describe a pragmatic approach that intended to improve the prediction quality of forest-fire simulators with the existence of all imperfections in real life (described in the introduction). As mentioned, enhanced prediction method is based on searching for values of input parameters that enhance the prediction of the simulators. Therefore, search methods occupy an important part of the Thesis. Thus, a theoretical discussion of search methods is introduced in chapter [cha:A-methodology-to].Chapter 3 discusses the way we have parallelized the method to reduce the time of execution and make it possible to execute the method in reasonable time. In addition, a full description of the implementation of the method is reported.In chapter 4, we illustrate our experimental study to tune and compare several optimization techniques that could be used in the proposed methodology. Chapter 5 describes the ways to accelerate the optimization method so that we can reach the optimal solution in less iteration and, therefore in less time. In the same chapter we illustrate the experimental study performed.In chapter 6, we apply this methodology on real fire lines extracted from laboratory experiment, which were specifically designed to test our methodology.Finally, in chapter 7, we address the main conclusions and propose future directions that can extend and enhance this research.
|
156 |
Face Classification Using Discriminative Features and Classifier CombinationMasip Rodó, David 16 June 2005 (has links)
A mesura que la tecnologia evoluciona, apareixen noves aplicacions en el mon de la classificació facial. En el reconeixement de patrons, normalment veiem les cares com a punts en un espai de alta dimensionalitat definit pels valors dels seus pixels. Aquesta aproximació pateix diversos problemes: el fenomen de la "la maledicció de la dimensionalitat", la presència d'oclusions parcials o canvis locals en la il·luminació. Tradicionalment, només les característiques internes de les imatges facials s'han utilitzat per a classificar, on normalment es fa una extracció de característiques. Les tècniques d'extracció de característiques permeten reduir la influencia dels problemes mencionats, reduint també el soroll inherent de les imatges naturals alhora que es poden aprendre característiques invariants de les imatges facials. En la primera part d'aquesta tesi presentem alguns mètodes d'extracció de característiques clàssics: Anàlisi de Components Principals (PCA), Anàlisi de Components Independents (ICA), Factorització No Negativa de Matrius (NMF), i l'Anàlisi Discriminant de Fisher (FLD), totes elles fent alguna mena d'assumpció en les dades a classificar. La principal contribució d'aquest treball es una nova família de tècniques d'extracció de característiques usant el algorisme del Adaboost. El nostre mètode no fa cap assumpció en les dades a classificar, i construeix de forma incremental la matriu de projecció tenint en compte els exemples mes difícilsPer altra banda, en la segon apart de la tesi explorem el rol de les característiques externes en el procés de classificació facial, i presentem un nou mètode per extreure un conjunt alineat de característiques a partir de la informació externa que poden ser combinades amb les tècniques clàssiques millorant els resultats globals de classificació. / As technology evolves, new applications dealing with face classification appear. In pattern recognition, faces are usually seen as points in a high dimensional spaces defined by their pixel values. This approach must deal with several problems such as: the curse of dimensionality, the presence of partial occlusions or local changes in the illumination. Traditionally, only the internal features of face images have been used for classification purposes, where usually a feature extraction step is performed. Feature extraction techniques allow to reduce the influence of the problems mentioned, reducing also the noise inherent from natural images and learning invariant characteristics from face images. In the first part of this thesis some internal feature extraction methods are presented: Principal Component Analysis (PCA), Independent Component Analysis (ICA), Non Negative Matrix Factorization (NMF), and Fisher Linear Discriminant Analysis (FLD), all of them making some kind of the assumption on the data to classify. The main contribution of our work is a non parametric feature extraction family of techniques using the Adaboost algorithm. Our method makes no assumptions on the data to classify, and incrementally builds the projection matrix taking into account the most difficult samples.On the other hand, in the second part of this thesis we also explore the role of external features in face classification purposes, and present a method for extracting an aligned feature set from external face information that can be combined with the classic internal features improving the global performance of the face classification task.
|
157 |
A new distributed diffusion algorithm for dynamic load-balancing in parallel systemsCortés Fité, Ana 04 December 2000 (has links)
No description available.
|
158 |
Revisión de la teoría de los Textons. Enfoque computacional en colorÁlvarez Fernández, Susana 27 July 2010 (has links)
El color y la textura son dos estímulos visuales importantes para la interpretación de las imágenes. La definición de descriptores computacionales que combinan estas dos características es aún un problema abierto. La dificultad se deriva esencialmente de la propia naturaleza de ambas, mientras que la textura es una propiedad de una región, el color es una propiedad de un punto.Hasta ahora se han utilizado tres los tipos de aproximaciones para la combinación, (a) se describe la textura directamente en cada uno de los canales color, (b) se describen textura y color por separado y se combinan al final, y (c) la combinación se realiza con técnicas de aprendizaje automático. Considerando que este problema se resuelve en el sistema visual humano en niveles muy tempranos, en esta tesis se propone estudiar el problema a partir de la implementación directa de una teoría perceptual, la teoría de los textons, y explorar así su extensión a color.Puesto que la teoría de los textons se basa en la descripción de la textura a partir de las densidades de los atributos locales, esto se adapta perfectamente al marco de trabajo de los descriptores holísticos (bag-of-words). Se han estudiado diversos descriptores basados en diferentes espacios de textons, y diferentes representaciones de las imágenes. Asimismo se ha estudiado la viabilidad de estos descriptores en una representación conceptual de nivel intermedio.Los descriptores propuestos han demostrado ser muy eficientes en aplicaciones de recuperación y clasificación de imágenes, presentando ventajas en la generación de vocabularios. Los vocabularios se obtienen cuantificando directamente espacios de baja dimensión y la perceptualidad de estos espacios permite asociar semántica de bajo nivel a las palabras visuales. El estudio de los resultados permite concluir que si bien la aproximación holística es muy eficiente, la introducción de co-ocurrencia espacial de las propiedades de forma y color de los blobs de la imagen es un elemento clave para su combinación, hecho que no contradice las evidencias en percepción. / Colour and texture are important visual cues for image understanding. The definition of computational descriptors that combine both features is still an open problem. The difficulty is essentially due to the inherent nature of both cues, while texture is a property of a region, colour is a property of a point.Since now three approaches have been used for combining cues, (a) texture is directly described in each one of the colour channels, (b) texture and colour are described separately and combined in a latter step, and (c) the combination is done using machine learning techniques. Considering that this issue is solved at early stages of the human visual system, in this work we propose to study the problem using a direct implementation of a perceptual theory, the texton theory, and to explore its extension to colour.Since texton theory is based on the description of texture by the densities of local attributes, this matches perfectly with an holistic framework where descriptors are based on bag-of-words. Some descriptors based on different textons spaces and different image representations have been studied. Furthermore, the feasibility of these descriptors has also been studied for intermediate levels of image representation.The proposed descriptors have proved high efficiency in retrieval and image classification. They also present some advantages in vocabulary generation. The quantification is done directly on low-dimensional spaces, whose perceptual properties allow low-level semantic associations to the visual words. The results make us to conclude that although the performance of holistic approaches is high, the introduction of spatial co-ocurrence of blob properties, shape and colour, is a key element for their combination. This conclusion agrees with perceptual evidences.
|
159 |
Planificación de Diferentes Clases de Aplicaciones en Entornos No Dedicados Considerando Procesadores MulticoreGarcía Gutiérrez, José Ramón 19 July 2010 (has links)
A día de hoy es prácticamente imposible encontrar una gran institución que no disponga de un parque de ordenadores considerable, debido al alto nivel de informatización de la sociedad actual. El enorme potencial que representan estos miles de ordenadores atrae poderosamente la atención en los ámbitos científicos e industriales, generando opciones viables para su aprovechamiento. Las universidades, instituciones que históricamente se han mantenido a la vanguardia en la investigación e innovación científica, representan un caso especialmente bien posicionado a la hora de generar tanto los recursos informáticos como la necesidad de su uso.El poder de cómputo existente en los laboratorios y aulas de estudio universitarias, agrupaciones naturales de recursos informáticos, crea grandes oportunidades para la computación paralela, animándonos a buscar opciones viables para su aprovechamiento. Como resultado de este interés, nuestro grupo ha creado un entorno de planificación, enfocado hacia los clusters no dedicados. La constante y rápida evolución de los componentes, tanto a nivel de la arquitectura de la CPU como del sistema operativo, así como de las aplicaciones ejecutadas, hace que tengamos que adaptar nuestras propuestas. Nuestra propuesta consiste en crear una Máquina Virtual con doble funcionalidad, ejecutar la carga local de usuario y aprovechar los períodos de inactividad de nodos a efectos de poder usarlos para ejecutar carga paralela. Tanto el tipo de las aplicaciones como las características del hardware del escenario objetivo, y en el momento actual ambas han evolucionado. Nuevos tipos de aplicaciones paralelas con requerimientos periódicos de CPU son cada día más comunes en el mundo científico e industrial. Este tipo de aplicaciones pueden requerir un tiempo de retorno (turnaround) específico o una Calidad de Servicio (Quality of Service, QoS) determinada. Para nuestro caso particular, reviste especial importancia el conocimiento que poseemos de los usuarios locales, debido a que nuestro entorno está diseñado para trabajar en clusters no dedicados. Un usuario local puede estar visualizando un vídeo almacenado en su ordenador, lo cual implica necesidades de CPU periódicas y un mayor uso de memoria. La aparición de nuevos tipos de aplicaciones, como vídeo bajo demanda ó realidad virtual, que se caracterizan por la necesidad de cumplir sus deadlines, presentando requerimientos periódicos de recursos. Este tipo de aplicaciones, donde la pérdida de deadlines no se considera un fallo severo, han sido denominadas en la literatura aplicaciones soft-real time (SRT) periódicas.Esta interesante evolución de las necesidades de los usuarios no es el único digno de atención. El crecimiento en la capacidad de cómputo de los procesadores en los últimos años se ha visto frenado a causa de las barreras físicas del espacio y la velocidad de las señales, obligando a los fabricantes de procesadores a explorar otras vías de crecimiento. Desde hace ya algún tiempo el paralelismo de las aplicaciones se ha convertido en una de las grandes apuestas. Hoy en día los procesadores de dos núcleos son la mínima configuración que encontraremos en un ordenador, y se prevé que el número de núcleos continuará creciendo en los próximos años.Los clusters no dedicados ofrecen un gran potencial de un uso, debido a que los recursos materiales ya están disponibles y el cálculo paralelo se realiza simultáneamente con el del usuario local. Imaginando el escenario actual en los clusters no dedicados, encontramos nuevas aplicaciones de escritorio y paralelas, así como plataformas hardware más potentes y complejas. En esta situación investigar el problema y realizar propuestas relacionadas con la planificación de los diferentes tipos de aplicaciones en clusters no dedicados, considerando las plataformas multicore, supone un nuevo reto a asumir por los investigadores y conforma el núcleo de este trabajo. / Today it is virtually impossible to find an institution that does not have a considerable amount of computers, due to the high level of computerization of society. The enormous potential of these large number of computers attract a lot of attention in science and industry, generating viable options for their use. The universities, institutions that historically have remained at the forefront of research and scientific innovation, represent a case particularly well positioned in generating both, computing resources and the need to use. The computational power present in laboratories and university study rooms, natural groupings of information resources, creating great opportunities for parallel computing, encouraging us to seek viable options for their use. As a result of this interest, our group has created a parallel scheduling environment, focused on non-dedicated clusters. The constant and fast evolution of the components, both at the architecture of the CPU and the operating system and applications executed, forces us to adapt our proposals. Our proposal is to create a Virtual Machine with dual functionality, run the local load user and take advantage of downtime for the purposes of nodes it can be used to run parallel load. At present both, applications and hardware specifications of the target scenario, have evolved. New types of parallel applications with periodic CPU requirements are becoming more common in science and industry. Such applications may require a return time (turnaround) or a specific QoS (Quality of Service). Since our framework is designed to work in non-dedicated clusters, having knowledge of the local users behavior is of particular importance. A local user may be viewing a video stored on your computer, which involves periodic CPU requirements and increased use of memory. The emerging new types of applications, such as video on demand or virtual reality are a fact. This new types of applications are characterized by the need to meet their deadlines, presenting periodic resource requirements. This type of application, where the loss of deadlines is not considered a severe failure, has been named in the literature uses soft-real time (SRT) at regular intervals. This exciting evolution of user needs is not the only one worthy of attention. The growth in computing power of processors in recent years has been hampered because of the physical barriers of space and speed of the signals, forcing chip makers to explore other avenues of growth. For some time the parallelism of the applications has become one of the biggest bets. Today's dual-core processors are the minimum configuration of any computer, and it is expected that the number of nuclei continue to grow in the coming years. The non-dedicated clusters offer great potential for use, because the computational resources are already available, and parallel computing is performed simultaneously with the local user. Figuring out the current scenario in the non-dedicated clusters, we find new desktop applications, parallel and more powerful and complex hardware platforms. In this situation, research lines related to the planning of the different types of applications in non dedicated clusters, considering multi-core platforms, is a new challenge to be assumed by researchers and constitute the core of this work.
|
160 |
Monitorització i control del procés de producció de proteïnes heteròlogues en el llevat metilotròfic Pichia PastorisCos Busquets, Oriol 16 September 2005 (has links)
Aquest treball es centra en la investigació sobre la producció de proteïnes heteròlogues en el llevat metilotròfic Pichia Pastoris. El principal avantatge de la utilització d'aquest sistema d'expressió és l'existència del promotor d'alcohol oxidasa, un dels més eficaços i fortament regulats per la presència de metanol com a única font de carboni. El gen hoste emprat és la lipasa del fong Rhizopus oryzae, proteïna d'elevat interès industrial i biotecnològic per les seves nombroses i variades aplicacions.De quatre tipus de soques diferents, dos parelles de diferent fenotip (Mut+ i Muts) i dins el mateix fenotip amb una o vàries còpies del gen hoste, s'ha seleccionat la soca més adient, en aquest cas Muts singlecopy, per una posterior explotació en cultiu semicontinu segons criteris de productivitat i dinàmica de creixement.S'ha observat que un dels problemes que presenta aquest tipus de cultiu és la reproductibilitat i el control de la concentració de metanol que s'aconsella no superar els nivells considerats com a tòxics de 10 g·l-1. Diferents mesures com l'anàlisi de la composició dels gasos de sortida del fermentador, l'extracció automàtica de mostres i la gestió de tota la informació del cultiu des de un programari dissenyat específicament, milloren significativament el seguiment i el control del cultiu. La disponibilitat de noves mesures del cultiu permeten estimar variables d'estat com la biomassa i la velocitat específica de creixement que són molt útils per conèixer el estat fisiològic del microorganisme.Per aconseguir mantenir estable la concentració de substrat inductor s'ha proposat utilitzar un llaç de control en retroalimentació començant pels sistemes de control més clàssics basats en l'error. La dinàmica canviant del sistema i el temps mort també variable fa que controls de tipus "on-off" i Proporciona Integral no siguin adients per mantenir prou estable la concentració de substrat. Com alternativa, s'ha implementat amb èxit un controlador predictiu basat en model que s'adapta contínuament al consum canviant de substrat inductor.Utilitzant de forma conjunta totes les millores instrumentals i de control del procés s'ha observat la influència que té la concentració de metanol sobre la producció de proteïna. D'aquest estudi se'n dedueix que mantenir la concentració a 1 g·l-1 durant el cultiu pot augmentar de forma significativa la productivitat. Paral·lelament es defineix que per maximitzar la productivitat la durada del cultiu ha de ser al voltant de les 80- 90h.Es pot afirmar que la instal·lació d'instrumentació juntament amb l'estimació, modelització i control d'algunes de les variables principals del cultiu, són mesures que permeten millorar la producció extracel·lular de proteïnes heteròlogues en Pichia Pastoris. / In this work the production of heterologous proteins by the methilotrophic yeast Pichia Pastoris has been studied. The main advantage of this expression system is the existence of a strong and tightly regulated (methanol-inducible) promoter from the alcohol oxidase gene (PAOX1).Using a battery of four strains, which secrete a Rhizophus oryzae lipase (ROL), the combined effects of gene dosage and Mut phenotype on recombinant protein production by P. pastoris were observed in fed-batch cultures. This study concludes that the use of Muts ROL single copy strain is advantageous because it allows easier process control strategies with high productivity.One of the main problems of these cultures is the low reproducibility and the need of accurate control of the methanol concentration in the fermentation to maintain it below toxic limits, 10 g·l-1. The implementation of exhaust gas analyzer, an autosampler system and specific software to on-line administrate the culture information improved significantly the control of the bioprocess.With several of these on-line measures it has been implemented an estimation algorithm that allows to determine both the specific growth rate of the microorganism and biomass concentration, used as physiologic indicators.To control the methanol concentration at an optimal set-point level during the cultivation, a feedback control using different error based controllers has been implemented. The use of on-off and PI (Proportional Integral) controllers is not recommended due to the dynamics of the biological system and the large death time of the system. As alternative, a predictive control algorithm based on the on-line estimation of the methanol rate has been successfully implemented.The improvement of the instrumentation and control of the bioprocess has provided the tools for the study of the influence of the methanol concentration on protein production. It has been observed that if the methanol concentration is maintained at 1 g·l-1 productivity increase about 140% is produced. Moreover, it suggested that to maximize the productivity of the system, the duration of the fed-batch fermentation should be around 80-90 h.The implementation of new instrumentation jointly with the use of software sensors, the modeling of the bioprocess, and the control of some of the fermentation variables significantly improved the production of the extracellular heterologous Rhizopus oryzae lipase by the yeast Pichia pastoris.
|
Page generated in 0.0362 seconds