121 |
Extending the Usability of a Dynamic Tuning EnvironmentCaymes Scutari, Paola Guadalupe 19 July 2007 (has links)
La demanda de cómputo de altas prestaciones está en constante especialmente en el área científica ya que debe resolver problemas complejos. En general, el volumen de datos y las operaciones que deben realizarse sobre ellos requieren la utilización de sistemas muy potentes. Ello ha conducido a una mayor utilización del paradigma paralelo/distribuido. El proceso de optimización, denominado proceso de sintonización, es el proceso mediante el cual el comportamiento de la aplicación es adaptado y mejorado a travÎs de la modificación de sus parámetros críticos. El proceso de sintonización incluye varias fases. En primer lugar, durante una fase de monitorización se recoge información acerca del comportamiento de la aplicación. A continuación, dicha información es analizada para detectar problemas, deducir las causas y determinar soluciones. Finalmente, deben aplicarse los cambios necesarios en el código de la aplicación para resolver el problema y así mejorar su rendimiento. Afortunadamente, existen diferentes herramientas y aproximaciones para ayudar a los usuarios en las diferentes fases de optimización (monitorización, análisis o sintonización). Una de las herramientas disponibles es MATE (Monitoring, Analysis and Tuning Environment), un entorno para la sintonización dinámica y automática de aplicaciones paralelas. MATE, como su nombre indica, consiste en tres fases continuas e iterativas para adaptar el comportamiento de la aplicación de acuerdo al estado actual del ambiente de ejecución. El conocimiento que utiliza MATE para sintonizar los problemas de rendimiento es encapsulado en módulos de software denominados "tunlets". Cada tunlet provee la lógica necesaria para recolectar información de la ejecución de la aplicación, analizarla y decidir cuáles son las acciones de sintonización necesarias. El objetivo del presente trabajo es extender la usabilidad de MATE, cubriendo dos aspectos diferentes de MATE: - la mejora del rendimiento alcanzado por el análisis centralizado realizado por MATE, dado que representa un cuello de botella cuando la aplicación crece. En este trabajo presentamos una alternativa para lograr que MATE escale. - hacer de MATE una herramienta más amigable para facilitar la inclusión de conocimiento en MATE. De esta manera, se logra que MATE sea transparente. Respecto del primer aspecto, se propone una nueva aproximación para ejecutar el proceso de análisis, denominada Distributed-Hierarchical Collecting-Preprocessing Approach. Esta nueva aproximación se basa en la recolección distribuida de eventos lo que alivia la recolección centralizada realizada por MATE en su implementación original, así como también el preprocesamiento de las operaciones acumulativas o comparativas, siempre que sea posible. De esta manera, el Global Analyzer recibe de cada Collector-Preprocessor una estructura que condensa resumida sólo la información necesaria para la evaluación global de modelo de rendimiento, lo que reduce considerablemente la sobrecarga sufrida en la aproximación centralizada. De esta manera, MATE presenta propiedades de escalabilidad. Respecto del segundo aspecto, se propone una metodología, incluyendo un lenguaje y un traductor dise-ados y desarrollados ad hoc para insertar tunlets (conocimiento) en MATE de forma automática. Utilizando la metodología propuesta, el usuario no necesita entrar en detalles de implementación de MATE. Así, mediante la definición de un conjunto de abstracciones sobre la aplicación y sobre el modelo de rendimiento, las abstracciones pueden formalizarse en la especificación de un tunlet por medio del lenguaje propuesto. Tal especificación será automáticamente traducida en un tunlet listo para utilizarse en MATE. Escalabilidad y transparencia son dos cualidades necesarias en MATE para que sea una herramienta más útil y amigable para los usuarios. Las propuestas presentadas intentan proveer MATE con tales características. La experimentación, confirma la viabilidad de las propuestas. / In the last years, computing performance demand has been in increase specially in the scientific field that has to solve complex problems. In general the data set size and the complexity of the operations over them require the use of very powerful systems. Thus, the increasing necessity for high performance systems/computing has been directing the attention of the scientific field towards the parallel/distributed paradigm. The optimization process, so-called tuning process, is the process followed in order to adapt and improve the behaviour of the applications by modifying their critical parameters. It includes several and successive phases. Firstly, during a monitoring phase the information about the behaviour of the application is captured. Next, the information is analyzed, by looking for bottlenecks, deducing their causes and trying to determine the adequate actions to eliminate them. Finally, appropriate changes have to be applied to the code to solve the problems and improve the performance. Fortunately, through the years different approaches and tools have been developed with the aim of helping the user during some of the optimization phases (monitoring, analysis or tuning phases). One of the available tools is MATE (Monitoring, Analysis and Tuning Environment), which is an automatic and dynamic tuning environment for parallel applications. MATE works in three continuous and iterative phases in order to adapt the deployment of the application according to the current state of the execution environment. MATE includes the knowledge to tune performance problems in pieces of software called --tunlets'. Each tunlet includes the logic to collect behavioural information, analyze it on the fly and decide what the required tuning actions are. The objective of this work is to extend the usability of MATE. Our work covers two different aspects of MATE: - the improvement of the performance reached by the centralized analysis executed by MATE, due to it turns in a bottleneck as the size of the application increases. Thus, we provide an alternative to make MATE scalable. - the increase in the user-friendliness of MATE in order to facilitate the inclusion of new performance knowledge in it. Thus, we make MATE transparent for the users. According to the first aspect, we propose a novel approach to execute the analysis process, called Distributed-Hierarchical Collecting-Preprocessing Approach. This approach is based on the distributed collection of events which alleviates the centralized old-fashion in which collection was done, and in the preprocessing of cumulative or comparative operations as possible. Thus, the Global Analyzer receives just the necessary information condensed in a unique message from each Collector-Preprocessor, which considerably reduces the overload of Global Analyzer. In this way, MATE is provided with scalability properties. According to the second aspect, we provide a methodology, including a designed language and a developed translator to automatically insert tunlets (knowledge) in MATE. When some problem has to be tuned in a parallel application the user has to develop the corresponding tunlet. By using our methodology, the user is exempted from being involved in implementation details of MATE. Thus, by defining a set of abstractions about the application and the performance model, such abstractions can be formalized in a tunlet specification using the provided language. Such specification will be automatically translated in a tunlet ready to be used in MATE. Both scalability and transparency of MATE are qualities necessary to make MATE a more useful and user-friendly tool. The proposals and developments presented attempt to provide MATE with such characteristics. Experiments showed the viability of the proposals.
|
122 |
Predicción de la Evolución de los Incendios Forestales Guiada Dinámicamente por los DatosDenham, Mónica Malen 17 July 2009 (has links)
Desde hace años los incendios forestales son una amenaza para la calidad de vida en nuestro planeta, dado que la cantidad y magnitud de los mismos se ha incrementado de forma alarmante. Actualmente, existe un intenso trabajo para la lucha contra estos incendios y la disminución rápida y efectiva de su avance, de sus consecuencias y de sus peligros. La predicción del comportamiento del fuego en incendios forestales es un tema que se está desarrollando hace tiempo en este marco. Desde la informática, se han desarrollado diversos simuladores del comportamiento del fuego en incendios forestales [3] [4] [5] [14] [17]. Estos simuladores calculan el avance del fuego, dependiendo de su estado inicial y de las características del lugar donde dicho incendio se desarrolla. Esto es, características de la topografía, vegetación [2], humedad del combustible, humedad relativa del ambiente, estado del viento, etc. Estos simuladores son utilizados para predecir el avance del fuego en un lugar y momento específicos. En este marco, una predicci ón es realmente útil si es de buena calidad (se corresponde con la real propagaci on del fuego) y si la respuesta est a dentro de un llímite de tiempo acotado. Por lo tanto, necesitamos simulaciones con alta calidad de respuesta, que realmente realmente reflejen el real avance del fuego, y respuestas que se obtengan velozmente, minimizando el tiempo de la misma. Estos dos factores son necesarios y determinan caracter ísticas importantes de nuestro trabajoUn problema frecuentemente encontrado en la utilización de estas herramientas informáticas para predecir el comportamiento del fuego es la cantidad y complejidad de los datos de entrada. Normalmente, este tipo de simuladores necesita numerosos datos de entrada, que describan de forma correcta el entorno donde se desarrolla el fuego. Topografía, meteorología y vegetación del entorno del fuego deben estar descriptos de forma adecuada en el nivel de abstracción y detalle que el simulador utilizado requiera. En la realidad, es muy difícil disponer de una correcta descripción de todas estas variables (y sus interacciones). Esta dificultad radica principalmente en: naturaleza dinámica de algunos factores (que varían y siguen su propio patrón de comportamiento), parámetros que no pueden ser medidos directamente (por lo que se utilizan estimaciones de los mismos), parámetros que no pueden ser medidos en todos los puntos (utilizándose interpolaciones), mapas (topográficos, vegetación, etc.), los cuales pueden estar desactualizados, o utilizar discretizaciones que representan de forma incorrecta las características que están representando, etc. Es necesario disponer una correcta descripción del entorno del fuego, dado que predicciones con datos de entrada que no sean correctos, no serán útiles, pues predecirán un fuego en un entorno que no es el real. En este trabajo de investigación se ha propuesto un framework donde se tiene como objetivo mejorar la calidad de los datos de entrada del simulador utilizado. Además, se pone gran esfuerzo en minimizar los tiempos de respuesta. En este trabajo se utiliza el simulador fireLib [5], un simulador que implementa el modelo de propagación de fuego desarrollado por Rothermel [20] [21]. Para mejorar la calidad de los datos de entrada, se realiza un procesamiento sobre el espacio de búsqueda que es el resultado de considerar todas las posibles combinaciones de los parámetros de entrada en sus rangos de variación. Esto da como resultado un espacio de búsqueda muy grande. Con el objetivo de evitar que esta búsqueda penalice el tiempo de respuesta, se utiliza un algoritmo genético [16] [19] guiado dinámicamente por los datos: Dynamic Data Driven Genetic Algorithm [7] [8] [9]. Se ha desarrollado este framework que consta de dos etapas [1] [6]: etapa de ajuste y etapa de predicción. Durante la etapa de ajuste, se buscará la mejor combinación de los datos de entrada para el incendio que se desea predecir. Un individuo del Algoritmo Genético, es una combinación determinada de valores para los parámetros de entrada del simulador utilizado. El objetivo de la etapa de ajuste es encontrar el mejor individuo, el que minimice el error en la simulación del avance del fuego. Para esto, se consideran tres instantes de tiempo en el avance del fuego: ti, ti+1 y ti+2. Los primeros dos instantes, se utilizarán durante la etapa de ajuste para buscar valores correctos de los parámetros de entrada. A su vez, la predicciá para el ultimoon efectiva se realizar´´instante de tiempo (ti+2). De esta forma, se simula el avance del fuego desde el instante ti hasta el instante ti+1. El resultado de la simulación es comparada con el avance del fuego real para ese mismo instante de tiempo. El resultado de esta comparación sirve como feedback para mejorar la elección de los valores de entrada. El resultado de la etapa de ajuste es un unico individuo, él que ha mostrado la simulación de mayor calidad. Luego, este individuo es utilizado como entrada para la etapa de predicción, la cual recibe el mapa del incendio en el instante ti+1 para predecir el avance del fuego hasta el instante de tiempo ti+2. De esta forma, durante la etapa de predicción se está buscando un conjunto de parámetros de entrada que representen de forma correcta el entorno del fuego que se desea predecir. Estos valores que logran buenas simulaciones (por lo tanto, buena descripción del entorno del fuego), son utilizados en la etapa posterior para obtener la predicción. Esta forma de trabajo, se basa en la hipótesis de que las características del entorno se mantengan durante las etapas que dicho proceso involucra (etapas de ajuste y predicción). De esta forma, el algoritmo genético recorre el espacio de búsqueda y descubre buenos valores para los parámetros de entrada en base a la comparación con el mapa del avance real del fuego. Esta forma de trabajo, permite mejoras en el algoritmo genético y estas mejoras son las principales aportaciones de este trabajo. Se proponen y desarrollan dos métodos para guiar el algoritmo genético. Ambos se basan en conocimiento aportado por el análisis del mapa del fuego real. De esta forma, el avance real del fuego desde el instante ti hasta el instante ti+1, aporta características que permiten definir datos útiles del entorno, los cuales se inyectan de forma dinámica durante el algoritmo genético para guiar la búsqueda hacia zonas con valores correctos para los parámetros de entrada. Aunque muchos factores influyen en el comportamiento del fuego, es sabido que la pendiente del terreno y el viento son factores determinantes en la forma y la velocidad de avance del fuego. En nuestra aplicación, se considera que las características del terreno son conocidas (pendiente y orientación de la misma, parámetros estáticos en el tiempo). Mediante el análisis del avance del fuego real desde el instante de tiempo ti hasta el instante ti+1 se obtienen sus principales características, y gracias a la composición de esta información con los datos de la pendiente, se puede determinar cuáles son las condiciones necesarias del viento para lograr un avance similar al real observado. Entonces, en vez de que la combinación del viento y pendiente determinen el avance del fuego, en nuestro caso, conociendo el avance del fuego y la pendiente, determinamos los valores del viento necesarios para que haya ocurrido el avance del fuego observado. De esta forma, se inyecta este conocimiento para mejorar la calidad en los datos de entrada y converger de manera más rápida hacia buenos resultados. Teniendo en cuenta que el viento es un factor dinámico, que tiene su propio patrón de comportamiento (el cual es muy difícil de predecir en el entorno de un incendio), se está inyectando valores para el mismo obtenidos a partir de la propagación real del fuego. El framework desarrollado constó de una primera implementación secuencial y de otra paralela, la cual permite aprovechar los recursos de hardware paralelos disponibles en la actualidad. Además, se han desarrollado dos métodos para guiar dinámicamente el algoritmo genético [10] [11] [12] [13]: método computacional y método analítico. El método computacional es totalmente independiente del simulador subyacente y del framework en sí. Utiliza una base de datos con información de distintos incendios para encontrar los valores necesarios. A su vez, el método analítico fue desarrollado como método de validación del primero, y se basa en los cálculos hechos por el simulador, por lo tanto, totalmente dependiente del mismo. La implementación en paralelo del algoritmo fue realizada utilizando el paradigma master/worker [15] [18], donde el total de los individuos de cada población es distribuida entre los distintos workers. El trabajo se ha distribuido de forma tal que cada worker realiza la simulación y la comparación con el mapa real con un grupo de individuos de la población. De esta forma se han distribuido las poblaciones de individuos, donde la aplicación muestra más requerimiento de tiempo de CPU. Distribuyendo los individuos en grupos, se logra balance de carga y disminuir la comunicación, aumentando la granulaidad de la aplicación. Se han desarrollado distintas pruebas con mapas sintéticos (esto es, avances de fuegos simulados) como así también con mapas reales. Los resultados obtenidos son satisfactorios, guiar la búsqueda del algoritmo genético ha logrado aumentar la calidad de las simulaciones, por lo tanto de las predicciones. Los resultados del método computacional fueron corroborados por correlación con los resultados del método analítico. Además, el algoritmo paralelo permite utilizar poblaciones de mayor dimensión, lo que mostró mejorar los resultados sin penalizar el tiempo de respuesta. También, la disminución del error en las simulaciones en este método que incluye una primer etapa de ajuste mostró ser mucho más efectiva (más calidad de predicción) que cuando no se hace este preprocesamiento con los parámetros de entrada. Se ha logrado mejorar las predicciones, sin mejorar el simulador, sino, mejorando la calidad en los parámetros utilizados. El método propuesto se ha implementado de forma tal que el simulador se vea como una "caja negra", la cual se puede cambiar y el método sería aún útil (con los cambios necesarios en formato de entradas y salidas). / Forest fires are part of natural balance in our planet. Natural fires are provoked by natural factors combination: dry seasons, favorable fuel moistures, electrical storms, volcanoes, earth¬quakes, etc. Natural forest fires can devastate overall forests as well as productive forest areas, farms, etc. Nowadays, human is arduously working on this problem in order to avoid and to reduce forest fires damages. As results of this effort there exist different kind of studies, strategies and tools used to prevent fires, to define risk areas and to reduce the fire effects when a disaster occurs. Forest fire control and manage are complex tasks, due to forest fires are related with weather, topography, human population, fire aspects, etc., having all of them its own behavior pattern. Furthermore, there exist several behavior interactions between them, that determine additional behavior characteristics, resulting in very complex fire behavior pattern. This problem is nowadays studied by di_erent areas. Technology is not an exception, and informatics tools are continuously developed. One of the most important computer tool for forest fires are forest fire behavior simulators. These kind of simulators determine the advance of the fire line, taking into account beginning fire state, topography conditions, weather aspects, fuel characteristics, etc [3], [4], [5] [14] [17] [20] [21]. Furthermore, this kind of problem has the additional requirement that time constraints add. A forest fire prediction is really useful when it is available before the real fire propagation occurs and when prediction really describes real fire progress. In order to be reliable, it is necessary high quality predictions, it means, predicted fire progress must be as similar to the real fire as possible. During this work, we are going to use the forest fire simulator called fireLib [5] holding it in a framework that attempts to improve input parameter accuracy in order to increase prediction quality. Usually, a prediction is made using a forest fire simulator which receives several inputs (fire environment description) and it returns the state of the fire for a later instant of time. Input parameters usually include: initial fire front state, topography, vegetation [2], wind, fuel hu¬midities, and additionally, relative moisture, cover crown, cover clouds, etc. All these input parameters depend on the forest fire simulator used. Thus, having initial fire line and environmental characteristics, simulator uses some fire prop¬agation model in order to simulate fire behavior. Taking into account this classical prediction method, we can see that it is a straight, simply method and it has the advantage of performing just one simulation (what means low processor time requirements). But these advantages are in a sense the main weak point of the method: final prediction quality depends on the suitability of the unique simulation (that means, using a unique input parameters set). As we had mentioned during previous paragraphs, the accuracy of the input parameters are really open to debate due to having its actual values is not easy, some times it is impossible. Consequently, we are going to present a method where a search of better parameter values is performed in order to reduce input data uncertainty [1]. This method consists of two stages: a new stage was added before the prediction step. This new stage is called Calibration stage, and it allows us to find a set of input parameter values that achieve a good simulation from instant ti to instant ti+1. Then, we can use this good set of input parameters to predict fire behavior during the next instant of time (ti+2). Once a combination of values for the input parameters is founded, we consider that the environmental characteristics that are good described by these values at instant ti+1 will re¬main useful for the subsequent instant of time (from ti+1 to ti+2). Then we use these values for obtaining the predicted map for instant ti+2. This scheme is based on the premise that environmental features will be maintained during involved time steps. In addition, each of these input parameters have its own valid range where they can vary, and in fact, these ranges may be di_erent: they vary depending on the characteristic that it represents. Thus, the amount of di_erent combinations of these parameter values leaves us a very big search space. In order to avoid that this Calibration Stage becomes a bottle neck, we had developed a Dynamic Data Driven Genetic Algorithm [16] [19]. Strategies adopted through this application result in an e_cient search solution. Our Dynamic Data Driven Genetic Algorithm dynamically incorporates new data (from storage device or on line captured) promising more accuracy data analysis, more accurate pre¬dictions, more precise controls and more reliable outcomes [8] [9] [7]. Taking into account that two stages method needs the information of the real fire spread from instant ti to ti + 1, useful information will be obtained from the analysis of this real fire progress. This information will be used for steering searching process through genetic algorithm, in order to improve the values of the parameters. Our genetic algorithm intents to minimize our error function (individual fitness): error value determines the di_erences between real fire line and simulated fire line. Due to simulator imple¬ments a cellular automata model, all involved maps are a grid of cells, then, the error function is based on a cell by cell comparison (of real and simulated maps). When either slope nor wind are strong enough, fire grows forming a circular shape. But when wind or slope are presented (both or one of them), they influence fire growth in a de¬terminant way. Shape, velocity, direction, intensity, all of these fire features are influenced by wind and slope factors. Wind velocity and direction, slope inclination and aspect combination are crucial in fire spread behavior. Thus, knowing wind and slope decisive influences and knowing the real fire shape (by the analysis of real fire at instant ti+1 disposed in calibration stage), we can combine this informa¬tion in order to incorporate additional data that will be useful in order to improve fire spread simulations. This information will be used as feedback information in order to improve simula¬tion accuracy. Actually, slope and real propagation are known. This information is used to calculate wind speed and wind direction needed to generate the observed fire propagation in presence of the current slope features. Once wind main characteristics are calculated they will be used through two methods for dynamically steering our genetic algorithm: Computational and Analytical Methods. In particular, Analytical Method was developed in order to validate Computational Method operation. Computational Method uses di_erent forest fires information (including fire environment) in order to discover wind main features. Forest fires data can come from historical real fires, prescribed burnings, or synthetic simulated fires (using a forest fire simulator). Forest fire main characteristics are stored through a data base. Data base information must be as complete as possible, in order to reflect the most amount of fire cases that can happen in the real world. In this data base several fire spreads are stored and we look for a fire progress similar to the real fire line observed for instant ti+1 in presence of similar or equal slope characteristics. Historical real fires information could be used in order to construct our application data base. Unfortunately, detailed real fires information was not available for us since we were deal¬ing with prescribe and synthetic fires. In order to generate a suitable data base the forest fire simulator fireLib was used for obtaining a high number of detailed burning cases. Computational Method is based on following process: real forest fire progress is analyzed at time ti+1, thus, fire progress direction, velocity and distance are obtained. Then, all real forest fire characteristics are used in order to find the most similar fire into the data base. When most similar fire is founded, wind direction and velocity are injected during genetic algorithm operation. Specifically, these wind values will be used to define a subrange through the whole parameter valid range and, when mutation operator takes place, wind values will be assigned using a ran¬dom value limited by the new subrange (taking into account data base cases incompleteness). Analytical Method was created in order to evaluate the proper operation of Computational Method. This method is based on an exhaustive study of Rothermel model and fireLib sim¬ulator ([21] and [5]). This method is based on some calculus performed by the simulator in order to obtain fire direction and velocity, by the combination of wind, slope and environmental factors. Once the model and simulator was studied and understood, we use the steps performed by the simulator but in a suitable order, for obtaining wind characteristics from slope and real fire characteristics combination. When Analytical Method is applied, each simulation is performed using an individual (sce¬nario) and ideal wind values are calculated and stored together with such individual. Then, these values are assigned as individual wind velocity and direction when elitism or mutation operations take place during Dynamic Data Driven genetic algorithm execution. In practice, we expect that this method will be more precise than Computational Method but, by contrast, it is severely coupled to the underlying simulator (being this fact an important method drawback). Taking into account application response time limits, non simulation dependences and simu¬lations time requirements, proposed application was developed using the parallel paradigm [15] [18], dividing simulation processes and error calculus between di_erent parallel tasks. Master process performs genetic algorithm operations and distributes population individu¬als between worker processes. Every time a worker process receives a group of individuals, it performs the simulation and calculates the error function with each individual. In order to avoid that application communication pattern became a bottle neck, individuals are distributed by groups (chunks) instead of individual transmissions. When a worker final¬izes the evaluation of a specific chunk, this worker process returns the evaluated chunk to the master process. Then, master process sends another non evaluated chunk to it until all chunks are evaluated. During this work, two main objectives were considered: prediction quality improvement (what means prediction error reduction) and reduction of prediction process time requirements. Several times, these two aspects have mutual dependencies: suitable simulation accuracy can be achieved if enough time is available for prediction process. On the other hand, if prediction results are required in a short term of time, this feature can attempt on prediction quality. During this work, experimental results were analyzed and best application characteristics were studied. We could see that 2 stages prediction method achieve best results when they are compared with classical prediction. Performing a pre-search of input parameters values achieve an important error reduction due to the use of suitable input parameters values. Steering methods, Computational Method as well as Analytical Method, in most of the cases, reduce simulation errors, achieving more precise simulations during calibration stage, and consequently, more precise predictions [10] [11] [13]. These Methods reduce total execution time, on account of the acceleration of searching convergence. Using real fire progress knowledge, genetic algorithm is fast guided to promising individual search space zones [10] [11] [13]. In order to obtain real fire progress characteristics, additional methods were developed. These methods had showed good performance when they where used for di_erent kind of maps: linear maps, elliptical maps, real cases, synthetic cases, di_erent sizes of cells, etc. Parallel application proposed was tested in order to evaluate its scalability. Master and worker process times had decreased when number of computing elements had increased. "On demand" dealing of work, communication reduction (because of chunks communication), etc. achieve a good performance application [12]. For most of the performed tests similar behavior could be seen: Computational Method convergences more quickly to good individual zones. Then, fewer iterations can be executed and steering methods finds good results. Thus, execution time of two stages prediction method can be reduced as well. Referencias/References[1] Abdalhaq B., "A Methodology to Enhance the Prediction of Forest Fire Propagation." PhD Thesis. Universitat Autònoma de Barcelona (Spain). June 2004. [2] Anderson H., "Aids to Determining Fuel Models For Estimating Fire Behavior." Intermountain Forest and Range Experiment Station Ogden, UT 84401. General Technical Report INT.122. April 1982. [3] Andrews P., "BEHAVE: Fire Behavior prediction and modeling systems -Burn subsystem." part 1. General Technical Report INT-194. Odgen, UT, US Department of Agriculture, Forest Service, Intermountain Research Station. pp. 130. 1986. [4] Andrews, P. "BehavePlus fire modeling system: past, present, and future.". Proceedings of 7th Symposium on Fire and Forest Meteorological Society, 23-25 Octubre de 2007, Bar Harbor, Maine, Boston. http://ams.confex.com/ams/pdfpapers/126669.pdf. Acceded on October 2008. [5] Bevins C., "FireLib User Manual & Technical Reference". http://www.fire.org/downloads/fireLib/1.0.4/firelib.pdf. Acceded on January 2006. [6] Bianchini G., "Wildland Fire Prediction based on Statistical Analysis of Multiple Solutions." PhD Thesis. Universitat Aut-onoma de Barcelona (Spain). July 2006. [7] Coen J., Beezley J., Bennethum L., Douglas C., Kim M., Kremens R., Mandel J., Qin G. and Vodacek A. "Wildland Fire Dynamic Data-Driven Application System." Center for Computational Mathematics Reports, University of Colorado at Denver and Health Sciences Center. November 2006. UCDHSC/CCM Report number 238. [8] Darema, F. "Dynamic Data Driven Applications Systems: A New Paradigm for Application Simulations and Measurements." ICCS 2004, LNCS 3038, Springer Berlin / Heidelberg, pp. 662-669. [9] Douglas C., "Dynamic Data Driven Application Systems homepage." http://www.dddas.org. Acceded on November 2007. [10] Denham M., Cortés A., Margalef T., Luque E., "Algoritmos Genéticos Guiados Para Predicción de Incendios Forestales". Actas del XVIII Jornadas de Paralelismo JP'07. Zaragoza (Spain), 2007. Vol II, pp. 733-741. [11] Denham M., Cortés A, Margalef T. and Luque E. "Applying a Dynamic Data Driven Genetic Algorithm to Improve Forest Fire Spread Prediction". International Conference on Computational Science (ICCS) 2008, Cracovia, Polonia. Computational Science -ICCS 2008. LNCS Volume 5103, Springer Berlin Heidelberg. Pp: 36-45. [12] Denham M., Cortés A, Margalef T. "Parallel Dynamic Data Driven Genetic Algorithm for Forest Fire Prediction." 16th European PVM/MPI Users' Group Meeting. Espoo, Finlandia, Septiembre del 2009. LNCS Volume 5759, Springer Berlin Heidelberg. Pp: 323-324. [13] Denham M., Cortés A., Margalef T. "Computational Steering Strategy to Calibrate Input Variables in a Dynamic Data Driven Genetic Algorithm for Forest Fire Spread Prediction". International Conference on Computational Science (ICCS) 2009, USA. LNCS Volume 5545, Springer Berlin Heidelberg. Págs: 479-488. [14] Finney M. "FARSITE: Fire Area Simulator-model development and evaluation. " Res. Pap. RMRS-RP-4, Ogden, UT: U.S. Department of Agriculture, Forest Service, Rocky Mountain Research Station, 1998. [15] Foster I., "Designing and Building Parallel Programs." (Online) Addison-Wesley ISBN 0201575949, chapter 8 Message Passing Interface. Disponible en http://wwwunix.mcs.anl.gov/dbpp/text/node94.html (1995) [16] Koza J. "Genetic Programming. On the programming of computers by means of natural selection". Massachusetts Institute of Technology. Cambridge, Massachusetts 02142. The MIT Press, 1992. [17] Lopes A., Cruz M. y Viegas D. "FireStation -An integrated software system for the numerical simulation of fire spread on complex topography." Environmental Modelling and Software 17(3): 269-285 (2002) [18] "MPI: The Message Passing Interface Standard." http://www-unix.mcs.anl.gov/mpi/ [19] Michalewicz, Z. "Genetic algorithms + data structures = Evolution Programs." ISBN 9783540606765, Springer 1996. [20] Rothermel R., "A mathematical model for predicting fire spread in wildland fuels". USDA FS, Ogden TU, Res. Pap. INT-115, 1972. [21] Rothermel R. C. "How to Predict the Spread and Intensity of Forest and Range Fires". Gen. Tech. Rep. INT-143. Ogden, UT: U.S. Department of Agriculture, Forest Service, Intermountain Forest and Range Experiment Station, 1983. pp. 1-5.
|
123 |
Mac-Phy Cross-Layer analysis and design of Mimo-Ofdm Wlans based on fast link adaptationMartorell Lliteras, Gabriel 10 July 2013 (has links)
The latestWLAN standard, known as IEEE 802.11n, has notably increased the network
capacity with respect to its predecessors thanks to the incorporation of the multipleinput
multiple-output (MIMO) technology. Nonetheless, the new amendment, as its
previous ones, does not specify how crucial configuration mechanisms, most notably
the adaptive modulation and coding (AMC) algorithm should be implemented. The
AMC process has proved essential to fully exploit the system resources in light of varying
channel conditions.
In this dissertation, a closed-loop AMC technique, referred to as fast link adaption
(FLA) algorithm, that effectively selects themodulation and coding scheme (MCS)
for multicarriermultiantennaWLAN networks is proposed. The FLA algorithm determines
the MCS that maximizes the throughput while satisfying a quality of service
(QoS) constraint, usually defined in the form of an objective packet error rate (PER).
To this end, FLA uses a packet/bit error rate prediction methodology based on the
exponential effective SNRmetric (EESM).
The FLA algorithm performance has been evaluated under IEEE 802.11n systems
that thanks to the incorporation of a feedbackmechanismare able to implement closed-
loop AMC mechanisms. Initially, this AMC technique relies only on physical layer
information but it is subsequently extended to also take into account themediumaccess
control (MAC) sublayer performance. At the physical layer, the FLA algorithm
has demonstrated its effectivity by performing very close to optimality in terms of
throughput, while satisfying a prescribed PER constraint. The FLA algorithm has also
been evaluated using imperfect channel information. It has been observed that the
proposed FLA technique is rather robust against imperfect channel information, and
only in highly-frequency selective channels, imperfect channel knowledge causes a
noticeable degradation in throughput.
At the MAC sublayer, the FLA algorithm has been complemented with a timeout
strategy that weighs down the influence of the available channel information as this
becomes outdated. This channel information outdate is caused by the MAC sublayer
whose user multiplexing policy potentially results in large delays between acquiring
the instant in which the channel state information is acquired and that in which the
channel is accessed. Results demonstrate the superiority of FLA when compared to
open-loop algorithms under saturated and non-saturated conditions and irrespective
of the packet length, number of users, protocol (CSMA/CA or CDMA/E2CA) and access
scheme (Basic Access or RTS/CTS).
Additionally, several analytical models have been developed to estimate the system
performance at the MAC sublayer. These models account for all operational details
of the IEEE 802.11n MAC sublayer, such as finite number of retries, anomalous slot or channel errors. In particular, a semi-analytical model that assesses the MAC
layer throughput under saturated conditions, considering the AMC performance is
first introduced. Then, an analytical model that allows the evaluation of the QoS performance
under non-saturated conditions is presented. This model focuses on single
MCS and it is able to accurately predict very important system performance metrics
such as blocking probability, delay, probability of discard or goodput thanks to the
consideration of the finite queues on each station. Finally, the previous non-saturated
analytical approach is used to define a semi-analytical model in order to estimate the
system performance when considering AMC algorithms (i.e. whenmultiple MCSs are
available). / La darrera versió de l’estàndard deWLAN, anomenada IEEE 802.11n, ha augmentat la
seva capacitat notablement en relació als sistemes anteriors gràcies a la incorporació
de la tecnologia de múltiples antenes en transmissió i recepció (MIMO). No obstant
això, la nova proposta, al igual que les anteriors, segueix sense especificar com s’han
d’implementar elsmecanismes de configuraciómés crucials, un dels quals és l’algoritme
de codificació imodulació adaptativa (AMC). Aquests algoritmes ja han demostrat
la seva importància a l’hora demaximitzar el rendiment del sistema tenint en compte
les condicions canviants del canal.
En aquesta tesis s’ha proposat un algoritme AMC de llaç tancat, anomenat adaptació
ràpida de l’enllaç (FLA), que selecciona eficientment l’esquema demodulació i codificació
adaptativa per xarxes WLAN basades en arquitectures multiportadora multiantena.
L’algoritme FLA determina el mode de transmissió capaç de maximitzar el
throughput per les condicions de canal actuals, mentre satisfà un requisit de qualitat
de servei en forma de taxa d’error per paquet (PER). FLA utilitza una metodologia
de predicció de PER basada en l’estimació de la relació senyal renou (SNR) efectiva
exponencial (EESM).
El rendiment de l’algoritme FLA ha estat avaluat en sistemes IEEE 802.11n, ja que
aquests, gràcies a la incorporació d’unmecanisme de realimentació demodes de transmissió,
poden adoptar solucions AMC de llaç tancat. En una primera part, l’estudi s’ha
centrat a la capa física i després s’ha estès a la subcapa MAC. A la capa física s’ha demostrat
l’efectivitat de l’algoritme FLA aconseguint un rendiment molt proper al que
ens proporcionaria un esquema AMC òptim en termes de throughput, alhora que es
satisfan els requisits de PER objectiu. L’algoritme FLA també ha estat avaluat utilitzant
informació imperfecte del canal. S’ha vist que l’algoritme FLA proposat és robust
en front dels efectes d’estimació imperfecte del canal, i només en canals altament selectius
en freqüència, la informació imperfecte del canal provoca una davallada en el
rendiment en termes de throughput.
A la subcapa MAC, l’algoritme FLA ha estat complementat amb una estratègia de
temps d’espera que disminueix la dependència amb la informació de canal disponible
a mesura que aquesta va quedant desfassada respecte de l’estat actual. Aquesta
informació de canal desfassada és conseqüència de la subcapa MAC que degut a la
multiplexació d’usuaris introdueix grans retards entre que es determina el mode de
transmissió més adequat i la seva utilització per a l’accés al canal. Els resultats obtinguts
han demostrat la superioritat de FLA respecte d’altres algoritmes de llaç obert
en condicions de saturació i de no saturació, i independentment de la longitud de paquet,
nombre d’usuaris, protocol (CSMA/CA i CSMA/E2CA) i esquema d’accés (Basic
Access i RTS/CTS).
Amés, s’han desenvolupat diversosmodels analítics per tal d’estimar el rendiment
del sistema a la subcapa MAC. Aquests models consideren tots els detalls de funcionament
de la subcapaMAC del 802.11n, comper exemple un nombre finit de retransmissions
de cada paquet, l’slot anòmal o els errors introduïts pel canal. Inicialment
s’ha proposat unmodel semi-analític que determina el throughtput en condicions de
saturació, considerant el rendiment dels algoritmes AMC. Després s’ha presentat un
model analític que estima el rendiment del sistema per condicions de no saturació,
mitjançat elmodelat de cues finites a cada estació. Aquestmodel consideramodes de
transmissió fixes i és capaç de determinar de manera molt precisa mètriques de rendimentmolt
importants comsón la probabilitat de bloqueig de cada estació, el retard
mitjà del paquets, la probabilitat de descart o la mesura del goodput. Finalment, el
model analític de no saturació s’ha utilitzat per definir un model semi-analític per tal
d’estimar el rendiment del sistema quan es considera l’ús d’algoritmes AMC.
|
124 |
Comparaciones Multivariantes de Vectores Aleatorios con AplicacionesMulero González, Julio 25 July 2012 (has links)
El resultado de un experimento es variable y está modelado por variables y vectores aleatorios. Comúnmente, las comparaciones entre están cantidades aleatorias están basadas en algunas medidas asociadas, pero a menudo no son demasiado informativas. En este caso, los órdenes estocásticos proporcionan una comparación más completa. A veces, estamos interesados en estudiar propiedades de una variable o vector aleatorio, es decir, sus propiedades de envejecimiento. Los órdenes estocásticos son también herramientas útiles para caracterizar y estudiar estas nociones de envejecimiento. A lo largo de esta memoria, proponemos y estudiamos nuevos órdenes mutivariantes y nuevas nociones de envejecimiento para comparar y clasificar vectores aleatorios. Asímismo, establecemos condiciones para la comparación de vectores aleatorios en el orden estocástico usual, el orden estocástico más importante, para la clase de los modelos TTE, que contiene, por ejemplo, la familia de los modelos de fragilidad, así como ejemplos y aplicaciones / The outcome of an experiment or game is random and is modeled
by random variables and vectors. The comparisons between these random
values are mainly based on the comparison of some measures associated to
random quantities. Stochastic orders and aging notions are a growing field
of research in applied probability and statistics. In this chapter, we present
the main definitions and properties that we will use along this memory
|
125 |
Sobre la conjetura de Zassenhaus y el problema de los subgrupos de congruencia para anillos de grupo con coeficientes enteros= On Zassenhaus conjecture and the congruence subgroup problem for integral group ringsCaicedo Borrero, Mauricio José 21 February 2014 (has links)
Esta Tesis Doctoral está enmarcada dentro del área del Álgebra, concretamente, de los Anillos de Grupo. El objetivo principal de la misma es el estudio del grupo de unidades del anillo de grupo con coeficientes enteros de un grupo finito. El primer trabajo que se conoció sobre este grupo de unidades lo presento Higman en 1940 en su tesis doctoral. Éste describe el grupo de unidades para el anillo de grupo con coeficientes enteros de un grupo abeliano y como consecuencia de este resultado se tiene que las unidades centrales del anillo de grupo con coeficientes enteros no son mas que las triviales. A partir de este momento, muchos autores se interesaron en dicho grupo de unidades. Sobre este grupo de unidades se sabe que es finitamente generado, pero no se conoce un conjunto finito de generadores, y que en muchos casos contiene un subgrupo libre de rango dos. También se ha intentado describir las unidades de orden finito y los subgrupos finitos de este grupo de unidades. Justamente este es el propósito de las tres Conjeturas de Zassenhaus, planteadas por Hans Zassenhaus en los años sesenta. Unos años después se presento un contraejemplo para dos de ellas. Otro punto interesante sobre el grupo de unidades del anillo de grupo con coeficientes enteros de un grupo finito, es conocer sus subgrupos de índice finito. Problemas como el de los subgrupos de congruencia traducidos a este contexto son de gran ayuda para este propósito. En esta Tesis hemos abordado dos problemas clásicos como son la Conjetura de Zassenhaus y el Problema de los Subgrupos de Congruencia para anillos de grupo con coeficientes enteros. Durante la realización de la Tesis doctoral, localizamos y estudiamos en profundidad la bibliografía existente relacionada con nuestro objeto de estudio. Establecimos contacto continuo con expertos en la materia y realice una estancia de tres meses en la Universidad Libre de Bruselas. El fruto de este trabajo se vio reflejado en los artículos “Zassenhaus Conjecture for cyclic-by-abelian groups” el cual esta aceptado en “Journal of the London Mathematical Society” y “On the Congruence Subgroup Problem for integral group rings” el cual esta sometido. La monografía, que consta de una introducción, tres capítulos y las conclusiones, está dividida principalmente en dos partes. Uno de los tópicos centrales es la Conjetura de Zassenhaus. Esta pretende describir las unidades de orden finito del anillo de grupo con coeficientes enteros de un grupo finito. Nuestra aportación principal en este aspecto consiste en probar la Conjetura de Zassenhaus para grupos cíclicos-por-abelianos. El segundo problema que abordamos es el de clasificar los grupos finitos para los cuales el grupo de unidades del anillo de grupo con coeficientes enteros tiene núcleo de congruencia finito. Desafortunadamente en este problema encontramos un gran obstáculo, por lo que dimos una clasificación muy cercana a la planteada originalmente y que resulta de gran utilidad porque nos da mucha información sobre los subgrupos de índice finito del anillo de grupo con coeficientes enteros. / This thesis is placed in the general framework of Algebra, concretely, in Group Rings. The main aim of it is to study the group of units of the integral group ring of a finite group. Higman presented the first work about this group of units in 1940 in his thesis. It describe the group of units of the integral group ring of an abelian group, moreover shows that the central units are exactly the trivial ones. From here, it has attracted the interest of many authors. About the group of units of the integral group ring of a finite group we know that it is finite generated, however a finite set of generators is not known in general, and also it contains in many cases a free subgroup of rank two. On the other hand, many authors have attempted to describe the units of finite order and the finite subgroups of such group of units. This is just the goal of the three Zassenhaus conjectures, posed by Hans Zassenhaus in the 60s. Some years later, a counterexample for two of them appeared. Another interesting point on the group of units of the integral group ring of a finite group is to know its subgroups of finite index. One way to do so is to translate the Congruence Subgroup Problem to the context of integral group rings. In this thesis we have addressed two classical problems, namely Zassenhaus Conjecture and the Congruence Subgroup Problem for integral group rings of a finite group. During the realization of this thesis, we found and study in depth the existing literature concerning our subject. We established contact with experts and I did my stay in “Vrije Universiteit Brussel”. This work has given rise to my two papers “Zassenhaus Conjecture for cyclic-by-abelian groups ” which is accepted in “Journal of the London Mathematical Society” and “On the Congruence Subgroup Problem for integral group rings ” which is submitted. The monograph, consisting of an introduction, three chapters and the conclusions, is divided into two parts. A central topic is the Zassenhaus Conjecture. This tries to describe the units of finite order of the integral group ring of a finite group. Our main contribution consists in proving the Zassenhaus Conjecture for cyclic-by-abelian groups. Later on we deal with the problem of classifying the finite groups for which the group of units of the integral group ring has finite congruence kernel. Unfortunately, in this problem we encountered an obstacle. So we give a classification, which is very close to the original one, and it gives us relevant information on the subgroups of finite index of the group of units of the integral group ring of a finite group.
|
126 |
Álgebras de malla finito dimensionales y sus propiedades homológicas= Finite dimensional mesh algebras and their homological properties.Andreu Juan, Estefanía 14 November 2013 (has links)
Esta Tesis Doctoral está enmarcada dentro del área del Álgebra, concretamente, de la Teoría de Representación de Álgebras. El objetivo principal de la misma es el estudio de propiedades homológicas de una clase de álgebras finito dimensionales conocidas como Álgebras de malla finito dimensionales. Dichas álgebras, introducidas por primera vez por K. Erdmann y A. Skowronski en 2008, surgieron como generalización de las álgebras preproyectivas y han suscitado un gran interés en los últimos años en el contexto general de las álgebras finito dimensionales. Entre otras, cabe destacar su aplicación en problemas de álgebras de conglomerado, grupos cuánticos, clasificación de ecuaciones diferenciales, singularidades de Klenian y geometría diferencial. Durante el primer periodo de la realización de la Tesis doctoral, localizamos y estudiamos en profundidad la bibliografía existente relacionada con nuestro objeto de estudio. Establecimos contacto continuo con expertos en la materia e incluso tuve la oportunidad de trabajar con Karin Erdmann durante mis tres meses de estancia en la Universidad de Oxford. El fruto de este trabajo se vio reflejado en mis dos primeros artículos publicados “The Hochschild cohomology ring of preprojective algebras of type Ln” y “The Hochschild cohomology ring of preprojective algebras of type Ln over a field of characteristic 2”. La monografía, que consta de un total de 6 capítulos, está dividida en dos partes. Uno de los tópicos centrales es el anillo de cohomología de Hochschild de un álgebra. Este anillo tiene una notable influencia en diversas partes de las matemáticas como el Álgebra Conmutativa, la Teoría de Anillos, la Geometría Conmutativa y no Conmutativa, la Teoría de Representación, la Física Matemática, … Además, su estructura multiplicativa está estrechamente relacionada con el estudio de las variedades de módulos y su álgebra de Yoneda. La definición del anillo de cohomología de Hochschild es bien sencilla, sin embargo, muy poco se sabe acerca de él. Es más, en la gran mayoría de los casos resulta extremadamente difícil calcularlo. Nuestra aportación principal en este aspecto consiste en la descripción explícita, mediante generadores y relaciones, de la estructura multiplicativa del anillo de cohomología de Hochschild de las álgebras de malla finito dimensionales de tipo Ln y Bn. Nuestras conclusiones resultan sorprendentes pues muestran grandes diferencias en el comportamiento de dicho anillo asociado no sólo a distintas álgebras, sino a una misma álgebra. Por otra parte, abordamos las propiedades homológicas de simetría, periodo y dimensión de Calabi-Yau de las álgebras de malla finito dimensionales. Consideramos primeramente la simetría y, como resultado, identificamos aquellas álgebras que son débilmente simétricas y las que son a su vez simétricas. A pesar de que una de las características más conocidas de estas álgebras es que son periódicas, sólo en muy pocos casos se ha conseguido calcular su periodo. En esta Tesis calculamos explícitamente el periodo de cada una de ellas. Finalmente tratamos la noción Calabi-Yau, definida por M.Kontsevich a finales de los años 90 y que ha sido intensamente estudiada por muchos matemáticos en los últimos años. Nuestro resultado principal es la caracterización de las álgebras de malla finito dimensionales que son establemente Calabi-Yau y Calaib-Yau Frobenius. Además, en tal caso, calculamos ambas dimensiones probando que, a pesar de que en la mayoría de los casos coinciden, no siempre son iguales, hecho que a día de hoy era desconocido. / This thesis is placed in the general framework of Algebra, concretely, in Representation Theory of Algebras. The main aim of it is to study homological properties of a class of finite dimensional algebras known as finite dimensional mesh algebras. Such algebras, first introduced by K. Erdmann and A. Skowronski in 2008, arise as a generalization of preprojective algebras and have attracted great interest in the general context of finite dimensional algebras in recent years. Among others, it is worth mentioning their application to problems related with cluster algebras, quantum groups, classification of differential equations, Klenian singularities and differential geometry. During the first period of the realization of this thesis, we found and study in depth the existing literature concerning our subject. We established contact with experts and I even had the opportunity of working with K. Erdmann for three months during my stay at University of Oxford. This work have given rise to my two first published papers “The Hochschild cohomology ring of preprojective algebras of type Ln” y “The Hochschild cohomology ring of preprojective algebras of type Ln over a field of characteristic 2”. The monograph, consisting of six chapters, is divided into two parts. A central topic is the Hochschild cohomology ring of an algebra. This ring has great influence in many diverse areas of mathematics such as commutative algebra, ring theory, commutative and noncommutative geometry, representation theory, mathematical physics, … Also, its multiplicative structure is closely related to the study of module varieties and its Yoneda algebra. The definition of the ring is quite simple , however, only little information is known. Moreover, in most of the cases is extremely difficult the computation. Our main contribution consists of an explicit description, by means of generators and relators, of the multiplicative structure of the Hochschild cohomology ring of the finite dimensional mesh algebras of type Ln and Bn. Our conclusions are surprising since they show big differences in the behavior of this ring associated not only to two different algebras but also to the same one. On the other hand, we deal with the homological properties of symmetry, period and Calabi-Yau dimension of finite dimensional mesh algebras. We first consider the symmetry and, as a result, we identify those algebras being weakly symmetric and those which are in turn symmetric. Despite of the fact that it is well known that finite dimensional mesh algebras are periodic, the precise calculation of the period is only known in a few cases. In this thesis, we explicitly compute the period of any of this algebras. Finally, we deal with the Calabi-Yau notion, defined by M. Kontsevich in the late 90s and that has been intensively studied by many mathematicians in recent years. Our main result is the characterization of the stably Calabi-Yau and Calabi-Yau Frobenius finite dimensional mesh algebras. Moreover, in this case, we compute both dimensions showing that they need not to be equal, an unknown fact so far.
|
127 |
Fair exchange in e-commerce and certified e-mail, new scenarios and protocolsDraper Gil, Gerard 22 July 2013 (has links)
We are witnessing a steady growth in the use of Internet in the electronic commerce
field. This rise is promoting the migration from traditional processes and applications
(paper based) to an electronic model. But the security of electronic transactions
continues to pose an impediment to its implementation. Traditionally, most
business transactions were conducted in person. Signing a contract required the
meeting of all interested parties, the postman delivered certified mail in hand, and
when paying for goods or services both customer and provider were present. When
all parties are physically present, a transaction does not require a complex protocol.
The participants acknowledge the presence of the other parties as assurance
that they will receive their parts, whether a signature on a contract, or a receipt,
etc. But with e-commerce growing in importance as sales and business channel, all
these transactions have moved to its digital counterpart. Therefore we have digital
signature of contracts, certified delivery of messages and electronic payment systems.
With electronic transactions, the physical presence is not required,moreover,
most of the times it is even impossible. The participants in a transaction can be
thousands of kilometers away from each other, and they may not even be human
participants, they can be machines. Thus, the security that the transaction will be
executed without incident is not assured per se, we need additional security measures.
To address this problem, fair exchange protocols were developed. In a fair
exchange every party involved has an item that wants to exchange, but none of the
participants is willing to give his item away unless he has an assurance he will receive
the corresponding item from the other participants. Fair exchange has many
applications, like digital signature of contracts, where the items to be exchanged are
signatures on contracts, certified delivery of messages, where we exchange a message
for evidence of receipt, or a payment process, where we exchange a payment
(e-cash, e-check, visa, etc.) for digital goods or a receipt.
The objective of this dissertation is the study of the fair exchange problem. In
particular, it presents two new scenarios for digital contracting, the Atomic Multi-
Two Party (AM2P) and the Agent Mediated Scenario (AMS), and proposes one optimistic
contract signing protocol for each one. Moreover, it studies the efficiency
of Multi-Party Contract Signing (MPCS) protocols from their architecture point of
view, presenting a new lower bound for each architecture, in terms of minimum
number of transactions needed. Regarding Certified Electronic Mail (CEM), this
dissertation presents two optimistic CEMprotocols designed to be deployed on thecurrent e-mail infrastructure, therefore they assume the participation of multiple
Mail Transfer Agents (MTAs). In one case, the protocol assumes untrusted MTAs
whereas in the other one it assumes each User Agent (UA) trusts his own MTA.
Regarding payment systems, this dissertation presents a secure and efficient electronic
bearer bank check scheme allowing the electronic checks to be transferred
fairly and anonymously. / L’ús d’Internet en l’àmbit del comerç electrònic està experimentant un creixement
estable. Aquest increment d’ús està promovent lamigració de processos tradicionals
i aplicacions (basades en paper) cap a un model electrònic. Però la seguretat de
les transaccions electròniques continua impedint la seva implantació. Tradicionalment,
la majoria de les transaccions s’han dut a terme en persona. La firma d’un
contracte requeria la presència de tots els firmants, el carter entrega les cartes certificades
enmà, i quan es paga per un bé o servei ambdós venedor i comprador hi són
presents. Quan totes les parts hi són presents, les transaccions no requereixen un
protocol complex. Els participants assumeixen la presència de les altres parts com
assegurança que rebran el que esperen d’elles, ja sigui la firma d’un contracte, un
rebut d’entrega o un pagament. Però amb el creixement del comerç electrònic com
a canal de venda i negoci, totes aquestes transaccions s’hanmogut al seu equivalent
en el món electrònic. Així doncs tenim firma electrònica de contractes, enviament
certificat de missatges, sistemes de pagament electrònic, etc. En les transaccions
electròniques la presència física no és necessària, de fet, la majoria de vegades és
fins it tot impossible. Els participants poden estar separats permilers de kilòmetres,
i no és necessari que siguin humans, podrien sermàquines. Llavors, la seguretat de
que la transacció s’executarà correctament no està assegurada per se, necessitem
proporcionar mesures de seguretat addicionals. Per solucionar aquest problema,
es van desenvolupar els protocols d’intercanvi equitatiu. En un intercanvi equitatiu
totes les parts involucrades tenen un objecte que volen intercanviar, però cap de les
parts implicades vol donar el seu objecte si no té la seguretat que rebrà els objectes
de les altres parts. L’intercanvi equitatiu té multitud d’aplicacions, com la firma
electrònica de contractes, on els elements a intercanviar son firmes de contractes,
enviament certificat demissatges, on s’intercanvien unmissatge per una evidència
de recepció, o un procés de pagament, on intercanviemun pagament (e-cash, visa,
e-xec, etc.) per bens digitals o per un rebut.
L’objectiu d’aquesta tesi és estudiar el problema de l’intercanvi equitatiu. En
particular, la tesi presenta dos nous escenaris per a la firma electrònica de contractes,
l’escenari multi-two party atòmic i l’escenari amb agents intermediaris,
i proposa un protocol optimista per a cada un d’ells. A més, presenta un estudi
de l’eficiència dels protocols de firma electrònica multi-part (Multi-Party Contract
Signing (MPCS) protocols) des del punt de vista de la seva arquitectura, presentant
una nova fita per a cada una, en termes de mínim nombre de transaccions necessàries. Pel que fa al correu electrònic certificat, aquesta tesi presenta dos protocols
optimistes dissenyats per a ser desplegats damunt l’infraestructura actual de
correu electrònic, per tant assumeix la participació demúltiples agents de transferència
de correu. Un dels protocols assumeix que cap dels agents de transferència
de correu participants és de confiança,mentre que l’altre assumeix que cada usuari
confia en el seu propi agent. Pel que fa a sistemes de pagament, la tesi presenta un
esquema de xec bancari al portador, eficient i segur, que garanteix que la transferència
dels xecs es fa demanera anònima i equitativa.
|
128 |
Three-dimensional numerical simulation of fluid flow and heat transfer in fin-and-tube heat exchangers at different flow regimesPaniagua Sánchez, Leslye 30 July 2014 (has links)
This thesis aims at unifying two distinct branches of work within the Heat Transfer Technological Center (CTTC). On one side, extensive experimental work has been done during the past years by the researchers of the laboratory. This experimental work has been complemented with numerical models for the calculation of fin and tube heat exchangers thermal and fluid dynamic behavior. Such numerical models can be referred to as fast numerical tool which can be used for industrial rating and design purposes. On the other hand, the scientists working at the research center have successfully developed a general purpose multi-physics Computational Fluid Dynamics (CFD) code (TermoFluids). This high performance CFD solver has been extensively used by the co-workers of the group mainly to predict complex flows of great academic interest.
The idea of bringing together this two branches, comes from the necessity of a reliable numerical platform with detailed local data of the flow and heat transfer on diverse heat exchanger applications. Being able to use local heat transfer coefficients as an input on the rating and design tool will lead to affordable and accurate prediction of industrial devices performance, by which the center can propose enhanced alternatives to its industrial partners. To accomplish these goals, several contributions have been made to the existing TermoFluids software which is in continuous evolution in order to meet the competitive requirements. The most significant problematics to adequately attack this problem are analyzed and quite interesting recommendations are given. Some of the challenging arising issues involve the generation of suitable and affordable meshes, the implementation and validation of three dimensional periodic boundary condition and coupling of different domains with important adjustments for the study of cases with different flow physics like time steps and thermal development.
Turbulence is present in most of engineering flows, and refrigeration evaporator heat exchangers are not an exception. The presence of many tubes (acting like bluff bodies for the flow) arranged in different configurations and the fact that the flow is also confined by fins, create complex three dimensional flow features that have usually turbulent or transition to turbulent regime. Therefore, three dimensional turbulent forced convection in a matrix of wall-bounded pins is analyzed. Large Eddy Simulations (LES) are performed in order to assess the performance of three different subgrid-scale models, namely WALE, QR and VMS. The Reynolds numbers of the study were set to 3000, 10000 and 30000. Some of the main results included are the pressure coefficient around the cylinders, the averaged Nusselt number at the endwalls and vorticity of the flow.
The final part of the thesis is devoted to study the three dimensional fluid flow and conjugated heat transfer parameters encountered in a plate fin and tube heat exchanger used for no-frost refrigeration. The numerical code and post processing tools are validated with a very similar but smaller case of a heat exchanger with two rows of tubes at low Reynolds for which experimental data is available. The next analysis presented is a typical configuration for no-frost evaporators with double fin spacing (for which very few numerical data is reported in the scientific literature). Conjugated convective heat transfer in the flow field and heat conduction in the fins are coupled and considered. The influence of some geometrical and flow regime parameters is analyzed for design purposes. In conclusion, the implementations and general contributions of the present thesis together with the previous existent multi-physics computational code, has proved to be capable to perform successful top edge three dimensional simulations of the flow features and heat transfer mechanisms observed on heat exchanger devices. / Esta tesis tiene como objetivo unificar dos ramas de trabajo dentro del Centro Tecnológico de Transferencia de Calor (CTTC). Por un lado, se ha realizado un amplio trabajo experimental durante los últimos años. Este trabajo experimental se ha complementado con modelos numéricos para el estudio de intercambiadores de calor de tipo aleta-tubo. Tales modelos numéricos pueden considerarse una herramienta numérica de bajo coste empleada con propósitos de diseño principalmente. Por otro lado, los científicos que trabajan en el centro han desarrollado con éxito un código de Dinámica de Fluidos Computacionales (TermoFluids). Este código de alto rendimiento ha sido ampliamente utilizado principalmente para predecir flujos complejos de gran interés académico. La idea de unir a estas dos ramas, proviene de la necesidad de una plataforma numérica fiable con datos locales propios del flujo y de la transferencia de calor en diversas aplicaciones de intercambiadores de calor. Ser capaz de generar coeficientes locales de transferencia de calor para abastecer con datos propios los modelos existentes de bajo coste, permitirá la correcta predicción del rendimiento de dichos dispositivos. Para lograr estos objetivos, se han hecho varias contribuciones al código TermoFluids que está en continua evolución. Algunas de las mayores cuestiones que se plantean implican la generación de mallas adecuadas y asequibles, la implementación y validación de la condición de contorno periódica tridimensional y el acoplamiento de los diferentes dominios para el estudio de casos con diferentes comportamientos físicos, como desarrollo transitorio e inercia térmica. La turbulencia está presente en la mayoría de los flujos de ingeniería, y los intercambiadores de calor de evaporadores para refrigeración no son una excepción. La presencia de muchos tubos (que actúan como obstáculos para el fluido) colocados en diferentes configuraciones y el hecho de que el flujo también está confinado por aletas, crean características de flujo tridimensionales complejas que tienen generalmente régimen turbulento o en transición. Por lo tanto, se analiza la convección forzada turbulenta en una matriz de pines delimitados por paredes. simulando las grandes escalas de turbulencia y modelando las pequeñas (LES) con el fin de evaluar el desempeño de los tres modelos seleccionados, a saber WALE, QR y VMS. Los números de Reynolds establecidos para el estudio son 3000, 10000 y 30000. Algunos de los principales resultados que se incluyen son el coeficiente de presión alrededor los cilindros, el número de Nusselt promedio en las paredes y la vorticidad del flujo. La parte final de la tesis se dedica a estudiar el flujo tridimensional y los parámetros de transferencia de calor encontrados en un intercambiador de calor de tipo aleta-tubo utilizado para la refrigeración doméstica en equipos de 'no-escarcha'. Las implementaciones del código y el postproceso numéricos se validan en un caso muy similar para un intercambiador de calor con dos filas de tubos a bajos Reynolds para el cual se dispone de datos experimentales. El siguiente análisis que se presenta es una configuración típica para evaporadores 'no-escarcha' con paso de aleta doble (para el que se tiene muy poca información numérica en la literatura). Se considera el acoplamiento conjugado de la transferencia de calor convectiva entre fluido y sólido y conductiva dentro de la aleta. La influencia de algunos parámetros geométricos y de régimen de flujo se analizan con propósitos de diseño. En conclusión, las contribuciones generales de esta tesis junto con el código computacional ya existente, ha demostrado ser capaz de realizar con éxito simulaciones tridimensionales para predecir las características del flujo y los mecanismos responsables de la transferencia de calor en intercambiadores de calor de tipo aleta-tubo
|
129 |
Numerical investigation of particle-fluid interaction system based on discrete element methodZhang, Hao 28 November 2014 (has links)
This thesis focuses on the numerical investigation of the particle-fluid systems based on the Discrete Element Method (DEM). The whole thesis consists of three parts, in each part we have coupled the DEM with different schemes/solvers on the fluid phase. In the first part, we have coupled DEM with Direct Numerical Simulation (DNS) to study the particle-laden turbulent flow. The effect of collisions on the particle behavior in fully developed turbulent flow in a straight square duct was numerically investigated. Three sizes of particles were considered with diameters equal to 50 µm, 100 µm and 500 µm. Firstly, the particle transportation by turbulent flow was studied in the absence of the gravitational effect. Then, the particle deposition was studied under the effect of the wall-normal gravity force in which the influence of collisions on the particle resuspension rate and the final stage of particle distribution on the duct floor were discussed, respectively. In the second part, we have coupled DEM with Lattice Boltzmann Method (LBM) to study the particle sedimentation in Newtonian laminar flow. A novel combined LBM-IBM-DEM scheme was presented with its application to model the sedimentation of two dimensional circular particles in incompressible Newtonian flows. Case studies of single sphere settling in a cavity, and two particles settling in a channel were carried out, the velocity characteristics of the particle during settling and near the bottom were examined. At last, a numerical example of sedimentation involving 504 particles was finally presented to demonstrate the capability of the combined scheme. Furthermore, a Particulate Immersed Boundary Method (PIBM) for simulating the fluid-particle multiphase flow was presented and assessed in both two and three-dimensional applications. Compared with the conventional IBM, dozens of times speedup in two-dimensional simulation and hundreds of times in three-dimensional simulation can be expected under the same particle and mesh number. Numerical simulations of particle sedimentation in the Newtonian flows were conducted based on a combined LBM - PIBM - DEM showing that the PIBM could capture the feature of the particulate flows in fluid and was indeed a promising scheme for the solution of the fluid-particle interaction problems. In the last part, we have coupled DEM with averaged Navier-Stokes equations (NS) to study the particle transportation and wear process on the pipe wall. A case of pneumatic conveying was utilized to demonstrate the capability of the coupling model. The concrete pumping process was then simulated, where the hydraulic pressure and velocity distribution of the fluid phase were obtained. The frequency of the particles impacting on the bended pipe was monitored, a new time average collision intensity model based on impact force was proposed to investigate the wear process of the elbow. The location of maximum erosive wear damage in elbow was predicted. Furthermore, the influences of slurry velocity, bend orientation and angle of elbow on the puncture point location were discussed. / Esta tesis se centra en la investigación numérica de sistemas partícula-líquido basado en la técnica Discrete Element Method (DEM). La tesis consta de tres partes, en cada una de las cuales se ha acoplado el método DEM con diferentes esquemas/solucionadores en la fase fluida. En la primera parte, hemos acoplado los métodos DEM con Direct Numerical Simulation (DNS) para estudiar casos de "particle-laden turbulent flow". Se investigó numéricamente el efecto de las colisiones en el comportamiento de las partículas en el flujo turbulento completamente desarrollado en un conducto cuadrado recto. Tres tamaños de partículas se consideraron con diámetros de 50, 100 y 500 micrometros. En primer lugar, el transporte de partículas por el flujo turbulento se estudió en la ausencia del efecto gravitacional. Entonces, la deposición de partículas se estudió bajo el efecto de la fuerza de gravedad normal a la pared, en el que se discutieron la influencia de la tasa de colisiones en re-suspensión de las partículas y la fase final de la distribución de partículas en el suelo del conducto, respectivamente. En la segunda parte, se ha acoplado los métodos DEM con Lattice Boltzmann Method (LBM) para estudiar la sedimentación de partículas en flujo laminar newtoniano. Un nuevo metodo combinado LBM-IBM-DEM se presentó y ha sido aplicado para modelar la sedimentación de dos partículas circulares bi-dimensionales en flujos Newtonianos incompresibles. Se estudiaron casos de sedimentación en una cavidad de una sola esfera, y sedimentación de dos partículas en un canal, las características de la velocidad de la partícula durante la sedimentación y cerca de la base fueron también examinados. En el último caso, un ejemplo numérico de sedimentación de 504 partículas fue finalmente presentado para demostrar la capacidad del método combinado. Además, se ha presentado un método "Particulate Immersed Boundary Method" (PIBM) para la simulación de flujos multifásicos partícula-fluido y ha sido evaluado en dos y tres dimensiones. En comparación con el método IBM convencional, se puede esperar con el mismo número de partículas y de malla un SpeedUp docenas de veces superior en la simulación bidimensional y cientos de veces en la simulación en tres dimensiones. Se llevaron a cabo simulaciones numéricas de la sedimentación de partículas en los flujos newtonianos basados en una combinación LBM - PIBM - DEM, mostrando que el PIBM podría capturar las características de los flujos de partículas en el líquido y fue en efecto un esquema prometedor para la solución de problemas de interacción fluido-partícula. En la última parte, se ha acoplado el método DEM con las ecuaciones promediadas de Navier-Stokes (NS) para estudiar el transporte de partículas y el proceso de desgaste en la pared de una tubería. Se utilizó un caso de transporte neumático para demostrar la capacidad del modelo acoplado. Entonces se simuló el proceso de bombeo de hormigón, de donde se obtuvo la presión hidráulica y la distribución de la velocidad de la fase fluida. Se monitoreó la frecuencia de impacto de las partículas en la tubería doblada, se propuso un nuevo modelo de intensidad de colisión promediado en tiempo para investigar el proceso de desgaste del codo basado en la fuerza de impacto. Se predijo la ubicación del daño máximo desgaste por erosión en el codo. Además, se examinaron las influencias de la velocidad de pulpa, la orientación y el ángulo de curvatura del codo en la ubicación del punto de punción.
|
130 |
Particle-in-cell algorithms for plasma simulations on heterogeneous architecturesSáez Pous, Xavier 25 January 2016 (has links)
During the last two decades, High-Performance Computing (HPC) has grown rapidly in performance by improving single-core processors at the cost of a similar growth in power consumption. The single-core processor improvement has led many scientists to exploit mainly the process level parallelism in their codes. However, the performance of HPC systems is becoming increasingly limited by power consumption and power density, which have become a primary concern for the design of new computer systems. As a result, new supercomputers are designed based on the power efficiency provided by new homogeneous and heterogeneous architectures.
The growth in computational power has introduced a new approach to science, Computational Physics. Its impact on the study of nuclear fusion and plasma physics has been very significant. This is because the experiments are difficult and expensive to perform whereas computer simulations of plasma are an efficient way to progress. Particle-In-Cell (PIC) is one of the most used methods to simulate plasma. The improvement in the processing power has enabled an increase in the size and complexity of the PIC simulations. Most PIC codes have been designed with a strong emphasis on the physics and have traditionally included only process level parallelism. This approach has not taken advantage of multiprocessor platforms. Therefore, these codes exploit inefficiently the new computing platforms and, as a consequence, they are still limited to using simplified models.
The aim of this thesis is to incorporate in a PIC code the latest technologies available in computer science in order to take advantage of the upcoming multiprocessor supercomputers. This will enable an improvement in the simulations, either by introducing more physics in the code or by incorporating more detail to the simulations.
This thesis analyses a PIC code named EUTERPE on different computing platforms. EUTERPE is a production code used to simulate fusion plasma instabilities in fusion reactors. It has been implemented for traditional HPC clusters and it has been parallelized prior to this work using only Message Passing Interface (MPI). Our study of its scalability has reached up to tens of thousands of processors, which is several orders of magnitude higher than the scalability achieved when this thesis was initiated.
This thesis also describes the strategies adopted for porting a PIC code to a multi-core architecture, such as introducing thread level parallelism, distributing the work among different computing devices, and developing a new thread-safe solver. These strategies have been evaluated by applying them to the EUTERPE code. With respect to heterogeneous architectures, it has been possible to port this kind of plasma physics codes by rewriting part of the code or by using a programming model called OmpSs. This programming model is specially designed to make this computing power easily available to scientists without requiring expert knowledge on computing.
Last but not least, this thesis should not be seen as the end of a way, but rather as the beginning of a work to extend the physics simulated in fusion codes through exploiting available HPC resources. / Durant les darreres dues dècades, la Computació d'Alt Rendiment (HPC) ha crescut ràpidament en el rendiment mitjançant la millora dels processadors d'un sol nucli a costa d'un creixement similar en el consum d'energia. La millora en els processadors d'un sol nucli ha portat a molts científics a explotar tot el paral·lelisme a nivell de procés en els seus codis. No obstant això, el rendiment dels sistemes HPC està cada cop més limitat pel consum d'energia i la densitat de potència, que s'han convertit en una de les principals preocupacions en el disseny dels nous sistemes informàtics. Com a resultat, els nous supercomputadors estan dissenyats sobre la base de l'eficiència energètica proporcionada per les noves arquitectures homogènies i heterogènies. El creixement de la potència de càlcul ha introduït un nou enfocament a la ciència, la Física Computacional. El seu impacte en l'estudi de la fusió nuclear i la física del plasma ha estat molt significatiu. Això és perquè els experiments són difícils i costosos de realitzar mentre que les simulacions del plasma amb computadors són una manera eficaç de progressar. Particle-In-Cell (PIC) és un dels mètodes més utilitzats per simular el plasma. La millora en la potència de processament ha permès un augment en la grandària i la complexitat de les simulacions PIC. La majoria dels codis PIC s'han dissenyat amb un fort èmfasi en la física i tradicionalment han inclòs només paral·lelisme a nivell de procés. Aquest enfocament no ha aprofitat les plataformes multiprocessador. Per tant, aquests codis exploten ineficientment les noves plataformes de computació i, com a conseqüència, encara estan limitats a tractar amb models simplificats. L'objectiu d'aquesta tesi és incorporar en un codi PIC les últimes tecnologies disponibles en informàtica per tal d'aprofitar els propers supercomputadors multiprocessador. Això permetrà una millora en les simulacions, ja sigui mitjançant la introducció de més física en el codi o mitjançant la incorporació de més detall en les simulacions. Aquesta tesi analitza un codi PIC anomenat EUTERPE en diferents plataformes de computació. EUTERPE és un codi de producció utilitzat per simular les inestabilitats del plasma en els reactors de fusió. S'ha implementat per clústers HPC tradicionals i s'ha paral·lelitzat prèviament a aquest treball usant només la Interfície de Pas de Missatges (MPI). El nostre estudi de la seva escalabilitat ha arribat fins a desenes de milers de processadors, que és diversos ordres de magnitud més gran que l'escalabilitat que s'havia assolit quan es va iniciar aquesta tesi. Aquesta tesi també descriu les estratègies adoptades per portar un codi PIC a una arquitectura multi-nucli, com ara la introducció de paral·lelisme a nivell de thread, la distribució de la feina entre diferents dispositius de computació i el desenvolupament d'un nou solver thread-safe. Aquestes estratègies han estat avaluades amb la seva aplicació al codi EUTERPE. Pel que fa a les arquitectures heterogènies, ha estat possible portar aquest tipus de codis de la física del plasma reescrivint part del codi o mitjançant l'ús d'un model de programació anomenat OmpSs. Aquest model de programació està especialment dissenyat per posar aquesta potència de càlcul a l'abast dels científics sense necessitat de coneixements d'experts en computació. Finalment, però no menys important, aquesta tesi no ha de ser vista com el final d'un camí, sinó més aviat com l'inici d'un treball per estendre la física simulada en els codis de fusió nuclear mitjançant l'explotació dels recursos disponibles de HPC.
|
Page generated in 0.0263 seconds