Spelling suggestions: "subject:"informàtica"" "subject:"informàticad""
261 |
Robust analysis and protection of dynamic scenes for privacy-aware video surveillanceEllatif FatahAllah Ibrahim Mahmoud Rashwan, Hatem Abd 26 May 2014 (has links)
No description available.
|
262 |
Time-domain numerical methods in room acoustics simulationsSpa Carvajal, Carlos 20 November 2009 (has links)
L'acústica de sales s'encarrega de l'estudi del comportament de les ones sonores en espais tancats.La informació acústica de qualsevol entorn, coneguda com la resposta impulsional, pot ser expressada en termes del camp acústic com una funció de l'espai i el temps. En general, és impossible obtenir solucions analítiques de funcions resposta en habitacions reals. Per tant, en aquests últims anys, l'ús d'ordinadors per resoldre aquest tipus de problemes ha emergit com una solució adecuada per calcular respostes impulsionals.En aquesta Tesi hem centrat el nostre anàlisis en els mètodes basats en el comportament ondulatori dins del domini temporal. Més concretament, estudiem en detall les formulacions més importants del mètode de Diferències Finites, el qual s'utilitza en moltes aplicacions d'acústica de sales, i el recentment proposat mètode PseudoEspectral de Fourier. Ambdós mètodes es basen en la formulació discreta de les equacions analítiques que descriuen els fenòmens acústics en espais tancats.Aquesta obra contribueix en els aspectes més importants en el càlcul numèric de respostes impulsionals: la propagació del so, la generació de fonts i les condicions de contorn de reactància local. / Room acoustics is the science concerned to study the behavior of sound waves in enclosed rooms. The acoustic information of any room, the so called impulse response, is expressed in terms of the acoustic field as a function of space and time. In general terms, it is nearly impossible to find analytical impulse responses of real rooms. Therefore, in the recent years, the use of computers for solving this type of problems has emerged as a proper alternative to calculate the impulse responses. In this Thesis we focus on the analysis of the wavebased methods in the timedomain. More concretely, we study in detail the main formulations of FiniteDifference methods, which have been used in many room acoustics applications, and the recently proposed Fourier PseudoSpectral methods. Both methods are based on the discrete formulations of the analytical equations that describe the sound phenomena in enclosed rooms. This work contributes to the main aspects in the computation of impulse responses: the wave propagation, the source generation and the locallyreacting boundary conditions.
|
263 |
Integració d'eines i mètodes de la mesura de la sostenibilitat d'un territori en un sistema d'informacióBofill Abelló, Jordi 05 June 2012 (has links)
Es realitza una recerca aplicada en els camps de la mesura de la sostenibilitat d’un territori, i dels sistemes d’informació, estudiats com un sistema complex. D’una banda, s’analitzen les eines i els mètodes aplicats en els estudis de sostenibilitat d’un territori (variables, indicadors, models conceptuals,
etc.) i, d’altre banda, els conceptes i les eines informàtiques actuals. La tesi amplia els conceptes de variables i valors, i estableix mètodes per integrar la informació estructural d’un territori, així com per resoldre el càlcul de valors de variables derivades, mitjançant una sintaxis que permet descriure i executar fórmules i programes de càlcul. Es desenvolupa un disseny de la base d’informació, amb els tipus d’entitats que intervenen (territori, models conceptuals, variables, valors i fonts de dades) i alguns dels processos principals, enfocada a grups multidisciplinaris de recerca. Es presenten els prototips desenvolupats que s’han aplicat a casos pràctics, utilitzant software lliure. / The questions raised that are the basis of the research and the source that feeds the objectives are:
1. Is it possible to define a data model to undertake sustainability studies for territories with different types of organization, initially unknown?
2. Can data evolve incorporating new requirements and techniques, so it is re-usable for subsequent follow up studies?
3. Can the system incorporate views of researchers that come from different research areas, possibly with conflicting interests?
Three knowledge areas are involved: sustainability; data, metadata and ontologies, and information systems.
The objectives of the research are:
- Conceptual definition of variables and values in the area of sustainability.
- Establish a variables calculation and agregation method.
- Definition of an integrated data structure.
- Integration of conceptual models in the data structure.
- Validation of the proposed methodology through prototyping.
These objectives fit into the following main areas of concern: (a) sustainability measurement, calculation of indicators and indexes, territorial organization and free software. The methodology used is to collect and analyze the current status of each area, the vision as post-normal science, systems thinking and prototype development.
The thesis shows the relationships between territory, data and conceptual models, and also proposes methods that allow them to work together. It defines the concepts of variables and values, and their relationship with the values ¿¿of conceptual models (reference values, thresholds ...). Pointed out contributing methods:
- Define and integrate wide variety of organizational structures.
- Define and calculate any type of indicator, index or variable.
- Use conceptual frameworks concurrently with different sustainability criteria.
- Prototypes are developed using free software
|
264 |
Integración de un modelo de tiempo real en middleware configurable para sistemas distribuidos. Integrating a Real-Time Model in Configurable Middleware for Distributed SystemsPérez Tijero, Héctor 20 July 2012 (has links)
This thesis describes the integration of the end-to-end flow real-time model, which is
defined in the MARTE (Modeling and Analysis of Real-Time and Embedded Systems)
standard, into distribution middleware, as it can facilitate the development process
of distributed real-time systems based on the Model-Driven Engineering (MDE)
paradigm. The study focuses on how distribution standards and their
implementations guarantee the real-time behaviour of these kinds of applications,
thus providing a set of features required to develop analyzable distributed real-time
systems. The standards studied are RT-CORBA (Real-Time Common Object Request
Broker Architecture), the DSA (Distributed Systems Annex) of Ada, and DDS (Data
Distribution Service for real-time systems). The features analysed will contribute to
the definition of the endpoints pattern, a new proposal that, when integrated with
distribution middleware, enables the use of MDE and schedulability analysis
techniques more easily. This thesis also presents a distributed real-time platform
supporting different distribution standards, and scheduling policies, and several
examples or case studies to validate the features and usability of the endpoints
pattern. In addition, this thesis deals with the use of the end-to-end flow model in
high-integrity systems by adapting the endpoints pattern to the Ravenscar profile,
and also explores the integration of the proposal into a toolset for MDE to enable the
automatic generation of Ravenscar-compliant distribution code. Finally, specific
implementations of the endpoints pattern are presented for full and restricted Ada.
|
265 |
Facing online challenges using learning classifier systemsSancho Asensio, Andreu 19 May 2014 (has links)
Els grans avenços en el camp de l’aprenentatge automàtic han resultat en el disseny de màquines competents que són capaces d’aprendre i d’extreure informació útil i original de l’experiència. Recentment, algunes d’aquestes tècniques d’aprenentatge s’han aplicat amb èxit per resoldre problemes del món real en àmbits tecnològics, mèdics, científics i industrials, els quals no es podien tractar amb tècniques convencionals d’anàlisi ja sigui per la seva complexitat o pel gran volum de dades a processar. Donat aquest èxit inicial, actualment els sistemes d’aprenentatge s’enfronten a problemes de complexitat més elevada, el que ha resultat en un augment de l’activitat investigadora entorn sistemes capaços d’afrontar nous problemes del món real eficientment i de manera escalable.
Una de les famílies d’algorismes més prometedores en l’aprenentatge automàtic són els sistemes classificadors basats en algorismes genetics (LCSs), el funcionament dels quals s’inspira en la natura. Els LCSs intenten representar les polítiques d’actuació d’experts humans amb un conjunt de regles que s’empren per escollir les millors accions a realitzar en tot moment. Així doncs, aquests sistemes aprenen polítiques d’actuació de manera incremental a mida que van adquirint experiència a través de la informació nova que se’ls va presentant durant el temps. Els LCSs s’han aplicat, amb èxit, a camps tan diversos com la predicció de càncer de pròstata o el suport a la inversió en borsa, entre altres. A més en alguns casos s’ha demostrat que els LCSs realitzen tasques superant la precisió dels éssers humans. El propòsit d’aquesta tesi és explorar la naturalesa de l’aprenentatge online dels LCSs d’estil Michigan per a la mineria de grans quantitats de dades en forma de fluxos d’informació continus a alta velocitat i canviants en el temps. Molt sovint, l’extracció de coneixement a partir d’aquestes fonts de dades és clau per tal d’obtenir una millor comprensió dels processos que les dades estan descrivint. Així, aprendre d’aquestes dades planteja nous reptes a les tècniques tradicionals d’aprenentatge automàtic, les quals no estan dissenyades per tractar fluxos de dades continus i on els conceptes i els nivells de soroll poden variar amb el temps de forma arbitrària. La contribució de la present tesi pren l’eXtended Classifier System (XCS), el LCS d’estil Michigan més estudiat i un dels algoritmes d’aprenentatge automàtic més competents, com el punt de partida. D’aquesta manera els reptes abordats en aquesta tesi són dos: el primer desafiament és la construcció d’un sistema supervisat competent sobre el framework dels LCSs d’estil Michigan que aprèn dels fluxos de dades amb una capacitat de reacció ràpida als canvis de concepte i entrades amb soroll. Com moltes aplicacions científiques i industrials generen grans quantitats de dades sense etiquetar, el segon repte és aplicar les lliçons apreses per continuar amb el disseny de LCSs d’estil Michigan capaços de solucionar problemes online sense assumir una estructura a priori en els dades d’entrada. / Los grandes avances en el campo del aprendizaje automático han resultado en el diseño de máquinas capaces de aprender y de extraer información útil y original de la experiencia. Recientemente alguna de estas técnicas de aprendizaje se han aplicado con éxito para resolver problemas del mundo real en ámbitos tecnológicos, médicos, científicos e industriales, los cuales no se podían tratar con técnicas convencionales de análisis ya sea por su complejidad o por el gran volumen de datos a procesar. Dado este éxito inicial, los sistemas de aprendizaje automático se enfrentan actualmente a problemas de complejidad cada vez m ́as elevada, lo que ha resultado en un aumento de la actividad investigadora en sistemas capaces de afrontar nuevos problemas del mundo real de manera eficiente y escalable.
Una de las familias más prometedoras dentro del aprendizaje automático son los sistemas clasificadores basados en algoritmos genéticos (LCSs), el funcionamiento de los cuales se inspira en la naturaleza. Los LCSs intentan representar las políticas de actuación de expertos humanos usando conjuntos de reglas que se emplean para escoger las mejores acciones a realizar en todo momento. Así pues estos sistemas aprenden políticas de actuación de manera incremental mientras van adquiriendo experiencia a través de la nueva información que se les va presentando. Los LCSs se han aplicado con éxito en campos tan diversos como en la predicción de cáncer de próstata o en sistemas de soporte de bolsa, entre otros. Además en algunos casos se ha demostrado que los LCSs realizan tareas superando la precisión de expertos humanos.
El propósito de la presente tesis es explorar la naturaleza online del aprendizaje empleado por los LCSs de estilo Michigan para la minería de grandes cantidades de datos en forma de flujos continuos de información a alta velocidad y cambiantes en el tiempo. La extracción del conocimiento a partir de estas fuentes de datos es clave para obtener una mejor comprensión de los procesos que se describen. Así, aprender de estos datos plantea nuevos retos a las técnicas tradicionales, las cuales no están diseñadas para tratar flujos de datos continuos y donde los conceptos y los niveles de ruido pueden variar en el tiempo de forma arbitraria. La contribución del la presente tesis toma el eXtended Classifier System (XCS), el LCS de tipo Michigan más estudiado y uno de los sistemas de aprendizaje automático más competentes, como punto de partida. De esta forma los retos abordados en esta tesis son dos: el primer desafío es la construcción de un sistema supervisado competente sobre el framework de los LCSs de estilo Michigan que aprende de flujos de datos con una capacidad de reacción rápida a los cambios de concepto y al ruido. Como muchas aplicaciones científicas e industriales generan grandes volúmenes de datos sin etiquetar, el segundo reto es aplicar las lecciones aprendidas para continuar con el diseño de nuevos LCSs de tipo Michigan capaces de solucionar problemas online sin asumir una estructura a priori en los datos de entrada. / Last advances in machine learning have fostered the design of competent algorithms that are able to learn and extract novel and useful information from data. Recently, some of these techniques have been successfully applied to solve real-‐world problems in distinct technological, scientific and industrial areas; problems that were not possible to handle by the traditional engineering methodology of analysis either for their inherent complexity or by the huge volumes of data involved. Due to the initial success of these pioneers, current machine learning systems are facing problems with higher difficulties that hamper the learning process of such algorithms, promoting the interest of practitioners for designing systems that are able to scalably and efficiently tackle real-‐world problems.
One of the most appealing machine learning paradigms are Learning Classifier Systems (LCSs), and more specifically Michigan-‐style LCSs, an open framework that combines an apportionment of credit mechanism with a knowledge discovery technique inspired by biological processes to evolve their internal knowledge. In this regard, LCSs mimic human experts by making use of rule lists to choose the best action to a given problem situation, acquiring their knowledge through the experience. LCSs have been applied with relative success to a wide set of real-‐ world problems such as cancer prediction or business support systems, among many others. Furthermore, on some of these areas LCSs have demonstrated learning capacities that exceed those of human experts for that particular task.
The purpose of this thesis is to explore the online learning nature of Michigan-‐style LCSs for mining large amounts of data in the form of continuous, high speed and time-‐changing streams of information. Most often, extracting knowledge from these data is key, in order to gain a better understanding of the processes that the data are describing. Learning from these data poses new challenges to traditional machine learning techniques, which are not typically designed to deal with data in which concepts and noise levels may vary over time. The contribution of this thesis takes the extended classifier system (XCS), the most studied Michigan-‐style LCS and one of the most competent machine learning algorithms, as the starting point. Thus, the challenges addressed in this thesis are twofold: the first challenge is building a competent supervised system based on the guidance of Michigan-‐style LCSs that learns from data streams with a fast reaction capacity to changes in concept and noisy inputs. As many scientific and industrial applications generate vast amounts of unlabelled data, the second challenge is to apply the lessons learned in the previous issue to continue with the design of unsupervised Michigan-‐style LCSs that handle online problems without assuming any a priori structure in input data.
|
266 |
Ajuda al Diagnòstic de Càncer de Melanoma amb Raonament Analògic MultietiquetaNicolàs Sans, Rubén 21 March 2014 (has links)
La mortalitat provocada pel càncer de melanoma ha augmentat en els últims anys a causa, principalment, dels nous hàbits d'exposició al sol. Atenent al criteri mèdic, el diagnòstic precoç s'ha convertit en el millor mètode de prevenció. No és però una tasca trivial ja que els experts del domini han de fer front a un problema caracteritzat per tenir un gran volum de dades, de format heterogeni i amb coneixement parcial. A partir d'aquestes necessitats es proposa la creació d'una eina de suport a la presa de decisions que sigui capaç d'ajudar els experts en melanoma en el seu diagnòstic. El sistema ha de fer front a diversos reptes plantejats, que inclouen la caracterització del domini, la identificació de patrons a les dades segons el criteri dels experts, la classificació de nous pacients i la capacitat d'explicar els pronòstics obtinguts. Aquestes fites s'han materialitzat en la plataforma DERMA, la qual està basada en la col•laboració de diversos subsistemes de raonament analògic multietiqueta.
L'experimentació realitzada amb el sistema proposat utilitzant dades d'imatges confocals i dermatoscòpiques ha permès comprovar la fiabilitat del sistema. Els resultats obtinguts han estat validats pels experts en el diagnòstic del melanoma considerant-los positius. / La mortalidad a causa del cáncer de melanoma ha aumentado en los últimos años debido, principalmente, a los nuevos hábitos de exposición al sol. Atendiendo al criterio médico, el diagnóstico precoz se ha convertido en el mejor método de prevención, pero no se trata de una tarea trivial puesto que los expertos del dominio deben hacer frente a un problema caracterizado por tener un gran volumen de datos, de formato heterogéneo y con conocimiento parcial. A partir de estas necesidades se propone la creación de una herramienta de ayuda a la toma de decisiones que sea capaz de ayudar a los expertos en melanoma en su diagnóstico. El sistema tiene que hacer frente a diversos retos planteados, que incluyen la caracterización del dominio, la identificación de patrones en los datos según el criterio médico, la clasificación de nuevos pacientes y la capacidad de explicar los pronósticos obtenidos. Estas metas se han materializado en la plataforma DERMA la cual está basada en la colaboración de varios subsistemas de razonamiento analógico multietiqueta.
La experimentación realizada con el sistema propuesto utilizando datos de imágenes confocales y dermatoscópicas ha permitido verificar la fiabilidad del sistema. Los resultados obtenidos han sido validados por los expertos en el diagnóstico del melanoma considerándolos positivos. / Mortality related to melanoma cancer has increased in recent years, mainly due to new habits of sun exposure. Considering the medical criteria, early diagnosis has become the best method of prevention but this is not trivial because experts are facing a problem characterized by a large volume of data, heterogeneous, and with partial knowledge. Based on these requirements we propose the creation of a decision support system that is able to assist experts in melanoma diagnosis. The system has to cope with various challenges, that include the characterization of the domain, the identification of data patterns attending to medical criteria, the classification of new patients, and the ability to explain predictions. These goals have been materialized in DERMA platform that is based on the collaboration of several analogical reasoning multi-label subsystems.
The experiments conducted with the proposed system using confocal and dermoscopic images data have been allowed to ascertain the reliability of the system. The results have been validated by experts in diagnosis of melanoma considering it as positive.
|
267 |
Numerical simulations of thermal storage systems : emphasis on latent energy storage using phase change materials (PCM)Galione Klot, Pedro Andrés 23 December 2014 (has links)
The present thesis aims at studying the use of phase change materials (PCM) in thermal energy storage (TES) applications and to develop and implement numerical tools for their evaluation. Numerical analysis is nowadays an indispensable tool for the design, evaluation and optimization of thermal equipment, complementing the experimental techniques.
Two levels of analysis are carried out, one in the field of Computational Fluid Dynamics, allowing the accurate simulation of the complex heat transfer and fluid dynamics phenomena present in solid-liquid phase change problems; and another one in which the governing equations are treated assuming several suitable simplifications and integrating empirical correlations, intended for the study of whole thermal storage systems throughout several charge/discharge cycles.
Furthermore, the specific application of thermal storage in concentrated solar power (CSP) stations is studied. Different single-tank systems, making use of both sensible and latent energy capacities of the materials, are evaluated and compared against the two-tank molten-salt systems used in current CSP plants. Moreover, a new single-tank TES concept which combines the use of solid and PCM filler materials is proposed, with promising results for its utilization in CSP.
In chapters 2 and 3, a numerical fixed-grid enthalpy model for the simulation of the solid-liquid phase change is developed. This technique is implemented using the Finite Volume Method in a collocated unstructured domain discretization and using explicit time integration schemes. Issues regarding the form of the energy equation, the treatment of the pressure equation as well as the momentum source-term coefficient introduced by the enthalpy-porosity method, are described in detail in the first chapter. In the second, the possibility of taking into account the variation of the different thermo-physical properties with the temperature is dealt with. Thermal expansion and contraction associated to the phase change are taken into account in the conservation equations and different strategies for the numerical treatment of the energy equation are discussed in detail. Furthermore, simulations of an interesting case of melting of an encapsulated PCM are carried out using two and three-dimensional meshes, and the results are compared against experimental results from the literature.
In the next two chapters, the issue of numerically simulating whole single-tank TES systems is developed. These systems are composed of a single tank filled with solid and/or PCM materials, forming a packed bed through which a heat transfer fluid flows. Thermal stratification separates the fluid layers at different temperatures. The zone in which a steep temperature gradient is produced is called "thermocline", and it is desirable to maintain it as narrow as possible in order to keep a high stored exergy. Different designs of single-tank TES systems ¿classified according to the filler material/s used¿ are evaluated for CSP plants. The analysis is performed evaluating different aspects, as the energy effectively stored/released and the efficiency in the use of the theoretical capacity after several charge/discharge cycles, obtaining results independent of the initial thermal state. The operating time is not fixed, but depends on the temperature of the fluid coming out of the tank, limited by the restrictions of the receiving equipment (solar field and power block). Degradation of the stratification is observed to occur after several cycles, due to the temperature restrictions. In this context, a new concept of single-tank TES is presented, which consists of the combination of different layers of solid and PCM filler materials in a suitable manner, resulting in a lower degradation of the thermocline and increasing the use of the theoretical capacity. This concept, called Multi-Layered Solid PCM (MLSPCM), is demonstrated as a promising alternative for its use in CSP plants. / Esta tesis se centra en el estudio del uso de materiales de cambio de fase (PCM) en el almacenamiento de energía térmica (TES) y en el desarrollo de herramientas numéricas para su evaluación. El análisis numérico es hoy en día una herramienta indispensable para el diseño, evaluación y optimización de equipos térmicos, complementando las técnicas experimentales. Se realizan dos niveles de análisis, uno en el campo de la dinámica de fluidos computacional, permitiendo la simulación precisa de fenómenos complejos de transferencia de calor y dinámica de fluidos presentes en los problemas de cambio de fase sólido-líquido; y otro en la que las ecuaciones gobernantes son tratadas mediante simplificaciones razonables e integrando correlaciones empíricas, destinado al estudio de sistemas TES en varios ciclos de carga/descarga. Por otra parte, se estudia el almacenamiento térmico para plantas de generación termosolar (CSP). Se evalúan diferentes sistemas de un solo tanque, utilizando tanto las capacidades de energía sensible como latente de los materiales, y se comparan con los sistemas de sales fundidas de doble tanque utilizados actualmente. Además, se propone un concepto novedoso de TES de un único tanque que combina el uso de materiales de relleno sólidos y PCM, con resultados prometedores para su utilización en CSP. En los capítulos 2 y 3, se desarrolla un modelo de entalpía de malla fija para la simulación de la fusión y solidificación. Se utiliza una discretización por volúmenes finitos en mallas no estructuradas en un esquema colocado, y esquemas de integración temporal explícitos. En el primer capítulo, se discuten cuestiones relativas a la forma de la ecuación de energía, el tratamiento de la ecuación de presión, así como el coeficiente de término fuente en la ecuación de momentum introducido por el método de entalpía-porosidad. En el segundo, se trata la posibilidad de tener en cuenta la variación de las propiedades termofísicas con la temperatura. La expansión/contracción térmica asociada al cambio de fase se tiene en cuenta en las ecuaciones de conservación y se tratan en detalle diferentes estrategias para el tratamiento numérico de la ecuación de la energía. Además, se realizan simulaciones de un caso interesante de fusión de un PCM encapsulado, utilizando mallas bi y tridimensionales, y los resultados se comparan con otros de la literatura. En los dos capítulos siguientes, se desarrolla el tema de la simulación numérica de sistemas TES de un único tanque. Estos sistemas están compuestos de un tanque relleno de materiales sólidos y/o PCM, formando un lecho poroso a través del cual circula un fluido de transferencia de calor. La estratificación térmica separa las capas de fluido a diferentes temperaturas. La zona en donde se da el mayor gradiente de temperaturas vertical se conoce generalmente como "termoclina", la cual es deseable mantenerla lo más angosta posible, con el fin de mantener una mayor exergía almacenada. Diferentes diseños de sistemas de un solo tanque -clasificados de acuerdo con el/los material/es de relleno utilizado/s- se evalúan para plantas de CSP. El análisis se realiza evaluando diferentes aspectos, como la energía efectivamente almacenada/liberada y la eficiencia en el uso de la capacidad teórica luego de varios ciclos de carga/descarga, obteniendo resultados independientes del estado térmico inicial. El tiempo de operación no es fijo, sino que depende de la temperatura del fluido de salida, limitada por las restricciones de los equipos que lo reciben (campo solar y bloque de potencia). Se observa una degradación de la estratificación a lo largo de los ciclos debido a las restricciones de temperatura. En este contexto, se presenta concepto de TES novedoso, combinando de diferentes capas de materiales de relleno sólidos y PCM de una manera adecuada. Este concepto, llamado "multi-layered solid-PCM" (MLSPCM) resulta ser una alternativa prometedora para su uso en plantas de CSP
|
268 |
From cluster databases to cloud storage: Providing transactional support on the cloudNavarro Martín, Joan 02 February 2015 (has links)
Durant les últimes tres dècades, les limitacions tecnològiques (com per exemple la capacitat dels dispositius d'emmagatzematge o l'ample de banda de les xarxes de comunicació) i les creixents demandes dels usuaris (estructures d'informació, volums de dades) han conduït l'evolució de les bases de dades distribuïdes. Des dels primers repositoris de dades per arxius plans que es van desenvolupar en la dècada dels vuitanta, s'han produït importants avenços en els algoritmes de control de concurrència, protocols de replicació i en la gestió de transaccions. No obstant això, els reptes moderns d'emmagatzematge de dades que plantegen el Big Data i el cloud computing—orientats a millorar la limitacions pel que fa a escalabilitat i elasticitat de les bases de dades estàtiques—estan empenyent als professionals a relaxar algunes propietats importants dels sistemes transaccionals clàssics, cosa que exclou a diverses aplicacions les quals no poden encaixar en aquesta estratègia degut a la seva alta dependència transaccional.
El propòsit d'aquesta tesi és abordar dos reptes importants encara latents en el camp de les bases de dades distribuïdes: (1) les limitacions pel que fa a escalabilitat dels sistemes transaccionals i (2) el suport transaccional en repositoris d'emmagatzematge en el núvol. Analitzar les tècniques tradicionals de control de concurrència i de replicació, utilitzades per les bases de dades clàssiques per suportar transaccions, és fonamental per identificar les raons que fan que aquests sistemes degradin el seu rendiment quan el nombre de nodes i / o quantitat de dades creix. A més, aquest anàlisi està orientat a justificar el disseny dels repositoris en el núvol que deliberadament han deixat de banda el suport transaccional. Efectivament, apropar el paradigma de l'emmagatzematge en el núvol a les aplicacions que tenen una forta dependència en les transaccions és fonamental per a la seva adaptació als requeriments actuals pel que fa a volums de dades i models de negoci.
Aquesta tesi comença amb la proposta d'un simulador de protocols per a bases de dades distribuïdes estàtiques, el qual serveix com a base per a la revisió i comparativa de rendiment dels protocols de control de concurrència i les tècniques de replicació existents. Pel que fa a la escalabilitat de les bases de dades i les transaccions, s'estudien els efectes que té executar diferents perfils de transacció sota diferents condicions. Aquesta anàlisi contínua amb una revisió dels repositoris d'emmagatzematge de dades en el núvol existents—que prometen encaixar en entorns dinàmics que requereixen alta escalabilitat i disponibilitat—, el qual permet avaluar els paràmetres i característiques que aquests sistemes han sacrificat per tal de complir les necessitats actuals pel que fa a emmagatzematge de dades a gran escala.
Per explorar les possibilitats que ofereix el paradigma del cloud computing en un escenari real, es presenta el desenvolupament d'una arquitectura d'emmagatzematge de dades inspirada en el cloud computing la qual s’utilitza per emmagatzemar la informació generada en les Smart Grids. Concretament, es combinen les tècniques de replicació en bases de dades transaccionals i la propagació epidèmica amb els principis de disseny usats per construir els repositoris de dades en el núvol. Les lliçons recollides en l'estudi dels protocols de replicació i control de concurrència en el simulador de base de dades, juntament amb les experiències derivades del desenvolupament del repositori de dades per a les Smart Grids, desemboquen en el que hem batejat com Epidemia: una infraestructura d'emmagatzematge per Big Data concebuda per proporcionar suport transaccional en el núvol. A més d'heretar els beneficis dels repositoris en el núvol en quant a escalabilitat, Epidemia inclou una capa de gestió de transaccions que reenvia les transaccions dels clients a un conjunt jeràrquic de particions de dades, cosa que permet al sistema oferir diferents nivells de consistència i adaptar elàsticament la seva configuració a noves demandes de càrrega de treball.
Finalment, els resultats experimentals posen de manifest la viabilitat de la nostra contribució i encoratgen als professionals a continuar treballant en aquesta àrea. / Durante las últimas tres décadas, las limitaciones tecnológicas (por ejemplo la capacidad de los dispositivos de almacenamiento o el ancho de banda de las redes de comunicación) y las crecientes demandas de los usuarios (estructuras de información, volúmenes de datos) han conducido la evolución de las bases de datos distribuidas. Desde los primeros repositorios de datos para archivos planos que se desarrollaron en la década de los ochenta, se han producido importantes avances en los algoritmos de control de concurrencia, protocolos de replicación y en la gestión de transacciones. Sin embargo, los retos modernos de almacenamiento de datos que plantean el Big Data y el cloud computing—orientados a mejorar la limitaciones en cuanto a escalabilidad y elasticidad de las bases de datos estáticas—están empujando a los profesionales a relajar algunas propiedades importantes de los sistemas transaccionales clásicos, lo que excluye a varias aplicaciones las cuales no pueden encajar en esta estrategia debido a su alta dependencia transaccional.
El propósito de esta tesis es abordar dos retos importantes todavía latentes en el campo de las bases de datos distribuidas: (1) las limitaciones en cuanto a escalabilidad de los sistemas transaccionales y (2) el soporte transaccional en repositorios de almacenamiento en la nube. Analizar las técnicas tradicionales de control de concurrencia y de replicación, utilizadas por las bases de datos clásicas para soportar transacciones, es fundamental para identificar las razones que hacen que estos sistemas degraden su rendimiento cuando el número de nodos y/o cantidad de datos crece. Además, este análisis está orientado a justificar el diseño de los repositorios en la nube que deliberadamente han dejado de lado el soporte transaccional. Efectivamente, acercar el paradigma del almacenamiento en la nube a las aplicaciones que tienen una fuerte dependencia en las transacciones es crucial para su adaptación a los requerimientos actuales en cuanto a volúmenes de datos y modelos de negocio.
Esta tesis empieza con la propuesta de un simulador de protocolos para bases de datos distribuidas estáticas, el cual sirve como base para la revisión y comparativa de rendimiento de los protocolos de control de concurrencia y las técnicas de replicación existentes. En cuanto a la escalabilidad de las bases de datos y las transacciones, se estudian los efectos que tiene ejecutar distintos perfiles de transacción bajo diferentes condiciones. Este análisis continua con una revisión de los repositorios de almacenamiento en la nube existentes—que prometen encajar en entornos dinámicos que requieren alta escalabilidad y disponibilidad—, el cual permite evaluar los parámetros y características que estos sistemas han sacrificado con el fin de cumplir las necesidades actuales en cuanto a almacenamiento de datos a gran escala.
Para explorar las posibilidades que ofrece el paradigma del cloud computing en un escenario real, se presenta el desarrollo de una arquitectura de almacenamiento de datos inspirada en el cloud computing para almacenar la información generada en las Smart Grids. Concretamente, se combinan las técnicas de replicación en bases de datos transaccionales y la propagación epidémica con los principios de diseño usados para construir los repositorios de datos en la nube. Las lecciones recogidas en el estudio de los protocolos de replicación y control de concurrencia en el simulador de base de datos, junto con las experiencias derivadas del desarrollo del repositorio de datos para las Smart Grids, desembocan en lo que hemos acuñado como Epidemia: una infraestructura de almacenamiento para Big Data concebida para proporcionar soporte transaccional en la nube. Además de heredar los beneficios de los repositorios en la nube altamente en cuanto a escalabilidad, Epidemia incluye una capa de gestión de transacciones que reenvía las transacciones de los clientes a un conjunto jerárquico de particiones de datos, lo que permite al sistema ofrecer distintos niveles de consistencia y adaptar elásticamente su configuración a nuevas demandas cargas de trabajo.
Por último, los resultados experimentales ponen de manifiesto la viabilidad de nuestra contribución y alientan a los profesionales a continuar trabajando en esta área. / Over the past three decades, technology constraints (e.g., capacity of storage devices, communication networks bandwidth) and an ever-increasing set of user demands (e.g., information structures, data volumes) have driven the evolution of distributed databases. Since flat-file data repositories developed in the early eighties, there have been important advances in concurrency control algorithms, replication protocols, and transactions management. However, modern concerns in data storage posed by Big Data and cloud computing—related to overcome the scalability and elasticity limitations of classic databases—are pushing practitioners to relax some important properties featured by transactions, which excludes several applications that are unable to fit in this strategy due to their intrinsic transactional nature.
The purpose of this thesis is to address two important challenges still latent in distributed databases: (1) the scalability limitations of transactional databases and (2) providing transactional support on cloud-based storage repositories. Analyzing the traditional concurrency control and replication techniques, used by classic databases to support transactions, is critical to identify the reasons that make these systems degrade their throughput when the number of nodes and/or amount of data rockets. Besides, this analysis is devoted to justify the design rationale behind cloud repositories in which transactions have been generally neglected. Furthermore, enabling applications which are strongly dependent on transactions to take advantage of the cloud storage paradigm is crucial for their adaptation to current data demands and business models.
This dissertation starts by proposing a custom protocol simulator for static distributed databases, which serves as a basis for revising and comparing the performance of existing concurrency control protocols and replication techniques. As this thesis is especially concerned with transactions, the effects on the database scalability of different transaction profiles under different conditions are studied. This analysis is followed by a review of existing cloud storage repositories—that claim to be highly dynamic, scalable, and available—, which leads to an evaluation of the parameters and features that these systems have sacrificed in order to meet current large-scale data storage demands.
To further explore the possibilities of the cloud computing paradigm in a real-world scenario, a cloud-inspired approach to store data from Smart Grids is presented. More specifically, the proposed architecture combines classic database replication techniques and epidemic updates propagation with the design principles of cloud-based storage. The key insights collected when prototyping the replication and concurrency control protocols at the database simulator, together with the experiences derived from building a large-scale storage repository for Smart Grids, are wrapped up into what we have coined as Epidemia: a storage infrastructure conceived to provide transactional support on the cloud. In addition to inheriting the benefits of highly-scalable cloud repositories, Epidemia includes a transaction management layer that forwards client transactions to a hierarchical set of data partitions, which allows the system to offer different consistency levels and elastically adapt its configuration to incoming workloads.
Finally, experimental results highlight the feasibility of our contribution and encourage practitioners to further research in this area.
|
269 |
La actividad del docente en postgrado y su interacción con los entornos virtualesCisneros Hernández, Lidia 29 January 2016 (has links)
Aquesta investigació se situa en la perspectiva del pragmatisme i respon al problema de com els docents de postgrau interactuen amb les eines en entorns virtuals per exercir la docència; el marc teòric aborda la teoria de l'activitat per explicar-la. S'inclouen quatre dimensions: pedagògica, social, directiva i tecnològica, a més de catorze accions. Es respon la pregunta "quines activitats i accions reconeixen els professors de postgrau com acompliment per a la docència virtual i com interactuen amb les eines de l'entorn?" Busca la relació de la docència amb les eines del sistema, les quals es classifiquen d'acord amb la Web 2.0. Una aportació es troba en allò metodològic, contribueix al coneixement de què i com exerceixen la docència virtual els professors en postgrau. Obre una línia d'investigació per a la comprensió del fenomen i genera coneixement sobre les estratègies dels professors experts per formar els nous. / Esta investigación se ubica en la perspectiva del pragmatismo y responde al problema de cómo los docentes de postgrado interactúan con las herramientas en entornos virtuales para desempeñar la docencia; el marco teórico aborda la teoría de la actividad para explicarla. Se incluyen cuatro dimensiones: pedagógica, social, directiva y tecnológica, además de catorce acciones. Se responde la pregunta ¿qué actividades y acciones reconocen los profesores de postgrado como desempeño para la docencia virtual y cómo interactúan con las herramientas del entorno? Busca la relación de la docencia con las herramientas del sistema, las cuales se clasifican acorde a la Web 2.0. Un aporte se encuentra en lo metodológico, contribuye al conocimiento de qué y cómo desempeñan la docencia virtual los profesores en postgrado. Abre una línea de investigación para la comprensión del fenómeno y genera conocimiento sobre las estrategias de los profesores expertos para formar a los nuevos. / This research is located in the perspective of pragmatism; it addresses the problem of how graduate teachers interact with virtual environment's tools to perform teaching and approaches the activity theory to explain this interaction. There are four dimensions included: Educational, social, policy and technology, in addition to fourteen actions. The question to answer is: What activities and actions are recognized in the performance of graduate teachers in virtual environments, and how these teachers interact with its tools? The relationship of teaching and the system tools, classified according to web 2.0, is searched. Its contribution is in the methodological; it adds to the knowledge of what and how graduate teachers do virtual teaching, opens a line of research for understanding this phenomenon, and generates knowledge of the strategies of expert teachers to train new ones.
|
270 |
Particle-in-cell algorithms for plasma simulations on heterogeneous architecturesSáez Pous, Xavier 25 January 2016 (has links)
During the last two decades, High-Performance Computing (HPC) has grown rapidly in performance by improving single-core processors at the cost of a similar growth in power consumption. The single-core processor improvement has led many scientists to exploit mainly the process level parallelism in their codes. However, the performance of HPC systems is becoming increasingly limited by power consumption and power density, which have become a primary concern for the design of new computer systems. As a result, new supercomputers are designed based on the power efficiency provided by new homogeneous and heterogeneous architectures.
The growth in computational power has introduced a new approach to science, Computational Physics. Its impact on the study of nuclear fusion and plasma physics has been very significant. This is because the experiments are difficult and expensive to perform whereas computer simulations of plasma are an efficient way to progress. Particle-In-Cell (PIC) is one of the most used methods to simulate plasma. The improvement in the processing power has enabled an increase in the size and complexity of the PIC simulations. Most PIC codes have been designed with a strong emphasis on the physics and have traditionally included only process level parallelism. This approach has not taken advantage of multiprocessor platforms. Therefore, these codes exploit inefficiently the new computing platforms and, as a consequence, they are still limited to using simplified models.
The aim of this thesis is to incorporate in a PIC code the latest technologies available in computer science in order to take advantage of the upcoming multiprocessor supercomputers. This will enable an improvement in the simulations, either by introducing more physics in the code or by incorporating more detail to the simulations.
This thesis analyses a PIC code named EUTERPE on different computing platforms. EUTERPE is a production code used to simulate fusion plasma instabilities in fusion reactors. It has been implemented for traditional HPC clusters and it has been parallelized prior to this work using only Message Passing Interface (MPI). Our study of its scalability has reached up to tens of thousands of processors, which is several orders of magnitude higher than the scalability achieved when this thesis was initiated.
This thesis also describes the strategies adopted for porting a PIC code to a multi-core architecture, such as introducing thread level parallelism, distributing the work among different computing devices, and developing a new thread-safe solver. These strategies have been evaluated by applying them to the EUTERPE code. With respect to heterogeneous architectures, it has been possible to port this kind of plasma physics codes by rewriting part of the code or by using a programming model called OmpSs. This programming model is specially designed to make this computing power easily available to scientists without requiring expert knowledge on computing.
Last but not least, this thesis should not be seen as the end of a way, but rather as the beginning of a work to extend the physics simulated in fusion codes through exploiting available HPC resources. / Durant les darreres dues dècades, la Computació d'Alt Rendiment (HPC) ha crescut ràpidament en el rendiment mitjançant la millora dels processadors d'un sol nucli a costa d'un creixement similar en el consum d'energia. La millora en els processadors d'un sol nucli ha portat a molts científics a explotar tot el paral·lelisme a nivell de procés en els seus codis. No obstant això, el rendiment dels sistemes HPC està cada cop més limitat pel consum d'energia i la densitat de potència, que s'han convertit en una de les principals preocupacions en el disseny dels nous sistemes informàtics. Com a resultat, els nous supercomputadors estan dissenyats sobre la base de l'eficiència energètica proporcionada per les noves arquitectures homogènies i heterogènies. El creixement de la potència de càlcul ha introduït un nou enfocament a la ciència, la Física Computacional. El seu impacte en l'estudi de la fusió nuclear i la física del plasma ha estat molt significatiu. Això és perquè els experiments són difícils i costosos de realitzar mentre que les simulacions del plasma amb computadors són una manera eficaç de progressar. Particle-In-Cell (PIC) és un dels mètodes més utilitzats per simular el plasma. La millora en la potència de processament ha permès un augment en la grandària i la complexitat de les simulacions PIC. La majoria dels codis PIC s'han dissenyat amb un fort èmfasi en la física i tradicionalment han inclòs només paral·lelisme a nivell de procés. Aquest enfocament no ha aprofitat les plataformes multiprocessador. Per tant, aquests codis exploten ineficientment les noves plataformes de computació i, com a conseqüència, encara estan limitats a tractar amb models simplificats. L'objectiu d'aquesta tesi és incorporar en un codi PIC les últimes tecnologies disponibles en informàtica per tal d'aprofitar els propers supercomputadors multiprocessador. Això permetrà una millora en les simulacions, ja sigui mitjançant la introducció de més física en el codi o mitjançant la incorporació de més detall en les simulacions. Aquesta tesi analitza un codi PIC anomenat EUTERPE en diferents plataformes de computació. EUTERPE és un codi de producció utilitzat per simular les inestabilitats del plasma en els reactors de fusió. S'ha implementat per clústers HPC tradicionals i s'ha paral·lelitzat prèviament a aquest treball usant només la Interfície de Pas de Missatges (MPI). El nostre estudi de la seva escalabilitat ha arribat fins a desenes de milers de processadors, que és diversos ordres de magnitud més gran que l'escalabilitat que s'havia assolit quan es va iniciar aquesta tesi. Aquesta tesi també descriu les estratègies adoptades per portar un codi PIC a una arquitectura multi-nucli, com ara la introducció de paral·lelisme a nivell de thread, la distribució de la feina entre diferents dispositius de computació i el desenvolupament d'un nou solver thread-safe. Aquestes estratègies han estat avaluades amb la seva aplicació al codi EUTERPE. Pel que fa a les arquitectures heterogènies, ha estat possible portar aquest tipus de codis de la física del plasma reescrivint part del codi o mitjançant l'ús d'un model de programació anomenat OmpSs. Aquest model de programació està especialment dissenyat per posar aquesta potència de càlcul a l'abast dels científics sense necessitat de coneixements d'experts en computació. Finalment, però no menys important, aquesta tesi no ha de ser vista com el final d'un camí, sinó més aviat com l'inici d'un treball per estendre la física simulada en els codis de fusió nuclear mitjançant l'explotació dels recursos disponibles de HPC.
|
Page generated in 0.0756 seconds