• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 354
  • 79
  • 42
  • 1
  • Tagged with
  • 476
  • 476
  • 117
  • 94
  • 71
  • 45
  • 44
  • 43
  • 40
  • 40
  • 40
  • 40
  • 37
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Runahead threads

Ramírez García, Tanausu 15 April 2010 (has links)
Los temas de investigación sobre multithreading han ganado mucho interés en la arquitectura de computadores con la aparición de procesadores multihilo y multinucleo. Los procesadores SMT (Simultaneous Multithreading) son uno de estos nuevos paradigmas, combinando la capacidad de emisión de múltiples instrucciones de los procesadores superscalares con la habilidad de explotar el paralelismo a nivel de hilos (TLP). Así, la principal característica de los procesadores SMT es ejecutar varios hilos al mismo tiempo para incrementar la utilización de las etapas del procesador mediante la compartición de recursos.Los recursos compartidos son el factor clave de los procesadores SMT, ya que esta característica conlleva tratar con importantes cuestiones pues los hilos también compiten por estos recursos en el núcleo del procesador. Si bien distintos grupos de aplicaciones se benefician de disponer de SMT, las diferentes propiedades de los hilos ejecutados pueden desbalancear la asignación de recursos entre los mismos, disminuyendo los beneficios de la ejecución multihilo. Por otro lado, el problema con la memoria está aún presente en los procesadores SMT. Estos procesadores alivian algunos de los problemas de latencia provocados por la lentitud de la memoria con respecto a la CPU. Sin embargo, hilos con grandes cargas de trabajo y con altas tasas de fallos en las caches son unas de las mayores dificultades de los procesadores SMT. Estos hilos intensivos en memoria tienden a crear importantes problemas por la contención de recursos. Por ejemplo, pueden llegar a bloquear recursos críticos debido a operaciones de larga latencia impidiendo no solo su ejecución, sino el progreso de la ejecución de los otros hilos y, por tanto, degradando el rendimiento general del sistema.El principal objetivo de esta tesis es aportar soluciones novedosas a estos problemas y que mejoren el rendimiento de los procesadores SMT. Para conseguirlo, proponemos los Runahead Threads (RaT) aplicando una ejecución especulativa basada en runahead. RaT es un mecanismo alternativo a las políticas previas de gestión de recursos las cuales usualmente restringían a los hilos intensivos en memoria para conseguir más productividad.La idea clave de RaT es transformar un hilo intensivo en memoria en un hilo ligero en el uso de recursos que progrese especulativamente. Así, cuando un hilo sufre de un acceso de larga latencia, RaT transforma dicho hilo en un hilo de runahead mientras dicho fallo está pendiente. Los principales beneficios de esta simple acción son varios. Mientras un hilo está en runahead, éste usa los diferentes recursos compartidos sin monopolizarlos o limitarlos con respecto a los otros hilos. Al mismo tiempo, esta ejecución especulativa realiza prebúsquedas a memoria que se solapan con el fallo principal, por tanto explotando el paralelismo a nivel de memoria y mejorando el rendimiento.RaT añade muy poco hardware extra y complejidad en los procesadores SMT con respecto a su implementación. A través de un mecanismo de checkpoint y lógica de control adicional, podemos dotar a los contextos hardware con la capacidad de ejecución en runahead. Por medio de RaT, contribuímos a aliviar simultaneamente dos problemas en el contexto de los procesadores SMT. Primero, RaT reduce el problema de los accesos de larga latencia en los SMT mediante el paralelismo a nivel de memoria (MLP). Un hilo prebusca datos en paralelo en vez de estar parado debido a un fallo de L2 mejorando su rendimiento individual. Segundo, RaT evita que los hilos bloqueen recursos bajo fallos de larga latencia. RaT asegura que el hilo intensivo en memoria recicle más rápido los recursos compartidos que usa debido a la naturaleza de la ejecución especulativa.La principal limitación de RaT es que los hilos especulativos pueden ejecutar instrucciones extras cuando no realizan prebúsqueda e innecesariamente consumir recursos de ejecución en el procesador SMT. Este inconveniente resulta en hilos de runahead ineficientes pues no contribuyen a la ganancia de rendimiento e incrementan el consumo de energía debido al número extra de instrucciones especulativas. Por consiguiente, en esta tesis también estudiamos diferentes soluciones dirigidas a solventar esta desventaja del mecanismo RaT. El resultado es un conjunto de soluciones complementarias para mejorar la eficiencia de RaT en términos de consumo de potencia y gasto energético.Por un lado, mejoramos la eficiencia de RaT aplicando ciertas técnicas basadas en el análisis semántico del código ejecutado por los hilos en runahead. Proponemos diferentes técnicas que analizan y controlan la utilidad de ciertos patrones de código durante la ejecución en runahead. Por medio de un análisis dinámico, los hilos en runahead supervisan la utilidad de ejecutar los bucles y subrutinas dependiendo de las oportunidades de prebúsqueda. Así, RaT decide cual de estas estructuras de programa ejecutar dependiendo de la información de utilidad obtenida, decidiendo entre parar o saltar el bucle o la subrutina para reducir el número de las instrucciones no útiles. Entre las técnicas propuestas, conseguimos reducir las instrucciones especulativas y la energía gastada mientras obtenemos rendimientos similares a la técnica RaT original.Por otro lado, también proponemos lo que denominamos hilos de runahead eficientes. Esta propuesta se basa en una técnica más fina que cubre todo el rango de ejecución en runahead, independientemente de las características del programa ejecutado. La idea principal es averiguar "cuando" y "durante cuanto" un hilo en runahead debe ser ejecutado prediciendo lo que denominamos distancia útil de runahead. Los resultados muestran que la mejor de estas propuestas basadas en la predicción de la distancia de runahead reducen significativamente el número de instrucciones extras así como también el consumo de potencia. Asimismo, conseguimos mantener los beneficios de rendimiento de los hilos en runahead, mejorando de esta forma la eficiencia energética de los procesadores SMT usando el mecanismo RaT.La evolución de RaT desarrollada durante toda esta investigación nos proporciona no sólo una propuesta orientada a un mayor rendimiento sino también una forma eficiente de usar los recursos compartidos en los procesadores SMT en presencia de operaciones de memoria de larga latencia.Dado que los diseños SMT en el futuro estarán orientados a optimizar una combinación de rendimiento individual en las aplicaciones, la productividad y el consumo de energía, los mecanismos basados en RaT aquí propuestos son interesantes opciones que proporcionan un mejor balance de rendimiento y energía que las propuestas previas en esta área. / Research on multithreading topics has gained a lot of interest in the computer architecture community due to new commercial multithreaded and multicore processors. Simultaneous Multithreading (SMT) is one of these relatively new paradigms, which combines the multiple instruction issue features of superscalar processors with the ability of multithreaded architectures to exploit thread level parallelism (TLP). The main feature of SMT processors is to execute multiple threads that increase the utilization of the pipeline by sharing many more resources than in other types of processors.Shared resources are the key of simultaneous multithreading, what makes the technique worthwhile.This feature also entails important challenges to deal with because threads also compete for resources in the processor core. On the one hand, although certain types and mixes of applications truly benefit from SMT, the different features of threads can unbalance the resource allocation among threads, diminishing the benefit of multithreaded execution. On the other hand, the memory wall problem is still present in these processors. SMT processors alleviate some of the latency problems arisen by main memory's slowness relative to the CPUs. Nevertheless, threads with high cache miss rates that use large working sets are one of the major pitfalls of SMT processors. These memory intensive threads tend to use processor and memory resources poorly creating the highest resource contention problems. Memory intensive threads can clog up shared resources due to long latency memory operations without making progress on a SMT processor, thereby hindering overall system performance.The main goal of this thesis is to alleviate these shortcomings on SMT scenarios. To accomplish this, the key contribution of this thesis is the application of the paradigm of Runahead execution in the design of multithreaded processors by Runahead Threads (RaT). RaT shows to be a promising alternative to prior SMT resource management mechanisms which usually restrict memory bound threads in order to get higher throughputs.The idea of RaT is to transform a memory intensive thread into a light-consumer resource thread by allowing that thread to progress speculatively. Therefore, as soon as a thread undergoes a long latency load, RaT transforms the thread to a runahead thread while it has that long latency miss outstanding. The main benefits of this simple action performed by RaT are twofold. While being a runahead thread, this thread uses the different shared resources without monopolizing or limiting the available resources for other threads. At the same time, this fast speculative thread issues prefetches that overlap other memory accesses with the main miss, thereby exploiting the memory level parallelism.Regarding implementation issues, RaT adds very little extra hardware cost and complexity to an existing SMT processor. Through a simple checkpoint mechanism and little additional control logic, we can equip the hardware contexts with the runahead thread capability. Therefore, by means of runahead threads, we contribute to alleviate simultaneously the two shortcomings in the context of SMT processor improving the performance. First, RaT alleviates the long latency load problem on SMT processors by exposing memory level parallelism (MLP). A thread prefetches data in parallel (if MLP is available) improving its individual performance rather than be stalled on an L2 miss. Second, RaT prevents threads from clogging resources on long latency loads. RaT ensures that the L2-missing thread recycles faster the shared resources it uses by the nature of runahead speculative execution. This avoids memory intensive threads clogging the important processor resources up.The main limitation of RaT though is that runahead threads can execute useless instructions and unnecessarily consume execution resources on the SMT processor when there is no prefetching to be exploited. This drawback results in inefficient runahead threads which do not contribute to the performance gain and increase dynamic energy consumption due to the number of extra speculatively executed instructions. Therefore, we also propose different solutions aimed at this major disadvantage of the Runahead Threads mechanism. The result of the research on this line is a set of complementary solutions to enhance RaT in terms of power consumption and energy efficiency.On the one hand, code semantic-aware Runahead threads improve the efficiency of RaT using coarse-grain code semantic analysis at runtime. We provide different techniques that analyze the usefulness of certain code patterns during runahead thread execution. The code patterns selected to perform that analysis are loops and subroutines. By means of the proposed coarse grain analysis, runahead threads oversee the usefulness of loops or subroutines depending on the prefetches opportunities during their executions. Thus, runahead threads decide which of these particular program structures execute depending on the obtained usefulness information, deciding either stall or skip the loop or subroutine executions to reduce the number of useless runahead instructions. Some of the proposed techniques reduce the speculative instruction and wasted energy while achieving similar performance to RaT.On the other hand, the efficient Runahead thread proposal is another contribution focused on improving RaT efficiency. This approach is based on a generic technique which covers all runahead thread executions, independently of the executed program characteristics as code semantic-aware runahead threads are. The key idea behind this new scheme is to find out --when' and --how long' a thread should be executed in runahead mode by predicting the useful runahead distance. The results show that the best of these approaches based on the runahead distance prediction significantly reduces the number of extra speculative instructions executed in runahead threads, as well as the power consumption. Likewise, it maintains the performance benefits of the runahead threads, thereby improving the energy-efficiency of SMT processors using the RaT mechanism.The evolution of Runahead Threads developed in this research provides not only a high performance but also an efficient way of using shared resources in SMT processors in the presence of long latency memory operations. As designers of future SMT systems will be increasingly required to optimize for a combination of single thread performance, total throughput, and energy consumption, RaT-based mechanisms are promising options that provide better performance and energy balance than previous proposals in the field.
32

Contribució als mètodes d'obtenció i representació de vistes d'objectes reals per aplicacions interactives.

Martín Rull, Enric X. (Enric Xavier) 05 September 2006 (has links)
En aquesta tesi s'han realitzat una sèrie d'experiments per tal de cercar, identificar, caracteritzar i comparar diversos mètodes d'obtenció de vistes d'objectes reals per aplicacions interactives de realitat augmentada, telepresència o altres que puguin idear-se en el futur. Durant el desenvolupament dels mètodes trobats, de naturalesa diversa, han sorgit dificultats que han fet aprofundir aquest treball en l'àmbit de la geometria de la síntesi de vistes, la reconstrucció de l'estructura tridimensional dels objectes, l'acceleració de certs algoritmes amb l'ajut del maquinari existent o la portabilitat de les dades a través de la xarxa.Concretament, s'han identificat tres mètodes que poden satisfer els requeriments plantejats. El primer, accés a vistes d'objectes comprimides en fitxers, es basa en l'organització de les dades presentada, la capacitat de compressió dels algoritmes i el suport del maquinari a la tasca de descompressió. El segon mètode, reconstrucció tridimensional i projecció emprant el coprocessador gràfic, aprofita les altes prestacions d'aquests últims, impulsats per les necessitats del mercat. El tercer, selecció d'un conjunt representatiu de vistes i interpolació entre elles, aprofita les propietats de la rectificació de tres vistes i l'exactitud de la interpolació de vistes si es disposa d'un mapa de disparitat prou dens. Aquesta necessitat ha connectat aquest mètode amb el segon, al que cal el model tridimensional reconstruït, ja que hi ha una equivalència entre les dues expressions de la informació. Per la comparació dels resultats dels mètodes estudiats, s'han seguit tres criteris: - El primer, òbviament, el de la qualitat de les vistes obtingudes de l'objecte. Ha calgut identificar les principals fonts d'error en els processos i cercar uns avaluadors d'aquest error. A més d'aquests numèrics se n'han cercat de subjectius ja que el destinatari de les vistes serà un ésser humà. - El temps d'obtenció d'una vista (important per la interactivitat), projectat a les plataformes tecnològiques existents o previsibles.- La mida de les dades necessàries per cadascun dels mètodes, que limitarà la portabilitat de la visualització dels objectes. Durant la realització d'aquesta tesi, s'han realitzat algunes contribucions, la majoria d'elles ja publicades, que es poden resumir en:- Disseny d'una metodologia per la representació d'objectes a partir de conjunts de vistes i mètodes de síntesi. En aquesta metodologia s'ha presentat un protocol per l'adquisició i ordenació de les dades, idees per la selecció del conjunt mínim de vistes, un criteri per gravar la mínima informació necessària, ajuts a l'obtenció de la informació tridimensional de l'escena necessària, i un algoritme ràpid i general de síntesi de vistes.- Supressió de les restriccions geomètriques del mètode de síntesi per rectificació de tres vistes, permetent generalitzar la ubicació de la càmera virtual i optimitzar la distància del pla de reprojecció per maximitzar l'àrea de la vista interpolada.- Especificació de l'algoritme de síntesi de vistes pel mètode de rectificació de tres vistes, de forma que es pugui implementar amb processadors tipus DSP o conjunts d'instruccions específiques dels processadors CISC, per assolir les necessitats de les aplicacions interactives.- Presentació d'un mètode de refinament de models tridimensionals obtinguts per space carving mitjançant estereovisió. El mètode combina dues tècniques conegudes de visió per ordinador obtenint un millor resultat en la reconstrucció tridimensional.- Acceleració del mètode de reconstrucció tridimensional per projecció de vòxels amb la utilització de mapes de distància, estructures en arbre i el coprocessador gràfic present en els computadors personals. Els resultats obtinguts en la tesi s'han adaptat per aplicar-se a un projecte de simulació de situacions de conducció en carreteres amb realitat augmentada, desenvolupat per la UPC i la Universitat de Toronto i un segon de representació remota de vistes d'objectes arqueològics, desenvolupat per la UPC, la UB i un conjunt d'universitats estrangeres. / This work shows a set of experiments to identify, characterize and compare several methods for obtaining real object views in interactive applications such as augmented reality, telepresence or other future developments. While developing those methods, the problems found have induced a deeper study of view synthesis geometry, object three-dimensional structure, hardware process acceleration and data portability through the internet. Three methods have been found that meet the ends of this work. First, file-stored object-view access rests in data organization, compression- algorithm capabilities and hardware support to decompression. The second method, 3D object reconstruction and graphic coprocessor based projection, takes advantage of market driven GPU evolution. Finally, the representative view-set selection and interpolation method, uses the three-view-rectification properties and the precision of view interpolation when a dense-enough disparity map is available. This last requirement binds the second and third methods in the need of a good 3D object reconstruction, 3D models and disparity maps being two expressions for the same data. To compare the method results three criteria have been used: - Object view image quality. It has been necessary to identify the main source of errors on the processes and to find some evaluators for those errors. As the results of the process are images to be shown to humans, with those numerical evaluators a subjective evaluator has been used too. - Process time, important for the interactivity aim, calculated with current technology but projected to next foreseeable platforms. - Amount of data that must be recorded in each method, which will be a key point for portability. While developing this work, some contributions have been achieved and they can be summarized as:- Design of a methodology to represent any object view from a reduced set of views and synthesis methods. The methodology includes a protocol to acquire and organize data, ideas for a minimum view set selection, a criterion to record the minimum amount of data, improvements in obtaining the three-dimensional structure of the scene and a fast and general synthesis algorithm.- Suppression of some geometric restrictions in the three-view-rectification method, allowing a more general positioning for the virtual camera and a maximization of the virtual image area through the distance to the reprojection plane.- A complete specification for the modified three-view rectification and view interpolation method allowing its implementation with DSP or MMX instructions to achieve the requirements of interactive applications. - Presentation of a method to refine three-dimensional models obtained by space carving through stereovision. This method combines two well-known computer vision techniques to achieve a better result in 3D reconstruction. - Acceleration of the space carving 3D reconstruction method with the use of an octree voxel organization, projection to special distance maps and taking advantage of the GPU performance to speed-up the projection. Some of the results of this work will be used in the construction of an augmented reality driving simulator (UPC- University of Toronto) and the implementation of a remote viewer of archaeological objects (UPC - UB - other universities).
33

Estudio teórico y evidencia empírica de la aplicación del marco teórico de "Cognición Distribuida" en la gestión de sistemas de formación e-Learning

Ferruzca Navarro, Marco Vinicio 28 March 2008 (has links)
Este trabajo de investigación se integra en el campo de estudio de la Interacción Humano Computadora (HCI) y del uso de las tecnologías de la información y la comunicación (TIC) en la educación.La investigación tiene como objetivo central explorar la aplicación del marco teórico de la "Cognición Distribuida" en la gestión de sistemas de formación en Internet, específicamente los que siguen una estrategia de e-learning.Una vez revisado el concepto de e-learning y explicada la necesidad de realizar investigaciones en este campo para mejorar el desarrollo del aprendizaje y la enseñanza, se procede a la revisión del estado teórico-tecnológico actual de la "Cognición Distribuida". Esta revisión facilita identificar los tópicos y aspectos de interés más estudiados en torno a esta teoría, las técnicas de investigación comúnmente relacionadas a su aplicación y los ámbitos en que ha sido aplicada, particularmente en el ámbito de la educación soportada por ordenador.La validez actual y a futuro de esta teoría se pone a reflexión mediante la realización de una encuesta aplicada a una muestra limitada de investigadores que la han empleado en distintos ámbitos.En paralelo a esta revisión, se procede a aplicar las ideas de la cognición distribuida en diversos sistemas de formación e-Learning con el objetivo de evaluar que tan bien esta teoría ayuda a identificar y explicar la naturaleza de los errores que surgen en el proceso de formación. Además, se esboza una idea inicial de cómo aplicar sus constructos de manera estructurada. Luego, se presenta el diseño de una infraestructura virtual (COLS) cuyo propósito es ayudar a mantener la base del aprendizaje, y por tanto la distribución de la cognición, en sistemas de actividad donde el conocimiento es su principal producto. El rendimiento parcial de algunos de sus componentes (un artefacto para realizar evaluaciones en tiempo real y un sistema hipermedia adaptativo) es presentado. Finalmente, sobre la base de los resultados obtenidos en todo el estudio, se valora la utilidad del marco teórico de "Cognición Distribuida" en la gestión de sistemas de formación, que siguen una estrategia de e-Learning.La presentación de la investigación se ha organizado en 4 capítulos:1. Objetivos y método de la investigación. Se definen los objetivos de la investigación, se delimita el ámbito para el cual tienen validez los resultados aportados y se expone el proceso de trabajo que se ha seguido.2. Estudio teórico.Se presentan los conocimientos que constituyen el marco de referencia y apoyo teórico de la investigación.3. Estudio empírico.Se presentan los diversos trabajos de campo que se han realizado y que constituyen el resultado final de esta investigación.4. Conclusiones.Se finaliza la presentación con una síntesis de las conclusiones a las que ha permitido llegar esta investigación exploratoria, así como las líneas de investigación futura derivadas de la misma. / This research is included in the studies of the field of Human Computer Interaction (HCI) and the use of information technology and communication technologies (ICT) in education. The research aims to explore the application of the "Distributed Cognition" to the management of learning systems, specifically those which follow an e-learning strategy.Once the aspects of e-learning for review is done and the necessity of conducting research in this field to improve the development of learning and teaching is explained then the state of the art in the "Distributed Cognition" is presented. This work allows identifying the interested topics about this theory, the research techniques commonly related to its application and the areas where it has been studied, particularly in those supported by computer.The current and future validity of this theory is put to discussion by conducting a survey to collect information from a sample of researchers from different areas.While the theoretical study is developed, the distributed cognition is applied in two e-learning programs with the purpose to assess how well this theory helps to identify and explain the nature of the errors that arise in the learning process. In addition, it outlines an initial idea of how to implement its concepts in a structured manner. Then, the design of a virtual infrastructure ("COLS") is presented whose purpose is to help maintain the basis of learning in activity systems where the knowledge is their main product. The first results of the impact of some of its components (a device to perform real-time evaluations and an adaptive hypermedia system) are presented.Finally, on the basis of the results obtained throughout the research, we evaluate the usefulness of the "Distributed Cognition" in the management of learning systems which follow a e- learning strategy.The presentation of the research is organized into 4 chapters:1. Aims and research methodology.It defines the goals and research methodology, it narrows the scope for which results are valid provided and sets out the work process has been followed.2. Theoretical Study.Knowledge which constitutes the framework and theoretical support for this research are presented.3. Empirical Study.It presents the empirical works that have been developed. These empirical works constitute the final outcome of this research.4. Conclusions.This chapter presents an overview of the conclusions which this exploratory research has reached as well as future research works.
34

Modelo para la gestión de dominios de contenido en sistemas hipermedia adaptativos aplicados a entornos de educación superior semipresencial

Grimón Mejías, Francisca de Jesús 04 July 2008 (has links)
El objetivo central de esta tesis fue diseñar, implantar y validar un modelo para la gestión de dominios de contenido en un Sistema Hipermedia Adaptativo aplicado a entornos de educación superior semipresencial. La estrategia de investigación que se utilitzó fue la del "Estudio de Caso", porque permite investigar un fenómeno contemporáneo dentro del contexto de la vida real (Yin 1994). Para la validación del modelo se realizaron los estudios empíricos en los cursos de: Metodología de la Investigación, del Doctorado en Ingeniería Multimedia de la Universidad Politécnica de Cataluña y en el curso de Sistemas de Información de la Licenciatura en Computación de la Universidad de Carabobo.El estudio realizado ha permitido conocer la percepción de los estudiantes acerca del modelo propuesto. Los resultados de esta investigación indican que el modelo ha tenido un buen efecto en el proceso de enseñanza aprendizaje. Basados en este hecho, los estudiantes han tenido una percepción positiva del sistema y los contenidos presentados se ajustan al perfil de cada usuario. Los resultados de los diferentes ensayos presentan un aporte a las investigaciones que se realizan referentes a la personalización de contenidos en los ambientes de formación en la modalidad Blended Learning. / The main purpose of this work was to design, implement and validate a model in order to manage content domains in an Adaptive Hypermedia System applied to higher education environments under blended learning modality. The research strategy used was "Case Study", because it is useful to study a contemporary phenomenon in real-life context. To validate the model, two empirical studies were conducted in the Research Methodology subject of the Multimedia Engineering Doctor's degree in the Polytechnic University of Catalonia and in the course on Information Systems of the Bachelor's Degree on Computing Sciences at the University of Carabobo.The study made it possible to learn how students perceived the proposed model. The results of this research show that the model has proven to be effective in the teaching-learning process. Based on this fact, the students have had a positive perception of the system. Furthermore, the contents presented fit the profile of each user. The results of the different trials contribute to the research works that are being carried out concerning the personalization of contents in the educational environments based on Blended Learning.
35

Modelo de estimaçao dos custos da nao formaçao em saúde no ambito do diagnóstico e tratamento de feridas crónicas: uso de simulação da decisão clínica com ferramentas baseadas na Internet

Soares Gaspar, Pedro João 16 December 2009 (has links)
Los contextos profesionales actuales, marcados fuertemente por rápidas y profundas evoluciones tecnológicas y científicas, exigen una actualización permanente de las competencias que sólo el Aprendizaje a lo Largo de la Vida y la formación profesional continua permiten. El área de la prestación de cuidados de salud no es excepción, y para además de la calidad de los cuidados también sus costes se encuentran bajo permanente evaluación.En los contextos de la prestación de cuidados de salud, los avances de la ciencia y de la tecnología rápidamente hacen obsoletas las competencias específicas adquiridas en las escuelas. Por otro lado los errores clínicos, las malas prácticas y los rendimientos deficientes, frecuentemente asociados al déficit de formación, imputan una enorme carga económica a los costes en salud.Las Tecnologías de la Comunicación y de la Información, y expresamente la formación disponible online, pueden ser importantes catalizadores del Aprendizaje a lo Largo de la Vida en general y de la formación profesional continua en particular, sobre todo por la flexibilidad, accesibilidad y ubicuidad con que pueden revestir los programas de formación.En la inversión en formación de los profesionales de salud, más que saber cuánto se va a gastar es sobre todo importante saber cuánto se puede ahorrar, en los costes de los cuidados, haciendo más calificados y competentes los profesionales de salud. Pero responder a la cuestión "Cuanto cuesta la no formación", en el caso de los profesionales de salud, presenta fuertes obstáculos éticos y metodológicos.Con el objetivo general de desarrollar un modelo de estimación de los costes de la no formación en el ámbito de la salud, usando casos clínicos virtuales y un simulador de toma de decisión clínica para el tratamiento de heridas crónicas, construimos y validamos casos clínicos virtuales de personas con heridas crónicas, un modelo matemático para estimación de los Costes Óptimos (basados en las decisiones clínicas óptimas) de los casos clínicos virtuales y un simulador de toma de decisión en diagnóstico y tratamiento de los casos clínicos virtuales para construir las matrices de Costes de la Acción (basados en las decisiones registradas en el simulador).Probamos este modelo desarrollando un primer estudio cuantitativo, transversal, correlacional en una muestra no aleatoria de 78 enfermeros, con diferentes niveles de formación específica y experiencia en el diagnóstico y tratamiento de heridas crónicas.En los resultados de este estudio reunimos evidencia empírica de que los costes envueltos en el tratamiento son más elevados entre los profesionales de salud que no frecuentaron formación acreditada específica en el área del diagnóstico y tratamiento de heridas crónicas, y de que entre los que frecuentaron formación los costes tienden a bajar a medida que el número de horas de formación sube.En un segundo experimento desarrollamos un estudio más controlado, casiexperimental del tipo pre-test/pos-test con grupo de control no equivalente, en una muestra de 53 profesionales de la salud (25 en el grupo experimental y 28 en el grupo de control). La manipulación de la variable dependiente (Costes de la Acción) se hizo con la frecuencia de un programa de 40 horas de formación acreditada específica en el área del diagnóstico y tratamiento de heridas crónicas, que sólo el grupo experimental asistió.En los resultados de este estudio se recogió evidencia empírica de que los costes de tratamiento son más elevados entre los profesionales que no han asistido a la formación. Fue posible estimar los costes de la no formación y demostrar su gran representatividad.Estos resultados indican que (1) la formación profesional continua puede ser eficaz en la reducción de errores y malas prácticas y contribuir para la reducción de los costes del tratamiento de heridas crónicas, (2) que los costes de tratamiento son más altos entre profesionales de la salud que no han asistido a la formación acreditada específica en el área del diagnóstico y tratamiento de heridas crónicas y (3) que en un análisis coste efectividad con una perspectiva de la sociedad que contiene los costes directos y los gastos indirectos, los costes atribuibles a la no formación tienen una gran representatividad en la carga económica.El modelo desarrollado y probado, basado en casos clínicos virtuales y tomada de decisiones clínicas en un simulador virtual, ha demostrado ser eficaz en la estimación de los costes de la no formación en diagnóstico y tratamiento de heridas crónicas, y refuerza nuestra convicción de que puede ser utilizado con los mismos objetivos en otras áreas de la prestación de atención de la salud. / Current professional contexts are strongly marked by rapid and profound technological and scientific advancements, and therefore require the constant updating of skills that only Lifelong Learning and continuous professional training can provide. The area of health care provision is not an exception. In addition to the quality of care provided, so too are the costs of such care constantly being assessed.In health care provision, the advances of science and technology rapidly turn specific skills acquired at school totally obsolete. On the other hand, clinical errors, bad practices and inadequate performances frequently associated to insufficient training bring a tremendous economic load to health costs.Information and Communication Technologies, and particularly online training can become important promoters of Lifelong Learning in general, and of continuous professional training in particular, especially because they bring flexibility, accessibility and ubiquity to training programmes.In investing in the training of health care providers, rather than knowing how much will be spent, we have to know how much we can save in health care costs, making health care providers more qualified and skilled. Yet, in the case of such providers, there are significant ethical and methodological constraints to the question "How much does nontraining cost?"Our general aim was to develop a model to estimate the costs of non-training within health care, using virtual clinical cases and a decision-making simulator for the treatment of chronic wounds. To this end, we built and validated several virtual clinical cases of patients with chronic wounds, a mathematical model to estimate the Optimal Costs (based on optimal clinical decisions) of these cases, and a decision-making simulator for the diagnosis and treatment of virtual clinical cases, in order to prepare the Cost of Action matrices (based on the decisions recorded in the simulator).This model was tested through the development of a first quantitative, transversal and correlational study, using a non-random cohort of 78 nurses with different levels of specific training and experience in the diagnosis and treatment of chronic wounds.The outcomes of this study provided us with the empirical knowledge that the costs involved in the treatment are higher among the health care providers that had not attended specific accredited training in diagnosis and treatment of chronic wounds.Furthermore, among those who did attend such training, the costs are likely to drop as the number of training hours increases.The second test of the model implied a more controlled analysis, a quasi-experimental pre-test/post-test study with a non-equivalent control group, on a cohort of 53 health care providers (25 in the experimental group and 28 in the control group). Handling of the dependent variable (Costs of Action) was done by implementing a 40-hour accredited training programme on diagnosis and treatment of chronic wounds, attended only by the experimental group.The outcomes of this study provided us with the empirical knowledge that the costs involved in the treatment are higher among the health care providers that had not attended the training. We were able to estimate the costs of non-training, and to confirm the extent of its representativeness.Based on these results, our conclusion is that (1) continuous professional training is important to minimize errors and bad practices, and are essential to reduce the costs involved in the treatment of chronic wounds, (2) the costs involved in the treatment are higher among the health care providers who did not attend the accredited training in the prevention and treatment of chronic wounds, and (3) the costs chargeable to nontraining strongly influence the economic aspect and the cost-effectiveness analysis, in a society perspective that included both direct costs and indirect costs.The model developed and tested, based on virtual clinical cases and on a clinical decision-making simulator, proved effective in estimating the costs of non-training in the diagnosis and treatment of chronic wounds, and stresses our conviction that it can be used to the same end in other areas of health care provision. / OOs contextos profissionais actuais, fortemente marcados por rápidas e profundas evoluções tecnológicas e científicas, exigem uma actualização permanente de competências que só a Aprendizagem ao Longo da Vida e a formação profissional contínua permitem. A área da prestação de cuidados de saúde não é excepção, e para além da qualidade dos cuidados também os custos dos cuidados se encontram sob permanente avaliação.Nos contextos da prestação de cuidados de saúde os avanços da ciência e da tecnología rapidamente tornam obsoletas competências específicas adquiridas nas escolas. Por outro lado os erros clínicos, as más práticas e as performances deficientes, frequentemente associadas ao défice de formação, imputam uma enorme carga económica aos custos da saúde.As Tecnologias da Informação e da Comunicação, e nomeadamente a formação disponibilizada online, podem ser importantes catalizadores da Aprendizagem ao Longo da Vida em geral e da formação profissional contínua em particular, sobretudo pela flexibilidade, acessibilidade e ubiquidade com que podem revestir os programas de formação.No investimento em formação dos profissionais de saúde, mais do que saber quanto se vai gastar é sobretudo importante saber quanto se pode poupar, nos custos dos cuidados, tornando mais qualificados e competentes os profissionais de saúde. Mas responder à questão "Quanto custa a não formação", no caso dos profissionais de saúde apresenta fortes obstáculos éticos e metodológicos.Com o objectivo geral de desenvolver um modelo de estimação dos custos da não formação no âmbito da saúde, usando casos clínicos virtuais e um simulador de tomada de decisão clínica para o tratamento de feridas crónicas, construímos e validamos casos clínicos virtuais de pessoas com feridas crónicas, um modelo matemático para estimação dos Custos Óptimos (baseados nas decisões clínicas óptimas) dos casos clínicos virtuais e um simulador de tomada de decisão em diagnóstico e tratamento dos casos clínicos virtuais para construir as matrizes de Custos da Acção (baseados nas decisões registadas no simulador).Testámos este modelo desenvolvendo um primeiro estudo quantitativo, transversal, correlacional numa amostra não aleatória de 78 enfermeiros com diferentes níveis de formação específica e experiência no diagnóstico e tratamento de feridas crónicas.Nos resultados deste estudo reunimos evidência empírica de que os custos envolvimos no tratamento são mais elevados entre os profissionais de saúde que não frequentaram formação acreditada específica na área do diagnóstico e tratamento de feridas crónicas, e de que entre os que frequentaram formação os custos tendem a baixar à medida que o número de horas de formação sobe.Num segundo teste do modelo desenvolve um estudo mais controlado, quaseexperimental do tipo pré-teste/pos-teste com grupo de controlo não equivalente, numa amostra de 53 profissionais de saúde (25 no grupo experimental e 28 no grupo de controlo). A manipulação da variável dependente (Custos da Acção) realizou-se com a frequência de um programa de 40 horas de formação acreditada no âmbito do diagnóstico e tratamento de feridas crónicas, que só o grupo experimental frequentou.Nos resultados deste estudo reunimos evidência empírica de que os custos envolvimos no tratamento são mais elevados entre os profissionais que não frequentaram a formação. Foi possível estimar os custos da não formação, atestando a sua grande representatividade.Estes resultados permitem concluir que (1) a formação profissional contínua pode ser efectiva na minimização dos erros e más práticas clínicas e ser fundamental na redução dos custos do tratamento de feridas crónicas, (2) que os custos envolvidos no tratamento são mais elevados entre os profissionais de saúde que não frequentaram a formação acreditada no âmbito da prevenção e tratamento de feridas crónicas e (3) que os custos imputáveis à não formação têm uma grande representatividade na carga económica, numa análise custo-efectividade segundo uma perspectiva da sociedade que incluiu não apenas os custos directos, mas também custos indirectos.O modelo desenvolvido e testado, baseado em casos clínicos virtuais e simulador de tomada de decisão clínica, revelou-se efectivo na estimação dos custos da não formação em diagnostico e tratamento de feridas crónicas, e reforça a nossa convicção de que pode ser usado com os mesmos objectivos em outras áreas da prestação dos cuidados de saúde.
36

Distributed aop middleware for large-scale scenarios

Mondéjar Andreu, Rubén 29 April 2010 (has links)
En aquesta tesi doctoral presentem una proposta de middleware distribuït pel desenvolupament d'aplicacions de gran escala. La nostra motivació principal és permetre que les responsabilitats distribuïdes d'aquestes aplicacions, com per exemple la replicació, puguin integrar-se de forma transparent i independent. El nostre enfoc es basa en la implementació d'aquestes responsabilitats mitjançant el paradigma d'aspectes distribuïts i es beneficia dels substrats de les xarxes peer-to-peer (P2P) i de la programació orientada a aspectes (AOP) per realitzar-ho de forma descentralitzada, desacoblada, eficient i transparent. La nostra arquitectura middleware es divideix en dues capes: un model de composició i una plataforma escalable de desplegament d'aspectes distribuïts. Per últim, es demostra la viabilitat i aplicabilitat del nostre model mitjançant la implementació i experimentació de prototipus en xarxes de gran escala reals. / In this PhD dissertation we present a distributed middleware proposal for large-scale application development. Our main aim is to separate the distributed concerns of these applications, like replication, which can be integrated independently and transparently. Our approach is based on the implementation of these concerns using the paradigm of distributed aspects. In addition, our proposal benefits from the peer-to-peer (P2P) networks and aspect-oriented programming (AOP) substrates to provide these concerns in a decentralized, decoupled, efficient, and transparent way. Our middleware architecture is divided into two layers: a composition model and a scalable deployment platform for distributed aspects. Finally, we demonstrate the viability and applicability of our model via implementation and experimentation of prototypes in real large-scale networks.
37

Moving towards the semantic web: enabling new technologies through the semantic annotation of social contents.

Vicient Monllaó, Carlos 12 January 2015 (has links)
La Web Social ha causat un creixement exponencial dels continguts disponibles deixant enormes quantitats de recursos textuals electrònics que sovint aclaparen els usuaris. Aquest volum d’informació és d’interès per a la comunitat de mineria de dades. Els algorismes de mineria de dades exploten característiques de les entitats per tal de categoritzar-les, agrupar-les o classificar-les segons la seva semblança. Les dades per si mateixes no aporten cap mena de significat: han de ser interpretades per esdevenir informació. Els mètodes tradicionals de mineria de dades no tenen com a objectiu “entendre” el contingut d’un recurs, sinó que extreuen valors numèrics els quals esdevenen models en aplicar-hi càlculs estadístics, que només cobren sentit sota l’anàlisi manual d’un expert. Els darrers anys, motivat per la Web Semàntica, molts investigadors han proposat mètodes semàntics de classificació de dades capaços d’explotar recursos textuals a nivell conceptual. Malgrat això, normalment aquests mètodes depenen de recursos anotats prèviament per poder interpretar semànticament el contingut d’un document. L’ús d’aquests mètodes està estretament relacionat amb l’associació de dades i el seu significat. Aquest treball es centra en el desenvolupament d’una metodologia genèrica capaç de detectar els trets més rellevants d’un recurs textual descobrint la seva associació semàntica, es a dir, enllaçant-los amb conceptes modelats a una ontologia, i detectant els principals temes de discussió. Els mètodes proposats són no supervisats per evitar el coll d’ampolla generat per l’anotació manual, independents del domini (aplicables a qualsevol àrea de coneixement) i flexibles (capaços d’analitzar recursos heterogenis: documents textuals o documents semi-estructurats com els articles de la Viquipèdia o les publicacions de Twitter). El treball ha estat avaluat en els àmbits turístic i mèdic. Per tant, aquesta dissertació és un primer pas cap a l'anotació semàntica automàtica de documents necessària per possibilitar el camí cap a la visió de la Web Semàntica. / La Web Social ha provocado un crecimiento exponencial de los contenidos disponibles, dejando enormes cantidades de recursos electrónicos que a menudo abruman a los usuarios. Tal volumen de información es de interés para la comunidad de minería de datos. Los algoritmos de minería de datos explotan características de las entidades para categorizarlas, agruparlas o clasificarlas según su semejanza. Los datos por sí mismos no aportan ningún significado: deben ser interpretados para convertirse en información. Los métodos tradicionales no tienen como objetivo "entender" el contenido de un recurso, sino que extraen valores numéricos que se convierten en modelos tras aplicar cálculos estadísticos, los cuales cobran sentido bajo el análisis manual de un experto. Actualmente, motivados por la Web Semántica, muchos investigadores han propuesto métodos semánticos de clasificación de datos capaces de explotar recursos textuales a nivel conceptual. Sin embargo, generalmente estos métodos dependen de recursos anotados previamente para poder interpretar semánticamente el contenido de un documento. El uso de estos métodos está estrechamente relacionado con la asociación de datos y su significado. Este trabajo se centra en el desarrollo de una metodología genérica capaz de detectar los rasgos más relevantes de un recurso textual descubriendo su asociación semántica, es decir, enlazándolos con conceptos modelados en una ontología, y detectando los principales temas de discusión. Los métodos propuestos son no supervisados para evitar el cuello de botella generado por la anotación manual, independientes del dominio (aplicables a cualquier área de conocimiento) y flexibles (capaces de analizar recursos heterogéneos: documentos textuales o documentos semi-estructurados, como artículos de la Wikipedia o publicaciones de Twitter). El trabajo ha sido evaluado en los ámbitos turístico y médico. Esta disertación es un primer paso hacia la anotación semántica automática de documentos necesaria para posibilitar el camino hacia la visión de la Web Semántica. / Social Web technologies have caused an exponential growth of the documents available through the Web, making enormous amounts of textual electronic resources available. Users may be overwhelmed by such amount of contents and, therefore, the automatic analysis and exploitation of all this information is of interest to the data mining community. Data mining algorithms exploit features of the entities in order to characterise, group or classify them according to their resemblance. Data by itself does not carry any meaning; it needs to be interpreted to convey information. Classical data analysis methods did not aim to “understand” the content and the data were treated as meaningless numbers and statistics were calculated on them to build models that were interpreted manually by human domain experts. Nowadays, motivated by the Semantic Web, many researchers have proposed semantic-grounded data classification and clustering methods that are able to exploit textual data at a conceptual level. However, they usually rely on pre-annotated inputs to be able to semantically interpret textual data such as the content of Web pages. The usability of all these methods is related to the linkage between data and its meaning. This work focuses on the development of a general methodology able to detect the most relevant features of a particular textual resource finding out their semantics (associating them to concepts modelled in ontologies) and detecting its main topics. The proposed methods are unsupervised (avoiding the manual annotation bottleneck), domain-independent (applicable to any area of knowledge) and flexible (being able to deal with heterogeneous resources: raw text documents, semi-structured user-generated documents such Wikipedia articles or short and noisy tweets). The methods have been evaluated in different fields (Tourism, Oncology). This work is a first step towards the automatic semantic annotation of documents, needed to pave the way towards the Semantic Web vision.
38

Semantic recommender systems Provision of personalised information about tourist activities.

Borràs Nogués, Joan 09 June 2015 (has links)
Aquesta tesi estudia com millorar els sistemes de recomanació utilitzant informació semàntica sobre un determinat domini (en el cas d’aquest treball, Turisme). Les ontologies defineixen un conjunt de conceptes relacionats amb un determinat domini, així com les relacions entre ells. Aquestes estructures de coneixement poden ser utilitzades no només per representar d'una manera més precisa i refinada els objectes del domini i les preferències dels usuaris, sinó també per millorar els procediments de comparació entre els objectes i usuaris (i també entre els mateixos usuaris) amb l'ajuda de mesures de similitud semàntica. Les millores al nivell de la representació del coneixement i al nivell de raonament condueixen a recomanacions més precises i a una millora del rendiment dels sistemes de recomanació, generant nous sistemes de recomanació semàntics intel•ligents. Les dues tècniques bàsiques de recomanació, basades en contingut i en filtratge col•laboratiu, es beneficien de la introducció de coneixement explícit del domini. En aquesta tesi també hem dissenyat i desenvolupat un sistema de recomanació que aplica els mètodes que hem proposat. Aquest recomanador està dissenyat per proporcionar recomanacions personalitzades sobre activitats turístiques a la regió de Tarragona. Les activitats estan degudament classificades i etiquetades d'acord amb una ontologia específica, que guia el procés de raonament. El recomanador té en compte molts tipus diferents de dades: informació demogràfica, les motivacions de viatge, les accions de l'usuari en el sistema, les qualificacions proporcionades per l'usuari, les opinions dels usuaris amb característiques demogràfiques similars o gustos similars, etc. Un procés de diversificació que calcula similituds entre objectes s'aplica per augmentar la varietat de les recomanacions i per tant augmentar la satisfacció de l'usuari. Aquest sistema pot tenir un impacte positiu a la regió en millorar l'experiència dels seus visitants. / Esta tesis estudia cómo mejorar los sistemas de recomendación utilizando información semántica sobre un determinado dominio, en el caso de este trabajo el Turismo. Las ontologías definen un conjunto de conceptos relacionados con un determinado dominio, así como las relaciones entre ellos. East estructuras de conocimiento pueden ser utilizadas no sólo para representar de una manera más precisa y refinada los objetos del dominio y las preferencias de los usuarios, sino también para aplicar mejor los procedimientos de comparación entre los objetos y usuarios (y también entre los propios usuarios) con la ayuda de medidas de similitud semántica. Las mejoras al nivel de la representación del conocimiento y al nivel de razonamiento conducen a recomendaciones más precisas y a una mejora del rendimiento de los sistemas de recomendación, generando nuevos sistemas de recomendación semánticos inteligentes. Las dos técnicas de recomendación básicas, basadas en contenido y en filtrado colaborativo, se benefician de la introducción de conocimiento explícito del dominio. En esta tesis también hemos diseñado y desarrollado un sistema de recomendación que aplica los métodos que hemos propuesto. Este recomendador está diseñado para proporcionar recomendaciones personalizadas sobre las actividades turísticas en la región de Tarragona. Las actividades están debidamente clasificadas y etiquetadas de acuerdo con una ontología específica, que guía el proceso de razonamiento. El recomendador tiene en cuenta diferentes tipos de datos: información demográfica, las motivaciones de viaje, las acciones del usuario en el sistema, las calificaciones proporcionadas por el usuario, las opiniones de los usuarios con características demográficas similares o gustos similares, etc. Un proceso de diversificación que calcula similitudes entre objetos se aplica para generar variedad en las recomendaciones y por tanto aumentar la satisfacción del usuario. Este sistema puede tener un impacto positivo en la región al mejorar la experiencia de sus visitantes. / This dissertation studies how new improvements can be made on recommender systems by using ontological information about a certain domain (in the case of this work, Tourism). Ontologies define a set of concepts related to a certain domain as well as the relationships among them. These knowledge structures may be used not only to represent in a more precise and refined way the domain objects and the user preferences, but also to apply better matching procedures between objects and users (or between users themselves) with the help of semantic similarity measures. The improvements at the knowledge representation level and at the reasoning level lead to more accurate recommendations and to an improvement of the performance of recommender systems, paving the way towards a new generation of smart semantic recommender systems. Both content-based recommendation techniques and collaborative filtering ones certainly benefit from the introduction of explicit domain knowledge. In this thesis we have also designed and developed a recommender system that applies the methods we have proposed. This recommender is designed to provide personalized recommendations of touristic activities in the region of Tarragona. The activities are properly classified and labelled according to a specific ontology, which guides the reasoning process. The recommender takes into account many different kinds of data: demographic information, travel motivations, the actions of the user on the system, the ratings provided by the user, the opinions of users with similar demographic characteristics or similar tastes, etc. A diversification process that computes similarities between objects is applied to produce diverse recommendations and hence increase user satisfaction. This system can have a beneficial impact on the region by improving the experience of its visitors.
39

Optimizing programming models for massively parallel computers

Farreras Esclusa, Montse 12 December 2008 (has links)
Since the invention of the transistor, clock frequency increase was the primary method of improving computing performance. As the reach of Moore's law came to an end, however, technology driven performance gains became increasingly harder to achieve, and the research community was forced to come up with innovative system architectures. Today increasing parallelism is the primary method of improving performance: single processors are being replaced by multiprocessor systems and multicore architectures. The challenge faced by computer architects is to increase performance while limited by cost and power consumption. The appearance of cheap and fast interconnection networks has promoted designs based on distributed memory computing. Most modern massively parallel computers, as reflected by the Top 500 list, are clusters of workstations using commodity processors connected by high speed interconnects. Today's massively parallel systems consist of hundreds of thousands of processors. Software technology to program these large systems is still in its infancy. Optimizing communication has become a key to overall system performance. To cope with the increasing burden of communication, the following methods have been explored: (i) Scalability in the messaging system: The messaging system itself needs to scale up to the 100K processor range. (ii) Scalable algorithms reducing communication: As the machine grows in size the amount of communication also increases, and the resulting overhead negatively impacts performance. New programming models and algorithms allow programmers to better exploit locality and reduce communication. (iii) Speed up communication: reducing and hiding communication latency, and improving bandwidth. Following the three items described above, this thesis contributes to the improvement of the communication system (i) by proposing a scalable memory management of the communication system, that guarantees the correct reception of data and control-data, (ii) by proposing a language extension that allows programmers to better exploit data locality to reduce inter-node communication, and (iii) by presenting and evaluating a cache of remote addresses that aims to reduce control-data and exploit the RDMA native network capabilities, resulting in latency reduction and better overlap of communication and computation. Our contributions are analyzed in two different parallel programming models: Message Passing Interface (MPI) and Unified Parallel C (UPC). Many different programing models exist today, and the programmer usually needs to choose one or another depending on the problem and the machine architecture. MPI has been chosen because it is the de facto standard for parallel programming in distributed memory machines. UPC was considered because it constitutes a promising easy-to-use approach to parallelism. Since parallelism is everywhere, programmability is becoming important and languages such as UPC are gaining attention as a potential future of high performance computing. Concerning the communication system, the languages chosen are relevant because, while MPI offers two-sided communication, UPC relays on a one-sided communication model. This difference potentially influences the communication system requirements of the language. These requirements as well as our contributions are analyzed and discussed for both programming models and we state whether they apply to both programming models.
40

Estrategias de descomposición en dominios para entornos Grid

Otero Calviño, Beatriz 13 April 2007 (has links)
En este trabajo estamos interesados en realizar simulaciones numéricas basadas en elementos finitos con integración explícita en el tiempo utilizando la tecnología Grid.Actualmente, las simulaciones explícitas de elementos finitos usan la técnica de descomposición en dominios con particiones balanceadas para realizar la distribución de los datos. Sin embargo, esta distribución de los datos presenta una degradación importante del rendimiento de las simulaciones explícitas cuando son ejecutadas en entornos Grid. Esto se debe principalmente, a que en un ambiente Grid tenemos comunicaciones heterogéneas, muy rápidas dentro de una máquina y muy lentas fuera de ella. De esta forma, una distribución balanceada de los datos se ejecuta a la velocidad de las comunicaciones más lentas. Para superar este problema proponemos solapar el tiempo de la comunicación remota con el tiempo de cálculo. Para ello, dedicaremos algunos procesadores a gestionar las comunicaciones más lentas, y el resto, a realizar cálculo intensivo. Este esquema de distribución de los datos, requiere que la descomposición en dominios sea no balanceada, para que, los procesadores dedicados a realizar la gestión de las comunicaciones lentas tengan apenas carga computacional. En este trabajo se han propuesto y analizado diferentes estrategias para distribuir los datos y mejorar el rendimiento de las aplicaciones en entornos Grid. Las estrategias de distribución estáticas analizadas son: 1. U-1domains: Inicialmente, el dominio de los datos es dividido proporcionalmente entre las máquinas dependiendo de su velocidad relativa. Posteriormente, en cada máquina, los datos son divididos en nprocs-1 partes, donde nprocs es el número de procesadores total de la máquina. Cada subdominio es asignado a un procesador y cada máquina dispone de un único procesador para gestionar las comunicaciones remotas con otras máquinas. 2. U-Bdomains: El particionamiento de los datos se realiza en dos fases. La primera fase es equivalente a la realizada para la distribución U-1domains. La segunda fase, divide, proporcionalmente, cada subdominio de datos en nprocs-B partes, donde B es el número de comunicaciones remotas con otras máquinas (dominios especiales). Cada máquina tiene más de un procesador para gestionar las comunicaciones remotas. 3. U-CBdomains: En esta distribución, se crean tantos dominios especiales como comunicaciones remotas. Sin embargo, ahora los dominios especiales son asignados a un único procesador dentro de la máquina. De esta forma, cada subdomino de datos es dividido en nprocs-1 partes. La gestión de las comunicaciones remotas se realiza concurrentemente mediante threads. Para evaluar el rendimiento de las aplicaciones sobre entornos Grid utilizamos Dimemas. Para cada caso, evaluamos el rendimiento de las aplicaciones en diferentes entornos y tipos de mallas. Los resultados obtenidos muestran que:· La distribución U-1domains reduce los tiempos de ejecución hasta un 45% respecto a la distribución balanceada. Sin embargo, esta distribución no resulta efectiva para entornos Grid compuestos de una gran cantidad de máquinas remotas.· La distribución U-Bdomains muestra ser más eficiente, ya que reduce el tiempo de ejecución hasta un 53%. Sin embargo, la escalabilidad de ésta distribución es moderada, debido a que puede llegar a tener un gran número de procesadores que no realizan cálculo intensivo. Estos procesadores únicamente gestionan las comunicaciones remotas. Como limite sólo podemos aplicar esta distribución si más del 50% de los procesadores en una máquina realizan cálculo.· La distribución U-CBdomains reduce los tiempos de ejecución hasta 30%, pero no resulta tan efectiva como la distribución U-Bdomains. Sin embargo, esta distribución incrementa la utilización de los procesadores en 50%, es decir que disminuye los procesadores ociosos.

Page generated in 0.439 seconds