• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 15
  • 3
  • 3
  • Tagged with
  • 56
  • 41
  • 35
  • 26
  • 23
  • 22
  • 19
  • 17
  • 17
  • 16
  • 16
  • 13
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Performability issues of fault tolerance solutions for message-passing systems: the case of RADIC

Silva dos Santos, Guna Alexander 20 July 2009 (has links)
¿Es adecuado un sistema rápido pero poco robusto?¿Es adecuado un sistema disponible pero lento? Estas dos cuestiones representan la importancia de prestaciones y disponibilidad en clusters de computadores. Esta tesis se enmarca en el estudio de la relación entre prestaciones y disponibilidad cuando un cluster de computadores basado en el modelo de paso de mensajes, usa un protocolo de tolerancia a fallos basado en rollback-recovery con log de mensajes pesimista. Esta relación también es conocida como performability. Los principales factores que influyen en la performability cuando se usa la arquitectura de tolerancia a fallos RADIC son identificados y estudiados. Los factores fundamentales son la latencia de envío de mensajes que se incrementa cuando se usa el log pesimista, que implica una perdida de prestaciones, como también la replicación de los datos redundantes (checkpoint y log) necesaria para el incremento de la disponibilidad en RADIC y el cambio de la distribución de procesos por nodo causada por los fallos, que pueden causar degradación de las prestaciones así como las paradas por mantenimiento preventivo. Para tratar estos problemas se proponen alternativas de diseño basadas en análisis de la performability. La pérdida de prestaciones causada por el log y la replicación ha sido mitigada usando la técnica de pipeline. El cambio en la distribución de procesos por nodo puede ser evitado o restaurada usando un mecanismo flexible y transparente de redundancia dinámica que ha sido propuesto, que permite inserción dinámica de nodos spare o de repuesto. Los resultados obtenidos demuestran que las contribuciones presentadas son capaces de mejorar la performability de un cluster de computadores cuando se usa una solución de tolerancia a fallos como RADIC. / Is a fast but fragile system good? Is an available but slow system good? These two questions demonstrate the importance of performance and availability in computer clusters. This thesis addresses issues correlated to performance and availability when a rollback- recovery pessimistic message log based fault tolerance protocol is applied into a computer cluster based on the message-passing model. Such a correlation is also known as performability. The root factors influencing the performability when using the RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers) fault tolerance architecture are raised and studied. Factors include the message delivery latency, which increases when using pessimistic logging causing performance overhead, as also in the redundant data (logs and checkpoints) replication needed to increase availability in RADIC and the process per node distribution changed by faults, which may cause performance degradation and preventive maintenance stops. In order to face these problems some alternatives are presented based on a performability analysis. Using a pipeline approach the performance overhead of message logging and the redundant data replication were mitigated. Changes in the process per node distribution can be avoided or restored using the flexible and transparent mechanism for dynamic redundancy proposed, or using a dynamic insertion of spare or replacement nodes. The obtained results show that the presented contributions could improve the performability of a computer cluster when using a fault tolerance solution such as RADIC.
2

Vsr-coma : un protocolo de coherencia cache con reemplazo para sistemas multicomputadores con gestión de memoria de tipo COMA /

Llanos Ferraris, Diego Rafael. Sahelices Fernández, Benjamin, January 2000 (has links)
Tesis-Universidad de Valladolid, 2000. / Incluye referencias bibliográficas e índice.
3

Contribución al soporte de Calidad del Servicio en Redes Móviles

Padilla Aguilar, Jhon Jairo 05 March 2008 (has links)
En esta Tesis se plantea una solución para soportar Calidad de Servicio en Internet. Esta solución, denominada IntServ6, opera sobre redes fijas y móviles basadas en el protocolo IPv6. IntServ6 está fundamentada en la Arquitectura de Servicios Integrados y utiliza el campo de Etiqueta de Flujo de la cabecera IPv6 para identificar los flujos que tienen reservas de recursos en los Encaminadores. La utilización del campo Etiqueta de Flujo de IPv6 no ha sido estandarizada, existiendo hasta el momento sólo ciertas especificaciones de uso y algunas propuestas de su utilización que también fueron estudiadas. Tales propuestas sólo abarcan algunos aspectos de una posible solución pero no plantean soluciones completas. Estos aspectos son entre otros, el formato de interpretación de la Etiqueta de Flujo y algunas definiciones de arquitecturas de QoS descritas de forma muy general. Adicionalmente, IntServ6 posee extensiones para operar sobre redes móviles. Tales extensiones están diseñadas para operar con los protocolos de movilidad existentes de forma que no requieren la alteración de dichos protocolos. Aunque IntServ6 podría operar con el protocolo Mobile IPv6, es preferible su operación sobre HMIPv6 para reducir el tiempo de Traspaso.Para la evaluación de IntServ6, se obtuvieron diferentes modelos matemáticos y de simulación que permitieron evaluar el rendimiento de la propuesta IntServ6 con respecto al estándar IntServ y, en algunos aspectos, se comparó también con MPLS. Todos los aspectos evaluados arrojaron que definitivamente IntServ6 es superior a IntServ. Así, IntServ6 mejora el rendimiento de los Encaminadores en aspectos como el Ancho de Banda de Memoria y la velocidad de procesamiento, también mejora el Tiempo Medio de Retardo de los paquetes, mejora el Tráfico Servido a cada flujo en Reservas Simples y en las Reservas en Túneles. Por otro lado, IntServ6 reduce considerablemente la dependencia del Retardo de los paquetes con respecto a al movilidad de los usuarios y además no afecta, e incluso reduce levemente el Tiempo de Latencia de Traspaso. / This Thesis has obtained an approach to support Quality of Service on Internet. This approach, named IntServ6, operates over wired and wireless All IP Networks based on the IPv6 protocol. IntServ6 is based on the Integrated Services Architecture and it identifies traffic flows (with reservations at the routers), by means of the Flow Label Field allocated in the IPv6 Header. Currently, the use of the Flow Label Field is not standardized; thus, only there exist some general specifications about the use of this field and some proposals about it. However, such proposals only describe some aspects (Flow Label Field Format and general network architectures) but they not take into account many other issues that Internet requires today. In addition, IntServ6 has been designed with extensions to operate over Mobile Networks. Such extensions allow to IntServ6 to obtain a good performance with the current Mobility Protocols without make any modification to them. Although IntServ6 could operate with the Mobile IP protocol, is preferred that it operates with the Hierarchical Mobile IP protocol to reduce the Handoff Latency.In order to evaluate IntServ6, several mathematical and simulation models were developed. Such models allowed evaluating the performance of IntServ6 and to compare it with the performance of the standard IntServ. In some cases, also IntServ6 was compared with MPLS. All evaluated issues show that IntServ6 is better than IntServ. Thus, IntServ6 improves the router performance in aspects as the Memory Bandwidth and the Processing Rate. IntServ6 reduces the mean packet delay; it also increases the Served Traffic for each flow in Simple Reservations and also in Reservations within Tunnels. On the other hand, IntServ6 reduces the packet delay dependence with the user mobility. Finally, IntServ6 also reduces the Handoff Latency.
4

Low-Memory Techniques for Routing and Fault-Tolerance on the Fat-Tree Topology

Gómez Requena, Crispín 08 November 2010 (has links)
Actualmente, los clústeres de PCs están considerados como una alternativa eficiente a la hora de construir supercomputadores en los que miles de nodos de computación se conectan mediante una red de interconexión. La red de interconexión tiene que ser diseñada cuidadosamente, puesto que tiene una gran influencia sobre las prestaciones globales del sistema. Dos de los principales parámetros de diseño de las redes de interconexión son la topología y el encaminamiento. La topología define la interconexión de los elementos de la red entre sí, y entre éstos y los nodos de computación. Por su parte, el encaminamiento define los caminos que siguen los paquetes a través de la red. Las prestaciones han sido tradicionalmente la principal métrica a la hora de evaluar las redes de interconexión. Sin embargo, hoy en día hay que considerar dos métricas adicionales: el coste y la tolerancia a fallos. Las redes de interconexión además de escalar en prestaciones también deben hacerlo en coste. Es decir, no sólo tienen que mantener su productividad conforme aumenta el tamaño de la red, sino que tienen que hacerlo sin incrementar sobremanera su coste. Por otra parte, conforme se incrementa el número de nodos en las máquinas de tipo clúster, la red de interconexión debe crecer en concordancia. Este incremento en el número de elementos de la red de interconexión aumenta la probabilidad de aparición de fallos, y por lo tanto, la tolerancia a fallos es prácticamente obligatoria para las redes de interconexión actuales. Esta tesis se centra en la topología fat-tree, ya que es una de las topologías más comúnmente usadas en los clústeres. El objetivo de esta tesis es aprovechar sus características particulares para proporcionar tolerancia a fallos y un algoritmo de encaminamiento capaz de equilibrar la carga de la red proporcionando una buena solución de compromiso entre las prestaciones y el coste. / Gómez Requena, C. (2010). Low-Memory Techniques for Routing and Fault-Tolerance on the Fat-Tree Topology [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8856 / Palancia
5

Design Space Exploration of heterogeneous SoC Platforms for a Data-Dominant Application

Portero Trujillo, Antoni 20 June 2009 (has links)
El objetivo principal de esta tesis es obtener un conjunto de implementaciones de un sistema especificado en alto nivel y bajarlo a diferentes plataformas arquitectónicas. Esto ha permitido realizar una comparación justa que incluye la cadena de diseño, metodología hacia las diversas plataformas de silicio. Esta comparación usa cuatro variables para su evaluación (el tiempo de ejecución, el área del chip, el consumo de energía y el tiempo de diseño) y produce un mapa de puntos de las diferentes implementaciones óptimas de acuerdo con un conjunto de requerimientos de operación. Se ha construido un completo IP un compresor MPEG-4 Main Profile. Este estándar de video codificación es un buen ejemplo de referencia, bastante popular en la literatura científica y es también un ejemplo adecuado de aplicación basada en flujo de datos. Por tanto, los resultados extraídos de esta tesis pueden ser extendidos a otras aplicaciones basadas en IPs con tratamiento de flujo de datos. He considerado necesario la computación de imágenes con restricciones de tiempo real. Y por tanto, se deseaba disponer del diseño más flexible posible para poder mapear las mismas especificaciones en las diferentes plataformas. Para este propósito, se ha elegido SystemC/C++ como lenguaje de descripción del sistema e idear los diferentes flujos de implementación para las diferentes arquitecturas y plataformas de silicio. Este poderoso marco de trabajo permite comparar implementaciones de una forma objetiva y razonada. Ya que nuestros resultados vienen de un αnico modelo y los diseños fueron mapeados en la misma tecnología de silicio (90nm CMOS). El resultado de este trabajo de investigación es un juego de criterios y un mapa de las soluciones disponibles sobre el espacio de funcionamiento más bien que una aserción que dice que una solución αnica es mejor que las otras. Mi intención ha sido desarrollar técnicas y formular los métodos que pueden permitir aumentar la productividad en el diseño. Este desarrollo puede ser extendido al nuevo paradigma de intercomunicación: Aquellos que usan técnicas DVFS y basadas en NoC para exploraciones e implementaciones MPSoC. Consideramos la contribución mas significativa es el desarrollo del modelo con el cual se han realizado los diversos experimentos: El compresor MPEG que se ha realizado en SystemC/C++. Se ha realizado de la forma que implementaciones mαltiples son posibles: que van desde una parte grande en HW hasta la que se carga en un VLIW. En el caso de la FPGA y el ASIC, se han realizado dos implementaciones. Hemos obtenido un conjunto de resultados para siete diferentes implementaciones con cuatro diferentes objetivos HW (FPGA, ASIC, DSP y ASIP) con diferentes arquitecturas internas, seleccionadas para obtener puntos óptimos. Esto nos da que un incremento en eficiencia del 56 % para velocidad versus 26 % en energía en la solución FSME (20% para velocidad y 57 % para energía en la solución FAST). En el caso de los ISPs, las mejoras en el código se han realizado de forma que se obtienen implementaciones mejores que las que se conseguirían con una implementación directa del código no solo mejoras en el código sino mejoras en las microarquitecturas de silicio que forman el VLIW en el caso del ASIP. Otra contribución ha sido la realización de una NoC a nivel funcional en SystemC. / The main goal of this thesis is to obtain a set of results for the implementation of a given system level application down to different architectural platforms. This allowed carrying out a fair comparison that includes to build the whole system and to complete the design chain to the diverse silicon targets. This comparison uses four variables for its evaluation (execution time, chip area, energy consumption and design time) and produces a map of different optimal implementation points according to a given set or operating requirements. I built a complete MPEG-4 MP. This standard is a well known reference example, pretty popular in the scientific literature and this compressor is also a fine example of data-flow application. Therefore, results extracted from this thesis can be extended to other data-flow applications. I considered necessary to compute image compression with real-time constraints. Hence, I would like to dispose of the most flexible design possible in order to map the same specification into the different platforms. For that purpose, I chose SystemC/C++ as description system level language and setup the different implementation flows for the different architectural and silicon platforms. This powerful framework allows comparing implementations in a reasonably objective way. Since our results come from a unique reference model and all designs were finally mapped in the same silicon technology (90nm CMOS). The result of this research work is a set of criteria and a map of the available solutions on the performance space rather than an assertion saying that a unique solution is better than others. My intention has been to develop techniques and formulate methods that increased design productivity. This development can be further applied to the new parading of implementations: those that use DVFS techniques and NoC-based MPSoc implementation explorations. We consider the most important contribution is the development of the model able to achieve the different experiments: the MPEG compressor that has been realized in SystemC/C ++. It is designed in a way that multiple implementations are possible, ranging from a large part in HW up to loaded in an accelerator as a VLIW. In case of the FPGA and ASIC, two implementations have been carried out. We obtained a set of values for seven different implementations targeting four different HW platforms (FPGA, ASIC, DSP and ASIP) with diverse internal architectures, selected to get optimal points. In the case of ASIC, we managed to end up with the layouts of the two solutions. This led to an increase in efficiency of 56 % for speed versus 26 % for energy (in FSME solution 20% for speed and 57% for energy in FAST solution). In case of the ISPs, code improvements have been accomplished to come up to more ideal solutions with regard to those who would be obtained by a direct implementation. In case of the ASIP the improvements have not only been realized in the code but also in the silicon micro architecture that form the VLIW. Other contribution is the accomplishment of a functional NoC in SystemC.
6

Flexible Real-Time Linux a New Environment for Flexible Hard Real-Time Systems

Terrasa Barrena, Andrés Martín 04 December 2012 (has links)
[ES] La presente tesis propone un nuevo entorno general para la construcción de sistemas flexibles de tiempo real estricto, esto es, sistemas que necesitan de garantías de tiempo real estricto y de un comportamiento flexible. El entorno propuesto es capaz de integrar tareas con varios niveles de criticidad y diferentes paradigmas de planificación en el mismo sistema. Como resultado, el entorno permite proporcionar garantías de tiempo real estricto a las tareas críticas y además conseguir una planificación adaptativa e inteligente de las tareas menos críticas. El entorno se define en términos de un modelo de tareas, una arquitectura software y un conjunto de servicios. El modelo de tareas propone construir una aplicación flexible de tiempo real estricto como un conjunto de tareas, donde cada tarea se estructura en una secuencia de componentes obligatorios y opcionales. La arquitectura software propone separar la ejecución de las tareas en dos niveles de planificación interrelacionados, de manera que un nivel planifica los componentes obligatorios mediante una política de planificación de tiempo real estricto mientras que el otro nivel planifica los componentes opcionales mediante una política de planificación basada en la utilidad. El conjunto de servicios incluye, por una parte, un sistema de comunicación entre los componentes de las tareas (tanto obligatorios como opcionales) y, por otra, una serie de mecanismos para la detección y tratamiento de excepciones temporales producidas en ejecución. Por otra parte, la presente tesis muestra que el entorno teórico propuesto puede ser implementado realmente. En concreto, se presenta el diseño e implementación de un sistema de ejecución (es decir, un núcleo de sistema operativo) capaz de soportar las características de dicho entorno. Este sistema, denominado Flexible Real-Time Linux (FRTL), ha sido desarrollado a partir de un núcleo mínimo existente denominado Real-Time Linux (RT-Linux). Finalmente, esta tesis presenta una caracterización temporal completa del sistema FRTL y medidas reales de su sobrecarga. La caracterización temporal ha permitido el desarrollo de un test de garantía completo de todo el sistema (incluyendo la aplicación y el núcleo de FRTL), que puede ser utilizado para verificar las restricciones temporales de cualquier aplicación implementada sobre FRTL. Por su parte, las medidas de la sobrecarga de FRTL muestran que este núcleo ha sido diseñado e implementado de manera eficiente. En conjunto, se demuestra que el núcleo FRTL es a la vez predecible y eficiente, dos características que informan de su utilidad en la implementación real de aplicaciones flexibles de tiempo real estricto. / [CA] Aquesta tesi proposa un nou entorn general per a la construcció de sistemes flexibles de temps real estricte, això és, sistemes que requereixen garanties de temps real estricte i un comportament flexible. L'entorn proposat és capaç d'integrar tasques amb diferentsnivells de criticitat i diferents paradigmes de planificació al mateix sistema. Com a resultat, l'entorn permet proporcionar garanties detemps real estricte a les tasques crítiques i a més aconseguir una planificació adaptativa i intel¿ligent de les tasques menys crítiques. L'entorn es defineix en termes d'un model de tasques, una arquitectura software i un conjunt de serveis. El model de tasques proposa la construcció d'una aplicació flexible de temps real estricte com a un conjunt de tasques on cadascuna és estructurada com una seqüència de components obligatòries i opcionals. L'arquitectura software proposa la separació de l'execució de les tasques en dos nivells de planificació interrelacionats, de manera que un nivel planifica les components obligatòries mitjançant una política de planificació de temps real estricte mentre que l'altre nivell planifica les components opcionals mitjançant una política de planificació basada en la utilitat. El conjunt de serveis inclou, per una part, un sistema de comunicació entre les components de les tasques (tant obligatòries com opcionals) i, per una altra, una sèrie de mecanismes per a la detecció i tractament d'excepcions temporals produïdes en execució. Per altra banda, la present tesi mostra que el proposat entorn teòric pot ésser implementat realment. En concret, es presenta el diseny i la implementació d'un sistema d'execució (es a dir, un nucli de sistema operatiu) capaç de suportar les característiques d'aquest entorn. Aquest sistema, anomenat Flexible Real-Time Linux (FRTL), ha sigut desenvolupat a partir d'un nucli mínim existent anomenat Real-Time Linux (RT-Linux). Finalment, aquesta tesi presenta una caracterització temporal completa del sistema FRTL i mesures reals de la seua sobrecàrrega. La caracterització temporal ha permés el desenvolupament d'un test de garantia complet de tot el sistema (incloent l'aplicació i el nucli FRTL), que pot ésser utilitzat per a verificar les restriccions temporals de qualsevol aplicació implementada sobre FRTL. Per la seua part, les mesures de la sobrecàrrega de FRTL mostren que aquest nucli ha sigut disenyat i implementat de manera eficient. En conjunt, es demostra que el nucli FRTL és al mateix temps predible i eficient, dos característiques que informen de la seua utilitat a la implementació real d'aplicacions flexibles de temps real estricte. / Terrasa Barrena, AM. (2001). Flexible Real-Time Linux a New Environment for Flexible Hard Real-Time Systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/18060
7

Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN

Blanc Clavero, Sara 23 June 2008 (has links)
Los sistemas informáticos se encuentran presentes en muchos ámbitos, desde los relacionados con la industria hasta el hogar. Cada vez con más frecuencia, uno de los requisitos principales a la hora de diseñar sistemas informáticos es que presenten un alto grado de confiabilidad, especialmente aquellos considerados como críticos, ya que su mal funcionamiento puede poner el peligro la integridad de las personas o puede ocasionar grandes pérdidas económicas. Además, la confiabilidad también puede ser un factor importante en su expansión y competitividad en el mercado. La confiabilidad permite al usuario depositar una confianza justificada en el funcionamiento del producto y debe ser evaluada antes de su fase operacional mediante la verificación y validación del comportamiento del sistema según el servicio especificado tanto en condiciones normales como en presencia de fallos. Sin embargo la tasa de fallos en un sistema informático suele ser baja, siendo necesario recurrir a técnicas de validación experimental como la Inyección de Fallos que aceleran la validación mediante la introducción deliberada y controlada de fallos en el sistema. En general, el efecto de los fallos físicos en los semiconductores actuales, donde el incremento de la frecuencia de funcionamiento y la densidad de integración son notables, es más importante que el observado con tecnologías menos avanzadas. Ya no es justificable el asumir que un fallo simple sólo genera un error simple, siendo necesario validar el sistema ante errores múltiples causados no sólo por fallos localizados en memoria, sino también en la lógica combinacional o en soldaduras y metalizaciones, acrecentados estos últimos por la reducción de la distancia entre pistas. Existen diversas técnicas y herramientas de inyección de fallos, entre ellas, la Inyección física a nivel de pin. Una de sus principales ventajas es su aplicación externa, no generando sobrecarga adicional en el sistema o perturbando la ejecución normal de sus tar / Blanc Clavero, S. (2004). Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2344 / Palancia
8

Aportación al estudio del software necesario para la informatización de los métodos de aprendage de las técnicas de expresión gráfica, y su posterior implementación

Castillo Baliarda, Miquel 07 May 1988 (has links)
ESTUDIO DEL EFECTO DE LA MICROINFORMATICA EN EL PROCESO DE APRENDIZAJE DE LAS TECNICAS DE EXPRESION GRAFICA (T.E.G.). LA MICROINFORMATICA Y LOS PROGRAMAS DE CAD (DISEÑO ASISTIDO POR ORDENADOR) PUEDEN REPRESENTAR UN NUEVO ENFOQUE EN EL ACTO CREATIVO DEL DISEÑO GRAFICO. EL FENOMENO DE LA MICROINFORMATICA CONLLEVA UNA COMPONENTE COMERCIAL MUY GRANDE EN DETRIMENTO DE UNA VERDADERA PROFESIONALIDAD. EN LA TESIS SE ENTRA A FONDO EN EL TEMA DE FORMA QUE SE LLEGAN A LOS CONCEPTOS BASICOS COMUNES A LO QUE PODRIAMOS LLAMAR MICROINFORMATICA GRAFICA. LLEGADO A ESTE NIVEL SE CRITICAN ALGUNAS DE LAS SOLUCIONES IMPLEMENTADAS PROPONIENDOSE OTRAS CON RAIZ MAS CIENTIFICA. SE PRECONIZA NO OBSTANTE EL DAR UN CARACTER MAS ANALITICO A LA ENSEÑANZA DE LA GEOMETRIA EN DETRIMENTO DEL GRAFICO COMO HASTA EL MOMENTO. COMO CONCLUSION DE LA TESIS SE PRESENTAN ALGUNAS REALIZACIONES PRACTICAS DEL DOCTORANDO SE DISEÑA UN CURSO DE T.E.G. Y SE PROPONE UNA BIBLIOGRAFIA ACTUALIZADA DEL TEMA.
9

Multifaceted resource management on virtualized providers

Goiri, Íñigo 14 June 2011 (has links)
Last decade, providers started using Virtual Machines (VMs) in their datacenters to pack users and their applications. This was a good way to consolidate multiple users in fewer physical nodes while isolating them from each other. Later on in 2006, Amazon started offering their Infrastructure as a Service where their users rent computing resources as VMs in a pay-as-you-go manner. However, virtualized providers cannot be managed like traditional ones as they are now confronted with a set of new challenges. First of all, providers must deal efficiently with new management operations such as the dynamic creation of VMs. These operations enable new capabilities that were not there before, such as moving VMs across the nodes, or the ability to checkpoint VMs. We propose a Decentralized virtualization management infrastructure to create VMs on demand, migrate them between nodes, and checkpointing mechanisms. With the introduction of this infrastructure, virtualized providers become decentralized and are able to scale. Secondly, these providers consolidate multiple VMs in a single machine to more efficiently utilize resources. Nevertheless, this is not straightforward and implies the use of more complex resource management techniques. In addition, this requires that both customers and providers can be confident that signed Service Level Agreements (SLAs) are supporting their respective business activities to their best extent. Providers typically offer very simple metrics that hinder an efficient exploitation of their resources. To solve this, we propose mechanisms to dynamically distribute resources among VMs and a resource-level metric, which together allow increasing provider utilization while maintaining Quality of Service. Thirdly, the provider must allocate the VMs evaluating multiple facets such as power consumption and customers' requirements. In addition, it must exploit the new capabilities introduced by virtualization and manage its overhead. Ultimately, this VM placement must minimize the costs associated with the execution of a VM in a provider to maximize the provider's profit. We propose a new scheduling policy that places VMs on provider nodes according to multiple facets and is able to understand and manage the overheads of dealing with virtualization. And fourthly, resource provisioning in these providers is a challenge because of the high load variability over time. Providers can serve most of the requests owning only a restricted amount of resources but this under-provisioning may cause customers to be rejected during peak hours. In the opposite situation, valley hours incur under-utilization of the resources. As this new paradigm makes the access to resources easier, providers can share resources to serve their loads. We leverage a federated scenario where multiple providers share their resources to overcome this load variability. We exploit the federation capabilities to create policies that take the most convenient decision depending on the environment conditions and tackle the load variability. All these challenges mean that providers must manage their virtualized resources in a different way than they have done traditionally. This dissertation identifies and studies the challenges faced by virtualized provider that offers IaaS, and designs and evaluates a solution to manage the provider's resources in the most cost-effective way by exploiting the virtualization capabilities.
10

MSSPACC: Sistema d'execució paral·lela d'aplicacions amb especulació sobre entorns distribuïts

Puiggalí, Joan 07 November 2012 (has links)
The research we have conducted has been aimed at developing a new mechanism of extraction and use of parallelism at a high level, based on speculation techniques, in cluster environments. This allows our mechanism to be architecture independent and to be adapted to heterogeneous environments. As a drawback there are some limitations due to the fact of working at a high level, such as memory address access dependencies and those occurring in vector operations. The Master/Slave Speculative Parallelization Architecture for Computer Clusters (MSSPACC) is considered that works at the TLP taking advantage of the execution tools of the ILP level. It works at TLP level because the program is divided into threads which we call blocks. The blocks they are considered like single instructions and follow the same pattern of a superscalar processor ILP (input variables are considered like operands and the output like the result of the execution). / L’objectiu d’aquesta recerca és desenvolupar un nou mecanisme d'extracció i explotació del paral•lelisme basat en tècniques d'especulació a nivell d’aplicació sobre clústers. Així hem aconseguit que el sistema no tingui una dependència arquitectònica i poder adaptar-se a entorns heterogenis. Com a contrapartida ens hem trobat amb les limitacions degudes al fet de treballar a nivell d’aplicació, com són les dependències d’adreces d’accés a memòria i les provocades en operacions amb vectors. La proposta desenvolupada s’anomena Master/Slave Speculative Parallelization Architecture for Computer Clusters (MSSPACC) i es pot considerar que treballa a nivell TLP aprofitant les eines d’execució del nivell ILP. Divideix el programa en fils d’execució que anomenem blocs bàsics que s’executen seguint el mateix patró ILP d’un processador Superescalar, considerant que un bloc bàsic és equivalent a una instrucció, les variables d’entrada com a operants i les de sortida com al resultat de l’execució del bloc bàsic.

Page generated in 0.0774 seconds