• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 108
  • 2
  • 2
  • 1
  • Tagged with
  • 778
  • 778
  • 215
  • 145
  • 144
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

Fuzzy metrics and fuzzy logic for colour image filtering

Morillas Gómez, Samuel 06 May 2008 (has links)
El filtrado de imagen es una tarea fundamental para la mayoría de los sistemas de visión por computador cuando las imágenes se usan para análisis automático o, incluso, para inspección humana. De hecho, la presencia de ruido en una imagen puede ser un grave impedimento para las sucesivas tareas de procesamiento de imagen como, por ejemplo, la detección de bordes o el reconocimiento de patrones u objetos y, por lo tanto, el ruido debe ser reducido. En los últimos años el interés por utilizar imágenes en color se ha visto incrementado de forma significativa en una gran variedad de aplicaciones. Es por esto que el filtrado de imagen en color se ha convertido en un área de investigación interesante. Se ha observado ampliamente que las imágenes en color deben ser procesadas teniendo en cuenta la correlación existente entre los distintos canales de color de la imagen. En este sentido, la solución probablemente más conocida y estudiada es el enfoque vectorial. Las primeras soluciones de filtrado vectorial, como por ejemplo el filtro de mediana vectorial (VMF) o el filtro direccional vectorial (VDF), se basan en la teoría de la estadística robusta y, en consecuencia, son capaces de realizar un filtrado robusto. Desafortunadamente, estas técnicas no se adaptan a las características locales de la imagen, lo que implica que usualmente los bordes y detalles de las imágenes se emborronan y pierden calidad. A fin de solventar este problema, varios filtros vectoriales adaptativos se han propuesto recientemente. En la presente Tesis doctoral se han llevado a cabo dos tareas principales: (i) el estudio de la aplicabilidad de métricas difusas en tareas de procesamiento de imagen y (ii) el diseño de nuevos filtros para imagen en color que sacan provecho de las propiedades de las métricas difusas y la lógica difusa. Los resultados experimentales presentados en esta Tesis muestran que las métricas difusas y la lógica difusa son herramientas útiles para diseñar técnicas de filtrado, / Morillas Gómez, S. (2007). Fuzzy metrics and fuzzy logic for colour image filtering [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1879
662

Recuperación de pasajes multilingües para la búsqueda de respuestas

Gómez Soriano, José Manuel 07 May 2008 (has links)
JAVA Information Retrieval System (JIRS) es un sistema de Recuperación de Información especialmente orientado a tareas de Búsqueda de Respuestas. Los tradicionales motores de búsqueda se basan en las palabras claves de la pregunta para obtener los documentos relevantes a una consulta. JIRS, por el contrario, intenta obtener trozos de texto, es decir pasajes, con mayor probabilidad de contener la respuesta. Para ello realiza una búsqueda basada en los n-gramas de la pregunta -efectuada en lenguaje natural- usando tres posibles modelos. Los modelos de n-gramas desarrollados son independientes del idioma, lo que hace de JIRS un sistema idóneo para trabajar en ambientes multilingües. Por otra parte, JIRS incorpora un potente núcleo que permite una adaptación y escalabilidad sin precedentes en los modernos motores de búsqueda. Desde sus inicios fue diseñado para que fuera una herramienta potente que permitiese adaptarse sin dificultad a muy diferentes funciones. Esto permite ampliar o modificar aspectos de JIRS de forma muy fácil e intuitiva sin que el usuario final tenga que conocer el código desarrollado por otros. Además, permite generar nuevas aplicaciones con una estructura cliente/servidor, distribuida, etc. únicamente modificando el archivo de configuración. Este trabajo presenta el estado del arte de la Recuperación de Información centrándose en la Búsqueda de Respuestas multilingüe, así como una descripción detallada de JIRS junto con sus modelos de búsqueda exponiendo, finalmente, los resultados obtenidos por este sistema en las competiciones del CLEF. / Gómez Soriano, JM. (2007). Recuperación de pasajes multilingües para la búsqueda de respuestas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1930
663

Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restricciones

Abril López, Montserrat 07 May 2008 (has links)
Hoy en día, muchos problemas reales pueden modelarse como problemas de satisfacción de restricciones (CSPs) y se resuelven usando técnicas específicas de satisfacción de restricciones. Estos problemas pertenecen a áreas tales como Inteligencia Artificial, investigación operativa, sistemas de información, bases de datos, etc. La mayoría de estos problemas pueden modelarse de forma natural mediante CSPs. Sin embargo, algunos de estos problemas son de naturaleza distribuida, bien por motivos de seguridad, por requerimientos de privacidad, o por restricciones espaciales. Ello requiere que este tipo de problemas sean modelados como problemas de satisfacción de restricciones distribuidos (DCSPs), donde el conjunto de variables y restricciones del problema está distribuido entre un conjunto de agentes que se encargan de resolver su propio sub-problema y deben coordinarse con el resto de agentes para alcanzar una solución al problema global. En la literatura de satisfacción de restricciones, la necesidad de manejar DCSP comenzó a tratarse a principios de los 90. No obstante, la mayoría de los investigadores que trabajan en este campo centran su atención en algoritmos en los que cada agente maneja una única variable. Estos algoritmos pueden ser transformados para que cada agente maneje múltiples variables. Sin embargo, los algoritmos resultantes no son escalables para manejar grandes sub-problemas locales debido tanto a requerimientos espaciales como a su coste computacional. Por lo tanto, la resolución de problemas reales mediante este tipo de algoritmos resulta prácticamente inviable. En esta tesis presentamos nuevos algoritmos para la resolución de problemas de satisfacción de restricciones distribuidos capaces de manejar multiples variables por agente. Estos algoritmos realizan un manejo eficiente de la información obtenida mediante la comunicación entre los agentes, consiguiendo con ello una mayor eficiencia durante el proceso de resolución. Además, sus requerimientos / Abril López, M. (2007). Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restricciones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1946
664

Modelos para el análisis y optimización del control de admisión en redes celulares

Giménez Guzmán, José Manuel 04 August 2008 (has links)
En la última década se ha producido una enorme popularización de las redes celulares, siendo incluso muy superior a las previsiones iniciales más optimistas. Este interés que ha despertado entre los usuarios ha provocado que sea en la actualidad el sector de las telecomunicaciones más productivo para los operadores. Aunque el número de usuarios no se prevé que aumente al mismo ritmo a como lo ha hecho hasta ahora porque el número de líneas móviles es superior al de habitantes en muchos países, existe toda una serie de nuevos desafíos para los operadores para poder ofrecer servicios atractivos y competitivos a los usuarios. Estos nuevos servicios se prevé que demanden asimismo una mayor cantidad de recursos. Para el mundo de la investigación, esto supone la necesidad de desarrollar mecanismos cada vez más eficientes y complejos que gestionen los recursos adecuadamente para garantizar unos requisitos de calidad de servicio. Tradicionalmente, para el diseño de estos mecanismos de gestión de recursos se ha partido de las propuestas realizadas para redes fijas. No obstante, las redes celulares introducen nuevos retos por la escasez del espectro radioeléctrico, la aleatoriedad de la propagación y la movilidad de los terminales. La presente tesis doctoral toma como marco de trabajo las redes celulares que implementan políticas de control de admisión. De forma más concreta, en la primera parte de la tesis doctoral se han desarrollado modelos analíticos que permiten estudiar el impacto de los accesos repetitivos que se producen en un sistema cuando el controlador de admisión decide bloquear una petición de acceso al sistema. Esta contribución se realiza en dos aspectos: en el desarrollo de técnicas de resolución de sistemas con reintentos y en la aplicación de esas técnicas a modelos de redes celulares con el fin de comprender el impacto que los reintentos tienen en ellas. La segunda parte de la tesis doctoral está enfocada al diseño de políticas óptimas de control de admis / Giménez Guzmán, JM. (2008). Modelos para el análisis y optimización del control de admisión en redes celulares [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2936
665

Un método de desarrollo de hipermedia dirigido por modelos

Solís Pineda, Carlos 22 December 2008 (has links)
Esta tesis presenta al Model Driven Hypermedia Development Method (MDHDM). MDHDM es un método de desarrollo de hipermedia basado en el modelado de procesos y la ingeniería dirigida por modelos. La conjunción de hipertexto y multimedia, por un lado, y la popularización de la Web, por otro, generaron desafíos que los métodos tradicionales no eran capaces de resolver. Entre ellos destaca el diseño y control de la navegación por espacios complejos de información, que ha llevado a los métodos de diseño de hipermedia y de la Ingeniería Web a presentar el modelo navegacional como la gran diferencia frente a los métodos tradicionales. Sin embargo, en la mayoría de los casos el modelo navegacional se deriva de los modelos estructurales. En MDHDM el eje central del modelado conceptual lo constituye el modelado del proceso de negocio, debido a que permiten representar la naturaleza dinámica de la realidad. El modelo navegacional de MDHDM está compuesto por las estructuras navegacionales derivadas del modelos de proceso y que son llamadas vistas navegacionales y enlaces fuertes. Este modelo se complementa con las estructuras navegacionales derivadas del modelo estructural compuesto por clases navegacionales, estructuras de acceso y enlaces débiles. En MDHDM se definen los metamodelos, transformaciones y marcas para poder generar automáticamente el modelo navegacional a partir de los modelos de proceso y estructural. Además, se comprueba la correcta construcción de los modelos a través de restricciones OCL. Los pasos siguientes al diseño navegacional: el diseño de la interfaz abstracta de usuario y la implementación también se abordan. Del primero se proporciona un metamodelo y para la implementación se han tratado algunos modelos específicos de la plataforma. Además, en la tesis se presentan dos casos de estudio. / Solís Pineda, C. (2008). Un método de desarrollo de hipermedia dirigido por modelos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3884
666

Arabic named entity recognition

Benajiba, Yassine 24 May 2010 (has links)
En esta tesis doctoral se describen las investigaciones realizadas con el objetivo de determinar las mejores tecnicas para construir un Reconocedor de Entidades Nombradas en Arabe. Tal sistema tendria la habilidad de identificar y clasificar las entidades nombradas que se encuentran en un texto arabe de dominio abierto. La tarea de Reconocimiento de Entidades Nombradas (REN) ayuda a otras tareas de Procesamiento del Lenguaje Natural (por ejemplo, la Recuperacion de Informacion, la Busqueda de Respuestas, la Traduccion Automatica, etc.) a lograr mejores resultados gracias al enriquecimiento que a~nade al texto. En la literatura existen diversos trabajos que investigan la tarea de REN para un idioma especifico o desde una perspectiva independiente del lenguaje. Sin embargo, hasta el momento, se han publicado muy pocos trabajos que estudien dicha tarea para el arabe. El arabe tiene una ortografia especial y una morfologia compleja, estos aspectos aportan nuevos desafios para la investigacion en la tarea de REN. Una investigacion completa del REN para elarabe no solo aportaria las tecnicas necesarias para conseguir un alto rendimiento, sino que tambien proporcionara un analisis de los errores y una discusion sobre los resultados que benefician a la comunidad de investigadores del REN. El objetivo principal de esta tesis es satisfacer esa necesidad. Para ello hemos: 1. Elaborado un estudio de los diferentes aspectos del arabe relacionados con dicha tarea; 2. Analizado el estado del arte del REN; 3. Llevado a cabo una comparativa de los resultados obtenidos por diferentes tecnicas de aprendizaje automatico; 4. Desarrollado un metodo basado en la combinacion de diferentes clasificadores, donde cada clasificador trata con una sola clase de entidades nombradas y emplea el conjunto de caracteristicas y la tecnica de aprendizaje automatico mas adecuados para la clase de entidades nombradas en cuestion. Nuestros experimentos han sido evaluados sobre nueve conjuntos de test. / Benajiba, Y. (2009). Arabic named entity recognition [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8318
667

Diseño óptimo de tableros isostáticos de vigas artesas prefabricadas pretensadas

Martí Albiñana, José Vicente 13 October 2010 (has links)
Los tableros de vigas prefabricadas de hormigón pretensado se utilizan habitualmente en todo el mundo para resolver estructuras de viaductos y de pasos superiores sobre carreteras. Son escasos los trabajos de inestigación encaminados a la optimización económica de estas estructuras, donde la mayoría se han centrado en la reducción de las fuerzas de pretensado y han padecido de un signo considerablemente teórico, sin mejorar el aprovechamiento de los recursos que requieren, lo que ha dificultado su aplicación sobre los proyectos de ejecución. En la búsqueda bibliográfica, no se ha encontrado trabajo alguno enfocado a la optimización heurística económica de este tipo de estructuras. Ante el hueco existente en el espectro de la investigación, el enfoque de este trabajo está basado en la aplicación de distintas técnicas de optimización económica a esta tipología. Se han elegido técnicas metaheurísticas para poder plantear el problema lo más completo posible, donde se define todo el tablero y sus armados, y se realizan las comprobaciones que marca la normativa española. Se han analizado diferentes proyectos con esta tipología estructural, donde se han estudiado diseños de vigas artesa de distintos fabricantes, elegiendo una de ellas como modelo para realizar el presente estudio, y dejando la opción para adaptar la tipología a cualquiera de los otros diseños que se fabrican. A continuación se ha desarrollado un programa informatico en lenguage FORTRAN que incluye diferentes módulos: generación de la estructura, comprobación estructural y evaluación económica. El estudio se realiza sobre un tablero de 12 metros de ancho, con 11 de calzada, luz entre apoyos de 35 metros, y separación entre vigas de 6 metros. El estudio de los métodos heurísticos sobre el tablero, se realiza mediante la comparación de ocho distintos tipos de algoritmos: la estrategia de saltos múltiples aleatorios (RW), tres métodos de búsqueda local y cuatro de búsqueda poblacional. / Martí Albiñana, JV. (2010). Diseño óptimo de tableros isostáticos de vigas artesas prefabricadas pretensadas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8640
668

Complex negotiations in multi-agent systems

Sánchez Anguix, Víctor 15 February 2013 (has links)
Los sistemas multi-agente (SMA) son sistemas distribuidos donde entidades autónomas llamadas agentes, ya sean humanos o software, persiguen sus propios objetivos. El paradigma de SMA ha sido propuesto como la aproximación de modelo apropiada para aplicaciones como el comercio electrónico, los sistemas multi-robot, aplicaciones de seguridad, etc. En la comunidad de SMA, la visión de sistemas multi-agente abiertos, donde agentes heterogéneos pueden entrar y salir del sistema dinámicamente, ha cobrado fuerza como paradigma de modelado debido a su relación conceptual con tecnologías como la Web, la computación grid, y las organizaciones virtuales. Debido a la heterogeneidad de los agentes, y al hecho de dirigirse por sus propios objetivos, el conflicto es un fenómeno candidato a aparecer en los sistemas multi-agente. En los últimos años, el término tecnologías del acuerdo ha sido usado para referirse a todos aquellos mecanismos que, directa o indirectamente, promueven la resolución de conflictos en sistemas computacionales como los sistemas multi-agente. Entre las tecnologías del acuerdo, la negociación automática ha sido propuesta como uno de los mecanismos clave en la resolución de conflictos debido a su uso análogo en la resolución de conflictos entre humanos. La negociación automática consiste en el intercambio automático de propuestas llevado a cabo por agentes software en nombre de sus usuarios. El objetivo final es conseguir un acuerdo con todas las partes involucradas. Pese a haber sido estudiada por la Inteligencia Artificial durante años, distintos problemas todavía no han sido resueltos por la comunidad científica todavía. El principal objetivo de esta tesis es proponer modelos de negociación para escenarios complejos donde la complejidad deriva de (1) las limitaciones computacionales o (ii) la necesidad de representar las preferencias de múltiples individuos. En la primera parte de esta tesis proponemos un modelo de negociación bilateral para el problema de / Sánchez Anguix, V. (2013). Complex negotiations in multi-agent systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/21570
669

PERFORMANCE IMPROVEMENT OF MULTICHANNEL AUDIO BY GRAPHICS PROCESSING UNITS

Belloch Rodríguez, José Antonio 06 October 2014 (has links)
Multichannel acoustic signal processing has undergone major development in recent years due to the increased complexity of current audio processing applications. People want to collaborate through communication with the feeling of being together and sharing the same environment, what is considered as Immersive Audio Schemes. In this phenomenon, several acoustic e ects are involved: 3D spatial sound, room compensation, crosstalk cancelation, sound source localization, among others. However, high computing capacity is required to achieve any of these e ects in a real large-scale system, what represents a considerable limitation for real-time applications. The increase of the computational capacity has been historically linked to the number of transistors in a chip. However, nowadays the improvements in the computational capacity are mainly given by increasing the number of processing units, i.e expanding parallelism in computing. This is the case of the Graphics Processing Units (GPUs), that own now thousands of computing cores. GPUs were traditionally related to graphic or image applications, but new releases in the GPU programming environments, CUDA or OpenCL, allowed that most applications were computationally accelerated in elds beyond graphics. This thesis aims to demonstrate that GPUs are totally valid tools to carry out audio applications that require high computational resources. To this end, di erent applications in the eld of audio processing are studied and performed using GPUs. This manuscript also analyzes and solves possible limitations in each GPU-based implementation both from the acoustic point of view as from the computational point of view. In this document, we have addressed the following problems: Most of audio applications are based on massive ltering. Thus, the rst implementation to undertake is a fundamental operation in the audio processing: the convolution. It has been rst developed as a computational kernel and afterwards used for an application that combines multiples convolutions concurrently: generalized crosstalk cancellation and equalization. The proposed implementation can successfully manage two di erent and common situations: size of bu ers that are much larger than the size of the lters and size of bu ers that are much smaller than the size of the lters. Two spatial audio applications that use the GPU as a co-processor have been developed from the massive multichannel ltering. First application deals with binaural audio. Its main feature is that this application is able to synthesize sound sources in spatial positions that are not included in the database of HRTF and to generate smoothly movements of sound sources. Both features were designed after di erent tests (objective and subjective). The performance regarding number of sound source that could be rendered in real time was assessed on GPUs with di erent GPU architectures. A similar performance is measured in a Wave Field Synthesis system (second spatial audio application) that is composed of 96 loudspeakers. The proposed GPU-based implementation is able to reduce the room e ects during the sound source rendering. A well-known approach for sound source localization in noisy and reverberant environments is also addressed on a multi-GPU system. This is the case of the Steered Response Power with Phase Transform (SRPPHAT) algorithm. Since localization accuracy can be improved by using high-resolution spatial grids and a high number of microphones, accurate acoustic localization systems require high computational power. The solutions implemented in this thesis are evaluated both from localization and from computational performance points of view, taking into account different acoustic environments, and always from a real-time implementation perspective. Finally, This manuscript addresses also massive multichannel ltering when the lters present an In nite Impulse Response (IIR). Two cases are analyzed in this manuscript: 1) IIR lters composed of multiple secondorder sections, and 2) IIR lters that presents an allpass response. Both cases are used to develop and accelerate two di erent applications: 1) to execute multiple Equalizations in a WFS system, and 2) to reduce the dynamic range in an audio signal. / Belloch Rodríguez, JA. (2014). PERFORMANCE IMPROVEMENT OF MULTICHANNEL AUDIO BY GRAPHICS PROCESSING UNITS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/40651 / Premios Extraordinarios de tesis doctorales
670

Efficient and elastic management of computing infrastructures

Alfonso Laguna, Carlos de 23 October 2016 (has links)
Tesis por compendio / [EN] Modern data centers integrate a lot of computer and electronic devices. However, some reports state that the mean usage of a typical data center is around 50% of its peak capacity, and the mean usage of each server is between 10% and 50%. A lot of energy is destined to power on computer hardware that most of the time remains idle. Therefore, it would be possible to save energy simply by powering off those parts from the data center that are not actually used, and powering them on again as they are needed. Most data centers have computing clusters that are used for intensive computing, recently evolving towards an on-premises Cloud service model. Despite the use of low consuming components, higher energy savings can be achieved by dynamically adapting the system to the actual workload. The main approach in this case is the usage of energy saving criteria for scheduling the jobs or the virtual machines into the working nodes. The aim is to power off idle servers automatically. But it is necessary to schedule the power management of the servers in order to minimize the impact on the end users and their applications. The objective of this thesis is the elastic and efficient management of cluster infrastructures, with the aim of reducing the costs associated to idle components. This objective is addressed by automating the power management of the working nodes in a computing cluster, and also proactive stimulating the load distribution to achieve idle resources that could be powered off by means of memory overcommitment and live migration of virtual machines. Moreover, this automation is of interest for virtual clusters, as they also suffer from the same problems. While in physical clusters idle working nodes waste energy, in the case of virtual clusters that are built from virtual machines, the idle working nodes can waste money in commercial Clouds or computational resources in an on-premises Cloud. / [ES] En los Centros de Procesos de Datos (CPD) existe una gran concentración de dispositivos informáticos y de equipamiento electrónico. Sin embargo, algunos estudios han mostrado que la utilización media de los CPD está en torno al 50%, y que la utilización media de los servidores se encuentra entre el 10% y el 50%. Estos datos evidencian que existe una gran cantidad de energía destinada a alimentar equipamiento ocioso, y que podríamos conseguir un ahorro energético simplemente apagando los componentes que no se estén utilizando. En muchos CPD suele haber clusters de computadores que se utilizan para computación de altas prestaciones y para la creación de Clouds privados. Si bien se ha tratado de ahorrar energía utilizando componentes de bajo consumo, también es posible conseguirlo adaptando los sistemas a la carga de trabajo en cada momento. En los últimos años han surgido trabajos que investigan la aplicación de criterios energéticos a la hora de seleccionar en qué servidor, de entre los que forman un cluster, se debe ejecutar un trabajo o alojar una máquina virtual. En muchos casos se trata de conseguir equipos ociosos que puedan ser apagados, pero habitualmente se asume que dicho apagado se hace de forma automática, y que los equipos se encienden de nuevo cuando son necesarios. Sin embargo, es necesario hacer una planificación de encendido y apagado de máquinas para minimizar el impacto en el usuario final. En esta tesis nos planteamos la gestión elástica y eficiente de infrastructuras de cálculo tipo cluster, con el objetivo de reducir los costes asociados a los componentes ociosos. Para abordar este problema nos planteamos la automatización del encendido y apagado de máquinas en los clusters, así como la aplicación de técnicas de migración en vivo y de sobreaprovisionamiento de memoria para estimular la obtención de equipos ociosos que puedan ser apagados. Además, esta automatización es de interés para los clusters virtuales, puesto que también sufren el problema de los componentes ociosos, sólo que en este caso están compuestos por, en lugar de equipos físicos que gastan energía, por máquinas virtuales que gastan dinero en un proveedor Cloud comercial o recursos en un Cloud privado. / [CA] En els Centres de Processament de Dades (CPD) hi ha una gran concentració de dispositius informàtics i d'equipament electrònic. No obstant això, alguns estudis han mostrat que la utilització mitjana dels CPD està entorn del 50%, i que la utilització mitjana dels servidors es troba entre el 10% i el 50%. Estes dades evidencien que hi ha una gran quantitat d'energia destinada a alimentar equipament ociós, i que podríem aconseguir un estalvi energètic simplement apagant els components que no s'estiguen utilitzant. En molts CPD sol haver-hi clusters de computadors que s'utilitzen per a computació d'altes prestacions i per a la creació de Clouds privats. Si bé s'ha tractat d'estalviar energia utilitzant components de baix consum, també és possible aconseguir-ho adaptant els sistemes a la càrrega de treball en cada moment. En els últims anys han sorgit treballs que investiguen l'aplicació de criteris energètics a l'hora de seleccionar en quin servidor, d'entre els que formen un cluster, s'ha d'executar un treball o allotjar una màquina virtual. En molts casos es tracta d'aconseguir equips ociosos que puguen ser apagats, però habitualment s'assumix que l'apagat es fa de forma automàtica, i que els equips s'encenen novament quan són necessaris. No obstant això, és necessari fer una planificació d'encesa i apagat de màquines per a minimitzar l'impacte en l'usuari final. En esta tesi ens plantegem la gestió elàstica i eficient d'infrastructuras de càlcul tipus cluster, amb l'objectiu de reduir els costos associats als components ociosos. Per a abordar este problema ens plantegem l'automatització de l'encesa i apagat de màquines en els clusters, així com l'aplicació de tècniques de migració en viu i de sobreaprovisionament de memòria per a estimular l'obtenció d'equips ociosos que puguen ser apagats. A més, esta automatització és d'interés per als clusters virtuals, ja que també patixen el problema dels components ociosos, encara que en este cas estan compostos per, en compte d'equips físics que gasten energia, per màquines virtuals que gasten diners en un proveïdor Cloud comercial o recursos en un Cloud privat. / Alfonso Laguna, CD. (2015). Efficient and elastic management of computing infrastructures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/57187 / Compendio

Page generated in 0.1264 seconds