• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 6
  • 1
  • Tagged with
  • 49
  • 15
  • 15
  • 15
  • 15
  • 15
  • 10
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Optimización de arquitecturas distribuidas para el procesado de datos masivos

Herrera Hernández, José 02 September 2020 (has links)
[ES] La utilización de sistemas para el tratamiento eficiente de grandes volúmenes de información ha crecido en popularidad durante los últimos años. Esto conlleva el desarrollo de nuevas tecnologías, métodos y algoritmos, que permitan un uso eficiente de las infraestructuras. El tratamiento de grandes volúmenes de información no está exento de numerosos problemas y retos, algunos de los cuales se tratarán de mejorar. Dentro de las posibilidades actuales debemos tener en cuenta la evolución que han tenido los sistemas durante los últimos años y las oportunidades de mejora que existan en cada uno de ellos. El primer sistema de estudio, el Grid, constituye una aproximación inicial de procesamiento masivo y representa uno de los primeros sistemas distribuidos de tratamiento de grandes conjuntos de datos. Participando en la modernización de uno de los mecanismos de acceso a los datos se facilita la mejora de los tratamientos que se realizan en la genómica actual. Los estudios que se presentan están centrados en la transformada de Burrows-Wheeler, que ya es conocida en el análisis genómico por su capacidad para mejorar los tiempos en el alineamiento de cadenas cortas de polinucleótidos. Esta mejora en los tiempos, se perfecciona mediante la reducción de los accesos remotos con la utilización de un sistema de caché intermedia que optimiza su ejecución en un sistema Grid ya consolidado. Esta caché se implementa como complemento a la librería de acceso estándar GFAL utilizada en la infraestructura de IberGrid. En un segundo paso se plantea el tratamiento de los datos en arquitecturas de Big Data. Las mejoras se realizan tanto en la arquitectura Lambda como Kappa mediante la búsqueda de métodos para tratar grandes volúmenes de información multimedia. Mientras que en la arquitectura Lambda se utiliza Apache Hadoop como tecnología para este tratamiento, en la arquitectura Kappa se utiliza Apache Storm como sistema de computación distribuido en tiempo real. En ambas arquitecturas se amplía el ámbito de utilización y se optimiza la ejecución mediante la aplicación de algoritmos que mejoran los problemas en cada una de las tecnologías. El problema del volumen de datos es el centro de un último escalón, por el que se permite mejorar la arquitectura de microservicios. Teniendo en cuenta el número total de nodos que se ejecutan en sistemas de procesamiento tenemos una aproximación de las magnitudes que podemos obtener para el tratamiento de grandes volúmenes. De esta forma, la capacidad de los sistemas para aumentar o disminuir su tamaño permite un gobierno óptimo. Proponiendo un sistema bioinspirado se aporta un método de autoescalado dinámico y distribuido que mejora el comportamiento de los métodos comúnmente utilizados frente a las circunstancias cambiantes no predecibles. Las tres magnitudes clave del Big Data, también conocidas como V's, están representadas y mejoradas: velocidad, enriqueciendo los sistemas de acceso de datos por medio de una reducción de los tiempos de tratamiento de las búsquedas en los sistemas Grid bioinformáticos; variedad, utilizando sistemas multimedia menos frecuentes que los basados en datos tabulares; y por último, volumen, incrementando las capacidades de autoescalado mediante el aprovechamiento de contenedores software y algoritmos bioinspirados. / [CA] La utilització de sistemes per al tractament eficient de grans volums d'informació ha crescut en popularitat durant els últims anys. Açò comporta el desenvolupament de noves tecnologies, mètodes i algoritmes, que aconsellen l'ús eficient de les infraestructures. El tractament de grans volums d'informació no està exempt de nombrosos problemes i reptes, alguns dels quals es tractaran de millorar. Dins de les possibilitats actuals hem de tindre en compte l'evolució que han tingut els sistemes durant els últims anys i les ocasions de millora que existisquen en cada un d'ells. El primer sistema d'estudi, el Grid, constituïx una aproximació inicial de processament massiu i representa un dels primers sistemes de tractament distribuït de grans conjunts de dades. Participant en la modernització d'un dels mecanismes d'accés a les dades es facilita la millora dels tractaments que es realitzen en la genòmica actual. Els estudis que es presenten estan centrats en la transformada de Burrows-Wheeler, que ja és coneguda en l'anàlisi genòmica per la seua capacitat per a millorar els temps en l'alineament de cadenes curtes de polinucleòtids. Esta millora en els temps, es perfecciona per mitjà de la reducció dels accessos remots amb la utilització d'un sistema de memòria cau intermèdia que optimitza la seua execució en un sistema Grid ja consolidat. Esta caché s'implementa com a complement a la llibreria d'accés estàndard GFAL utilitzada en la infraestructura d'IberGrid. En un segon pas es planteja el tractament de les dades en arquitectures de Big Data. Les millores es realitzen tant en l'arquitectura Lambda com a Kappa per mitjà de la busca de mètodes per a tractar grans volums d'informació multimèdia. Mentre que en l'arquitectura Lambda s'utilitza Apache Hadoop com a tecnologia per a este tractament, en l'arquitectura Kappa s'utilitza Apache Storm com a sistema de computació distribuït en temps real. En ambdós arquitectures s'àmplia l'àmbit d'utilització i s'optimitza l'execució per mitjà de l'aplicació d'algoritmes que milloren els problemes en cada una de les tecnologies. El problema del volum de dades és el centre d'un últim escaló, pel qual es permet millorar l'arquitectura de microserveis. Tenint en compte el nombre total de nodes que s'executen en sistemes de processament tenim una aproximació de les magnituds que podem obtindre per al tractaments de grans volums. D'aquesta manera la capacitat dels sistemes per a augmentar o disminuir la seua dimensió permet un govern òptim. Proposant un sistema bioinspirat s'aporta un mètode d'autoescalat dinàmic i distribuït que millora el comportament dels mètodes comunment utilitzats enfront de les circumstàncies canviants no predictibles. Les tres magnituds clau del Big Data, també conegudes com V's, es troben representades i millorades: velocitat, enriquint els sistemes d'accés de dades per mitjà d'una reducció dels temps de tractament de les busques en els sistemes Grid bioinformàtics; varietat, utilitzant sistemes multimèdia menys freqüents que els basats en dades tabulars; i finalment, volum, incrementant les capacitats d'autoescalat per mitjà de l'aprofitament de contenidors i algoritmes bioinspirats. / [EN] The use of systems for the efficient treatment of large data volumes has grown in popularity during the last few years. This has led to the development of new technologies, methods and algorithms to efficiently use of infrastructures. The Big Data treatment is not exempt from numerous problems and challenges, some of which will be attempted to improve. Within the existing possibilities, we must take into account the evolution that systems have had during the last years and the improvement that exists in each one. The first system of study, the Grid, constitutes an initial approach of massive distributed processing and represents one of the first treatment systems of big data sets. By researching in the modernization of the data access mechanisms, the advance of the treatments carried out in current genomics is facilitated. The studies presented are centred on the Burrows-Wheeler Transform, which is already known in genomic analysis for its ability to improve alignment times of short polynucleotids chains. This time, the update is enhanced by reducing remote accesses by using an intermediate cache system that optimizes its execution in an already consolidated Grid system. This cache is implemented as a GFAL standard file access library complement used in IberGrid infrastructure. In a second step, data processing in Big Data architectures is considered. Improvements are made in both the Lambda and Kappa architectures searching for methods to process large volumes of multimedia information. For the Lambda architecture, Apache Hadoop is used as the main processing technology, while for the Kappa architecture, Apache Storm is used as a real time distributed computing system. In both architectures the use scope is extended and the execution is optimized applying algorithms that improve problems for each technology. The last step is focused on the data volume problem, which allows the improvement of the microservices architecture. The total number of nodes running in a processing system provides a measure for the capacity of processing large data volumes. This way, the ability to increase and decrease capacity allows optimal governance. By proposing a bio-inspired system, a dynamic and distributed self-scaling method is provided improving common methods when facing unpredictable workloads. The three key magnitudes of Big Data, also known as V's, will be represented and improved: speed, enriching data access systems by reducing search processing times in bioinformatic Grid systems; variety, using multimedia data less used than tabular data; and finally, volume, increasing self-scaling capabilities using software containers and bio-inspired algorithms. / Herrera Hernández, J. (2020). Optimización de arquitecturas distribuidas para el procesado de datos masivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149374 / TESIS
42

Análisis comparativo del comportamiento inelástico de un pabellón educativo con aislamiento sísmico diseñado en concreto armado y acero estructural

Goñi Vega, David Hernán 06 December 2021 (has links)
La presente investigación consiste en la evaluación del comportamiento inelástico de un pabellón educativo con aislamiento sísmico diseñado en concreto armado y acero estructural. Además, se pretende revisar el desempeño y capacidad de ductilidad a partir del comparativo entre sistemas estructurales. La investigación comienza con el desarrollo los modelos estructurales para el pabellón educativo con aisladores elastoméricos de núcleo de plomo, e introducir las propiedades inelásticas de los elementos, para lo cual se utilizará los diagramas momento-curvatura de cada sección que requiera ser analizada para cada sistema estructural. Seguido a ello, se realizan los análisis no lineales: el análisis estático no lineal y el análisis dinámico no lineal. El primero corresponde a exponer a los sistemas estructurales a cargas monotónicas; y el segundo, expone a las estructuras a registros sísmicos reales, los cuales deben ser debidamente escalados. Finalmente, se determina el comportamiento estructural, la secuencia de agotamiento de las secciones de cada sistema estructural con y sin aislador, y el desempeño inelástico de cada propuesta estructural con base aislada, el cual debe ser funcional frente a un sismo raro de acuerdo a lo indicado por el comité VISION 2000. La finalidad de la presente investigación es demostrar cuál de los sistemas estructurales, sobre un sistema de aislamiento sísmico, tendrá un mejor comportamiento inelástico.
43

Modelo elastoplástico para la estimación de la capacidad por corte de muros de ladrillo pandereta

Díaz Esquivel, Christian Manuel 14 June 2021 (has links)
Durante las últimas décadas, muchas personas han construido sus viviendas sin supervisión alguna de un ingeniero civil. Asimismo, se ha decidido emplear unidades que no son adecuadas para muros portantes y estas unidades son los ladrillos tubulares o ladrillos pandereta. La presente investigación se enfocó en analizar la información recogida y sistematizada sobre ensayos realizados en ladrillos pandereta en nuestro país. Se presentó la información relevante de todas las investigaciones como resistencia característica a corte puro, resistencia característica a compresión axial de unidades, resistencia característica a compresión axial y curvas de capacidad. Asimismo, se pudo establecer curvas de capacidad simplificadas identificando tres puntos notables: agrietamiento diagonal, resistencia máxima y resistencia última. Con esta información, se pudo realizar comparaciones para determinar el incremento de resistencia por el uso de malla electrosoldada. Se propuso, preliminarmente, un modelo elastoplástico para la estimación de la capacidad por corte de muros de ladrillo pandereta con y sin refuerzo sísmico exterior de malla electrosoldada. También, se correlacionaron valores obtenidos de unidades, pilas y muretes de ladrillo pandereta. La metodología de esta tesis comprendió la revisión amplia de referencias bibliográficas peruanas y normas internacionales (México y Colombia), la evaluación de resultados obtenidos en ensayos experimentales previos y la determinación de un modelo elastoplástico para la estimación de la capacidad por corte sobre la base de la revisión de la NTE E.070 Albañilería (2006) y la propuesta de la NTE E.070 Albañilería (2020). En las conclusiones, se corroboró que la malla electrosoldada cambia el tipo de falla de frágil a dúctil en pilas y muretes y que la resistencia a corte de un muro reforzado preliminarmente resultó ser la misma que la que señala la NTE E.070 Albañilería (2006). Sin embargo, no se puede garantizar que tenga el mismo daño que un muro de ladrillo sólido o hueco reforzado con malla electrosoldada.
44

Diseño de disipadores de energía metálicos para una edificación de baja altura de concreto armado

Segovia David, Juan Carlos 20 July 2016 (has links)
La filosofía de la mayoría de normas de diseño sismorresistente señala que frente a un sismo severo la edificación no colapse y frente a sismos moderados sufran daños reparables. Pero se ha evidenciado que muchas edificaciones sufren daños irreparables frente a sismos moderados y colapso total frente a sismos severos. Los sistemas de protección sísmica resultan una buena alternativa para reducir los daños estructurales empleando diversos mecanismos, uno de estos son los disipadores de energía metálicos. En esta tesis se muestra el reforzamiento con disipadores de energía metálicos tipo ADAS en un edificio de cinco niveles de concreto armado en Lima. Se revisaron las principales propiedades y principios del disipador, posteriormente se modelaron las vigas, columnas y muros de concreto armado con propiedades no lineales basadas en la metodología FEMA 356 y ASCE 41-06. Se utilizó el programa Perform 3D para realizar análisis dinámico no lineal tiempo historia empleando registros de aceleraciones de Lima y escalados a un valor de PGA igual a 0.5g. Los resultados mostraron que la estructura reforzada con disipadores tiene una reducción variable de los desplazamientos laterales llegando a ser un 53% (ultimo nivel) como máximo en el centro de masas (C.M.). En los muros de concreto se consiguió reducir la deformación inelástica del acero de refuerzo, llegando hasta un 70% como máximo y tener un comportamiento lineal por corte. También se observó un cambio en la energía distribución y en los periodos de la edificación, Se demostró que los disipadores ADAS producen una disminución de deformaciones en la estructura reduciendo los daños estructurales. / Tesis
45

StreamCloud: un moteur de traitement de streams parallèle et distribué

Gulisano, Vincenzo 20 December 2012 (has links) (PDF)
En los útimos años, aplicaciones en dominios tales como telecomunicaciones, seguridad de redes y redes de sensores de gran escala se han encontrado con múltiples limitaciones en el paradigma tradicional de bases de datos. En este contexto, los sistemas de procesamiento de flujos de datos han emergido como solución a estas aplicaciones que demandan una alta capacidad de procesamiento con una baja latencia. En los sistemas de procesamiento de flujos de datos, los datos no se persisten y luego se procesan, en su lugar los datos son procesados al vuelo en memoria produciendo resultados de forma continua. Los actuales sistemas de procesamiento de flujos de datos, tanto los centralizados, como los distribuidos, no escalan respecto a la carga de entrada del sistema debido a un cuello de botella producido por la concentración de flujos de datos completos en nodos individuales. Por otra parte, éstos están basados en configuraciones estáticas lo que conducen a un sobre o bajo aprovisionamiento. Esta tesis doctoral presenta StreamCloud, un sistema elástico paralelo-distribuido para el procesamiento de flujos de datos que es capaz de procesar grandes volúmenes de datos. StreamCloud minimiza el coste de distribución y paralelización por medio de una técnica novedosa la cual particiona las queries en subqueries paralelas repartiéndolas en subconjuntos de nodos independientes. Ademas, Stream- Cloud posee protocolos de elasticidad y equilibrado de carga que permiten una optimización de los recursos dependiendo de la carga del sistema. Unidos a los protocolos de paralelización y elasticidad, StreamCloud define un protocolo de tolerancia a fallos que introduce un coste mínimo mientras que proporciona una rápida recuperación. StreamCloud ha sido implementado y evaluado mediante varias aplicaciones del mundo real tales como aplicaciones de detección de fraude o aplicaciones de análisis del tráfico de red. La evaluación ha sido realizada en un cluster con más de 300 núcleos, demostrando la alta escalabilidad y la efectividad tanto de la elasticidad, como de la tolerancia a fallos de StreamCloud.
46

Factores determinantes y elasticidad ingreso de la demanda por servicios de educación superior en Perú

Maldonado Rojas, Ariana Ximena 10 November 2021 (has links)
La presente investigación busca determinar el efecto de un aumento en el nivel de ingresos sobre la demanda por educación superior de los hogares peruanos diferenciado por estratos socioeconómicos. El análisis se divide en dos etapas, la primera consiste en estimar los determinantes del gasto en educación implementando una metodología TOBIT con el fin de evidenciar qué factor tiene un mayor efecto; posteriormente al contar con la información de que el gasto del hogar es el determinante decisivo, tal y como se menciona en la literatura, se analizaron las elasticidades ingreso de la demanda por educación por distintos grupos de ingreso. La investigación concluye que el gasto en el hogar es el factor que tiene mayor efecto en asignar gasto a la educación; asimismo, se evidencia que a medida va aumentando el nivel de ingresos, mayor es la elasticidad ingreso; sin embargo, al llegar a cierto punto de ingresos, esta va a empezar a disminuir. / This research project aims to determine the effect of an increase in the level of income on the demand for higher education in Peruvian households, differentiated by socioeconomic strata. The analysis is divided into two parts. First, a TOBIT methodology is applied to estimates the determinants of spending on education in order to show which factor has a greater effect. Afterwards, having the information that household spending is the decisive determinant, as mentioned in the literature, the income elasticities of the demand for education by different income groups were analyzed. The results concludes that household spending is the factor that has the greatest effect on allocating spending to education. Likewise, it is evidenced that as the level of income increases, the income elasticity increases too. However, upon reaching a certain point of income level, this will begin to decrease. / Trabajo de investigación
47

Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing

López Huguet, Sergio 02 September 2021 (has links)
Tesis por compendio / [ES] Las aplicaciones científicas implican generalmente una carga computacional variable y no predecible a la que las instituciones deben hacer frente variando dinámicamente la asignación de recursos en función de las distintas necesidades computacionales. Las aplicaciones científicas pueden necesitar grandes requisitos. Por ejemplo, una gran cantidad de recursos computacionales para el procesado de numerosos trabajos independientes (High Throughput Computing o HTC) o recursos de alto rendimiento para la resolución de un problema individual (High Performance Computing o HPC). Los recursos computacionales necesarios en este tipo de aplicaciones suelen acarrear un coste muy alto que puede exceder la disponibilidad de los recursos de la institución o estos pueden no adaptarse correctamente a las necesidades de las aplicaciones científicas, especialmente en el caso de infraestructuras preparadas para la ejecución de aplicaciones de HPC. De hecho, es posible que las diferentes partes de una aplicación necesiten distintos tipos de recursos computacionales. Actualmente las plataformas de servicios en la nube se han convertido en una solución eficiente para satisfacer la demanda de las aplicaciones HTC, ya que proporcionan un abanico de recursos computacionales accesibles bajo demanda. Por esta razón, se ha producido un incremento en la cantidad de clouds híbridos, los cuales son una combinación de infraestructuras alojadas en servicios en la nube y en las propias instituciones (on-premise). Dado que las aplicaciones pueden ser procesadas en distintas infraestructuras, actualmente la portabilidad de las aplicaciones se ha convertido en un aspecto clave. Probablemente, las tecnologías de contenedores son la tecnología más popular para la entrega de aplicaciones gracias a que permiten reproducibilidad, trazabilidad, versionado, aislamiento y portabilidad. El objetivo de la tesis es proporcionar una arquitectura y una serie de servicios para proveer infraestructuras elásticas híbridas de procesamiento que puedan dar respuesta a las diferentes cargas de trabajo. Para ello, se ha considerado la utilización de elasticidad vertical y horizontal desarrollando una prueba de concepto para proporcionar elasticidad vertical y se ha diseñado una arquitectura cloud elástica de procesamiento de Análisis de Datos. Después, se ha trabajo en una arquitectura cloud de recursos heterogéneos de procesamiento de imágenes médicas que proporciona distintas colas de procesamiento para trabajos con diferentes requisitos. Esta arquitectura ha estado enmarcada en una colaboración con la empresa QUIBIM. En la última parte de la tesis, se ha evolucionado esta arquitectura para diseñar e implementar un cloud elástico, multi-site y multi-tenant para el procesamiento de imágenes médicas en el marco del proyecto europeo PRIMAGE. Esta arquitectura utiliza un almacenamiento distribuido integrando servicios externos para la autenticación y la autorización basados en OpenID Connect (OIDC). Para ello, se ha desarrollado la herramienta kube-authorizer que, de manera automatizada y a partir de la información obtenida en el proceso de autenticación, proporciona el control de acceso a los recursos de la infraestructura de procesamiento mediante la creación de las políticas y roles. Finalmente, se ha desarrollado otra herramienta, hpc-connector, que permite la integración de infraestructuras de procesamiento HPC en infraestructuras cloud sin necesitar realizar cambios en la infraestructura HPC ni en la arquitectura cloud. Cabe destacar que, durante la realización de esta tesis, se han utilizado distintas tecnologías de gestión de trabajos y de contenedores de código abierto, se han desarrollado herramientas y componentes de código abierto y se han implementado recetas para la configuración automatizada de las distintas arquitecturas diseñadas desde la perspectiva DevOps. / [CA] Les aplicacions científiques impliquen generalment una càrrega computacional variable i no predictible a què les institucions han de fer front variant dinàmicament l'assignació de recursos en funció de les diferents necessitats computacionals. Les aplicacions científiques poden necessitar grans requisits. Per exemple, una gran quantitat de recursos computacionals per al processament de nombrosos treballs independents (High Throughput Computing o HTC) o recursos d'alt rendiment per a la resolució d'un problema individual (High Performance Computing o HPC). Els recursos computacionals necessaris en aquest tipus d'aplicacions solen comportar un cost molt elevat que pot excedir la disponibilitat dels recursos de la institució o aquests poden no adaptar-se correctament a les necessitats de les aplicacions científiques, especialment en el cas d'infraestructures preparades per a l'avaluació d'aplicacions d'HPC. De fet, és possible que les diferents parts d'una aplicació necessiten diferents tipus de recursos computacionals. Actualment les plataformes de servicis al núvol han esdevingut una solució eficient per satisfer la demanda de les aplicacions HTC, ja que proporcionen un ventall de recursos computacionals accessibles a demanda. Per aquest motiu, s'ha produït un increment de la quantitat de clouds híbrids, els quals són una combinació d'infraestructures allotjades a servicis en el núvol i a les mateixes institucions (on-premise). Donat que les aplicacions poden ser processades en diferents infraestructures, actualment la portabilitat de les aplicacions s'ha convertit en un aspecte clau. Probablement, les tecnologies de contenidors són la tecnologia més popular per a l'entrega d'aplicacions gràcies al fet que permeten reproductibilitat, traçabilitat, versionat, aïllament i portabilitat. L'objectiu de la tesi és proporcionar una arquitectura i una sèrie de servicis per proveir infraestructures elàstiques híbrides de processament que puguen donar resposta a les diferents càrregues de treball. Per a això, s'ha considerat la utilització d'elasticitat vertical i horitzontal desenvolupant una prova de concepte per proporcionar elasticitat vertical i s'ha dissenyat una arquitectura cloud elàstica de processament d'Anàlisi de Dades. Després, s'ha treballat en una arquitectura cloud de recursos heterogenis de processament d'imatges mèdiques que proporciona distintes cues de processament per a treballs amb diferents requisits. Aquesta arquitectura ha estat emmarcada en una col·laboració amb l'empresa QUIBIM. En l'última part de la tesi, s'ha evolucionat aquesta arquitectura per dissenyar i implementar un cloud elàstic, multi-site i multi-tenant per al processament d'imatges mèdiques en el marc del projecte europeu PRIMAGE. Aquesta arquitectura utilitza un emmagatzemament integrant servicis externs per a l'autenticació i autorització basats en OpenID Connect (OIDC). Per a això, s'ha desenvolupat la ferramenta kube-authorizer que, de manera automatitzada i a partir de la informació obtinguda en el procés d'autenticació, proporciona el control d'accés als recursos de la infraestructura de processament mitjançant la creació de les polítiques i rols. Finalment, s'ha desenvolupat una altra ferramenta, hpc-connector, que permet la integració d'infraestructures de processament HPC en infraestructures cloud sense necessitat de realitzar canvis en la infraestructura HPC ni en l'arquitectura cloud. Es pot destacar que, durant la realització d'aquesta tesi, s'han utilitzat diferents tecnologies de gestió de treballs i de contenidors de codi obert, s'han desenvolupat ferramentes i components de codi obert, i s'han implementat receptes per a la configuració automatitzada de les distintes arquitectures dissenyades des de la perspectiva DevOps. / [EN] Scientific applications generally imply a variable and an unpredictable computational workload that institutions must address by dynamically adjusting the allocation of resources to their different computational needs. Scientific applications could require a high capacity, e.g. the concurrent usage of computational resources for processing several independent jobs (High Throughput Computing or HTC) or a high capability by means of using high-performance resources for solving complex problems (High Performance Computing or HPC). The computational resources required in this type of applications usually have a very high cost that may exceed the availability of the institution's resources or they are may not be successfully adapted to the scientific applications, especially in the case of infrastructures prepared for the execution of HPC applications. Indeed, it is possible that the different parts that compose an application require different type of computational resources. Nowadays, cloud service platforms have become an efficient solution to meet the need of HTC applications as they provide a wide range of computing resources accessible on demand. For this reason, the number of hybrid computational infrastructures has increased during the last years. The hybrid computation infrastructures are the combination of infrastructures hosted in cloud platforms and the computation resources hosted in the institutions, which are named on-premise infrastructures. As scientific applications can be processed on different infrastructures, the application delivery has become a key issue. Nowadays, containers are probably the most popular technology for application delivery as they ease reproducibility, traceability, versioning, isolation, and portability. The main objective of this thesis is to provide an architecture and a set of services to build up hybrid processing infrastructures that fit the need of different workloads. Hence, the thesis considered aspects such as elasticity and federation. The use of vertical and horizontal elasticity by developing a proof of concept to provide vertical elasticity on top of an elastic cloud architecture for data analytics. Afterwards, an elastic cloud architecture comprising heterogeneous computational resources has been implemented for medical imaging processing using multiple processing queues for jobs with different requirements. The development of this architecture has been framed in a collaboration with a company called QUIBIM. In the last part of the thesis, the previous work has been evolved to design and implement an elastic, multi-site and multi-tenant cloud architecture for medical image processing has been designed in the framework of a European project PRIMAGE. This architecture uses a storage integrating external services for the authentication and authorization based on OpenID Connect (OIDC). The tool kube-authorizer has been developed to provide access control to the resources of the processing infrastructure in an automatic way from the information obtained in the authentication process, by creating policies and roles. Finally, another tool, hpc-connector, has been developed to enable the integration of HPC processing infrastructures into cloud infrastructures without requiring modifications in both infrastructures, cloud and HPC. It should be noted that, during the realization of this thesis, different contributions to open source container and job management technologies have been performed by developing open source tools and components and configuration recipes for the automated configuration of the different architectures designed from the DevOps perspective. The results obtained support the feasibility of the vertical elasticity combined with the horizontal elasticity to implement QoS policies based on a deadline, as well as the feasibility of the federated authentication model to combine public and on-premise clouds. / López Huguet, S. (2021). Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172327 / TESIS / Compendio
48

Formulación material y espacial del modelo geometricamente exacto de piezas alargadas

Lázaro Fernández, Carlos Manuel 06 May 2008 (has links)
El análisis de la respuesta mecánica de piezas alargadas que experimentan grandes desplazamientos y rotaciones constituye un campo en el que se han producido avances significativos en las tres últimas décadas, tanto desde el punto de vista de la formulación de modelos físicos como de la búsqueda de soluciones numéricas. El ámbito de aplicación de este tipo de modelos se separa quizás del abanico de problemas de los que tradicionalmente se ha ocupado la ingeniería civil, aproximándose más a situaciones propias de otras disciplinas, como la aeronáutica, la robótica o la biomecánica. Dentro de la variedad de modelos en una dimensión desarrollados para el análisis no lineal de piezas alargadas, el propuesto por Simó como extensión del trabajo de Reissner es capaz de reproducir rotaciones arbitrariamente grandes de las secciones transversales. Su sencillez conceptual y la potencia de las soluciones numéricas basadas en él lo hanconvertido en referencia obligada y punto de partida de muchas investigaciones recientes. El propio Simó introdujo la denominación de \emph{modelo geométricamente exacto de piezas alargadas} para referirse a él. No obstante, el modelo de Reissner--Simó no está libre de dificultades. Éstas derivan principalmente del tratamiento exacto de las rotaciones, que exige trabajar en un espacio de configuraciones no lineal ni conmutativo. Esta tesis examina los fundamentos del modelo geométricamente exacto y su conexión con la teoría no lineal de la elasticidad. La relación entre variables materiales y espaciales a través de la transformación definida por la rotación de cada sección establece el método de análisis. En un primer paso se ha desarrollado completamente la cinemática del modelo y las ecuaciones de campo en sus dos facetas --material y espacial--, lo que ha permitido sistematizar el proceso deductivo y aportar algunos resultados teóricos novedosos. El análisis del problema desde el punto de vista variacional ha puesto de manifiesto las conexiones / Lázaro Fernández, CM. (2005). Formulación material y espacial del modelo geometricamente exacto de piezas alargadas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1872 / Palancia
49

Three Essays on Applied Microeconomics

Czinkán, Norbert 25 July 2017 (has links)
Es bien subido en la geografía económica que la distribución espacial de la población y las empresas está lejos de ser aleatoria, incluso después de controlar por características geográficas, como la existencia de recursos naturales, ríos, atraque marítimo o número de horas de sol en un año. Dentro de los países, observamos áreas muy densas con numerosas empresas locales activas con gran potencial de mercado y también lugares escasamente poblados. La aglomeración afecta a una amplia gama de fenómenos económicos que influyen en la vida cotidiana de los agentes económicos. Por ejemplo, la aglomeración puede causar mayores niveles de productividad para las empresas o mayores salarios para los trabajadores. Por otro lado, las áreas más densas también pueden sufrir los efectos de la congestión, que pueden dar lugar a elevados precios de alquiler y compra de vivienda, así como de otros bienes de consumo. La motivación subyacente de mi tesis es entender las relativamente menos estudiadas o nuevas consecuencias de las fuerzas de aglomeración. El principal objetivo de esta tesis es estimar el impacto de la aglomeración en los precios de los bienes raíces e investigar empíricamente el efecto de la densidad económica en la estabilidad del crecimiento de las empresas. La tesis también evalúa el impacto de esas fluctuaciones en la volatilidad del crecimiento agregado. La tesis contribuye al campo de la Microeconomía desde una perspectiva empírica, y se divide en tres capítulos separados. El objetivo del primer capítulo de la tesis es contrastar las implicaciones derivadas de una versión simplificada del modelo de renta ricardiana utilizando datos para Hungría. Según los principales resultados que obtenemos en este trabajo, un aumento de 10 puntos porcentuales en el crecimiento esperado de la población eleva los precios de la vivienda entre un 2 y un 8% según las diferentes especificaciones regionales. La magnitud de la población también influye significativamente: la elasticidad de los precios de la vivienda con respecto al tamaño de la ciudad varía de 0,065 a 0,21. La ubicación relativa es también un factor clave para determinar los precios de la vivienda: vivir un minuto más lejos del centro micro-regional disminuye un 2% el precio de la vivienda. El segundo capítulo investiga empíricamente el papel de la densidad económica en las fluctuaciones de las empresas. Según de los principales resultados de este segundo capítulo, la densidad de la actividad económica influye en la volatilidad de las empresas. La aglomeración, medida por la población local, el número de empresas o el número de trabajadores, afecta negativamente a la volatilidad del crecimiento de las ventas y el empleo de las empresas manufactureras húngaras durante los años 2000 y 2008. Estimamos una elasticidad negativa de la volatilidad de las empresas con respecto a la densidad, que implica que duplicar la densidad en un municipio o en una microrregión, mitiga las fluctuaciones de la empresa en torno a 2-11% dependiendo de las diferentes definiciones de aglomeración y técnicas econométricas. Para hacer controlar por la potencial endogeneidad de la aglomeración, debida a características de localización no observadas que simultáneamente atraen a las empresas y los trabajadores y alteran las fluctuaciones de las empresas, utilizamos un análisis de variables instrumentales análogo al de de Ciccone y Hall (1996) que utiliza valores históricos de la población local como instrumento para la densidad. Para aprovechar la estructura del panel de los datos, también utilizamos efectos fijos de empresa para controlar por las características inobservables que no varían en el tiempo. Ambos métodos llevan a la misma conclusión: niveles más altos de densidad económica local mitigan las fluctuaciones de las empresas. En el tercer capítulo se muestra que las fluctuaciones en las tasas de crecimiento de las empresas también tienen consecuencias a nivel agregado. Según los resultados, a nivel de la empresa, la gran mayoría de los shocks que afectan a las empresas son idiosincráticos, mientras que el componente macro-sectorial desempeña un papel relativamente menos importante para explicar el crecimiento de las ventas de la empresa. Curiosamente y lo más importante, esos shocks idiosincráticos no desaparecen a nivel de país. Además, la desviación estándar relativa del componente específico de la empresa es sorprendentemente alta: el 55,5% de las fluctuaciones agregadas puede explicarse por shocks idiosincráticos para toda la economía y 56,4% para el sector manufacturero. Estos resultados son robustos para diferentes definiciones de crecimiento y recorte y también a incorporar reacciones heterogéneas a los shocks. La contribución de la tesis al campo de la Microeconomía Aplicada es triple. En primer lugar, la comprensión de las consecuencias de la población (cambiante) sobre los precios de la vivienda es crucial, ya que la vivienda constituye la mayor parte de la riqueza de la mayoría de las familias. Los hallazgos, según los cuales una disminución de 10 puntos porcentuales del crecimiento esperado de la población disminuye los precios de la vivienda en un 2-10%, implica serias consecuencias para los mercados locales de vivienda a medio plazo, teniendo en cuenta que en muchos países se espera que ocurran cambios considerables a la estructura de edad con una distribución espacial desigual. Los asentamientos con menor población futura esperada, como las pequeñas aldeas en las zonas transdanúbianas del sur o en las regiones noreste de Hungría, tienden a tener precios de vivienda más bajos ya. Mientras tanto, los mercados inmobiliarios de los cinturones suburbanos en crecimiento disfrutan de un mayor nivel de precios debido a la creciente población esperada. No sólo el cambio, sino la magnitud de la población es crucial en la determinación de los precios de la vivienda, un factor mayormente y equivocadamente ignorado de los enfoques hedónicos. La elasticidad de la población en los precios de la vivienda está entre 0.065 y 0.21. Como predice la teoría ricardiana de la renta, la localización es también un factor clave para determinar los precios de la vivienda: vivir un minuto más lejos del centro micro-regional da como resultado un alojamiento más barato del 2%, sin embargo, la ubicación relativa a otros centros agregados, como a un condado o a una región, no tiene impacto en los precios de la vivienda. Las fuerzas de aglomeración también podrían tener un impacto positivo en los agentes económicos. La tesis da una nueva perspectiva de tales ventajas al proporcionar evidencia empírica sobre el efecto de la densidad económica sobre la estabilidad del crecimiento de las empresas. Los resultados indican que duplicar la población local, o el número de empresas o trabajadores en un municipio o micro-región mitiga las fluctuaciones de las ventas y el empleo de un 2-11% dependiendo de las medidas de estratificación y densidad regionales usadas. Nuestros hallazgos principales sugieren que la proximidad a otras empresas, especialmente a los proveedores de inputs potenciales, y los mercados de trabajo más grandes, se asocian con una trayectoria de crecimiento más estable. Por otro lado, en los municipios y micro-regiones menos aglomerados, las personas se enfrentan a un mayor riesgo de ser despedidas, lo que exige la necesidad de tener en cuenta esos riesgos no sólo para los trabajadores, sino también para los responsables de la política laboral. Nuestros hallazgos también podrían aportar nuevas ideas para los debates de política regional. Aunque a nivel individual, la mayoría de los shocks idiosincráticos golpean a las empresas, los shocks a nivel de empresa también son capaces de dar forma al ciclo económico, además tienen una contribución sorprendentemente alta en la volatilidad agregada del crecimiento de las ventas - a diferencia del saber común de décadas de antigüedad según la cual los shocks idiosincráticos se promedian a nivel macro. A pesar de que Hungría es una de las economías más abiertas del mundo, expuesta a shocks externos y sectoriales, casi el 50% de la volatilidad agregada de las ventas se debe a las fluctuaciones de la empresa. La evidencia sugiere que la alta contribución de los factores específicos de la empresa a las fluctuaciones agregadas es impulsada por vínculos entre empresas: los shocks de una sola empresa pueden propagarse y amplificarse a través de las redes de producción. Aunque las ventas húngaras están bastante concentradas, los resultados también implican que el rendimiento de las grandes empresas tiene un impacto moderado en la volatilidad agregada. La sorprendentemente alta importancia de los shocks a nivel de la empresa en la generación de ciclos económicos exige la necesidad de futuras investigaciones sobre la comprensión de los determinantes de las perturbaciones a nivel de la empresa. Para resumir las contribuciones de esta tesis doctoral al campo de la Economía Urbana e Inmobiliaria y la investigación de la fluctuaciones de las empresas, podemos resaltar que el Capítulo 1 es el primero en cuantificar el impacto de la población cambiante en los precios de la vivienda en Hungría, mientras que la novedad del capítulo 3 radica en el cálculo de la distribución estándar relativa de los shocks idiosincráticos a la volatilidad agregada de las ventas utilizando también datos de empresas húngaras. El capítulo 2 prueba y valida una nueva idea, según la cual la densidad económica tiene un efecto positivo sobre la estabilidad del crecimiento de las empresas.

Page generated in 0.076 seconds