241 |
Análisis comparativo del fenómeno de licuación en arenas. Aplicación Tumaco (Colombia)García Núñez, Jesús Rafael 23 October 2007 (has links)
La presente tesis tiene por objeto estudiar el fenómeno de licuación de arenas desde diferentes perspectivas, comparando algunos métodos clásicos, de tipo empírico, con otros procedimientos más modernos basados en el análisis en tensiones efectivas y el uso del método de los elementos finitos. El uso de diferentes metodologías ha permitido mejorarlas en algunos aspectos y al mismo tiempo, ha sido posible compararlas entre sí. Los métodos indicados se aplican a un sitio real, bien instrumentado, situado en la ciudad de Tumaco (Colombia), al suroeste de Bogotá. Tumaco se ha visto sometida en el pasado siglo a sismos de gran magnitud que ha originado la licuación de los estratos arenosos sobre la cual se encuentra cimentada la ciudad. Con el fin de estudiar el comportamiento de la arena ante cargas dinámicas, se instrumentó el terreno, para lo cual se instaló un acelerógrafo en superficie y otro en roca (borehole), así como una serie de piezómetros para la medición de los incrementos de presión de poros. Posteriormente, se procedió a caracterizar el terreno, para lo cual se realizaron una serie de pruebas de campo en el sitio, así como ensayos de laboratorio. Dentro de las pruebas de campo se destacan el SPT, DMT (Dilatómetro de Marchetti) y CPTU, mientras que en laboratorio las muestras recolectadas fueron sometidas principalmente a ensayos triaxiales estáticos y dinámicos. El uso conjunto de las pruebas de campo y las de laboratorio, permitieron una adecuada caracterización geotécnica de las propiedades de las diferentes capas encontradas. La gran cantidad y variedad de datos obtenidos en Tumaco ha permitido comparar las ventajas e inconvenientes de los métodos empíricos para evaluar el potencial de licuación, basados generalmente en los ensayos de campo indicados.Para el análisis en tensiones efectivas se desarrolló un código de elementos finitos, que permite solucionar de manera acoplada las ecuaciones de Biot haciendo uso de la formulación "u-p". El código está basado en técnicas de estabilización que permite el uso de elementos de igual orden de interpolación, con lo cual es posible el uso de grandes mallas con tiempos de cálculo relativamente rápidos. Adicionalmente, se trató el problema de reflexión de ondas en los contornos para lo cual se implementaron contornos absorbentes. De igual manera en los análisis se tuvo en cuenta el tamaño del elemento en la malla de elementos finitos. También se analizó en detalle algunos aspectos conceptuales de la componente de acoplamiento en la formulación "u-p". Las pruebas de laboratorio se utilizaron para la calibración de la ecuación constitutiva, correspondiente en este caso al modelo de Pastor Zienkiewicz.Finalmente se realizan simulaciones sobre el comportamiento dinámico de la arena de Tumaco ante un sismo. Para ello, se integran de manera racional los resultados in situ, las pruebas de laboratorio y el modelo numérico. Los análisis se realizan para formulación desacoplada en tensiones totales (programa EERA, PROSHAKE y QUAD4M), formulación semi-acoplada (programa FLAC3D) y acoplada (programa SOLDYNA). Los anteriores resultados permiten realizar una comparación entre las diferentes formulaciones, y adicionalmente, comparar los valores del potencial de licuación obtenidos por métodos semi-empíricos y los resultados numéricos. / ABASTRACTThe objective of this thesis is to study the phenomenon of liquefaction of sands from different perspectives, comparing some classic empirical methods with new procedures based on the analysis in effective stresses and using the finite element method. The use of different methodologies simultaneously, allowed not only a comparison between methods, but also an improvement of the procedures in some aspects. Those methods are applied to a real, well instrumented place, located in the city of Tumaco (Colombia), to the Southwest of Bogotá. Tumaco has been subjected during last century to earthquakes of great magnitude that have originated the liquefaction of the sandy strata on which the city is built. In order to analyze the "in situ" behaviour of the sand under dynamic loading, a site was instrumented, including an accelerograph at surface and another at the bedrock level (borehole). Also several piezometers were installed to measure any increment of pore water pressure. In addition to that, field tests as well as laboratory experiments were carried out. Regarding field tests, SPT, DMT (Marchetti Dilatometer) and CPTU were performed. In the laboratory, reconstituted samples were subjected mainly to static tests and dynamic triaxials. The combined use of the field tests and laboratory experiments, allowed an appropriate geotechnical characterization of the conditions of the different layers. The large quantity and variety of data obtained in Tumaco was used to devise the advantages and disadvantages of each empirical method considered to evaluate the liquefaction potential. To perform an effective stress analysis, a finite element code was developed that allows solving in a coupled manner the Biot equations by using the "u-p" formulation. The code is based on stabilization techniques which allow the use of elements of same interpolation order. That facilitates the calculation of large finite element meshes with limited computing time. Additionally, the thesis addresses the problem of wave's reflection at the boundaries by defining absorbing boundaries. Other relevant aspects like the effect of the element size on the results were also considered. Some conceptual issues regarding the meaning of the coupled term in the "u-p" formulation were considered as well. The laboratory tests were used for the calibration of the constitutive equation. The Pastor-Zienkiewicz model was selected for this purpose.Finally, several simulations of the dynamic response of the sand deposits at Tumaco are presented. They try to involve, in an integrated manner, al the information collected from the "in situ" tests and the laboratory experiments. Some of the analyses were performed using a classical total stress approach (codes EERA, PROSHAKE, QUAD4M), and a semicoupled formulation (code FLAC3D). A comparison with the coupled formulation considered in this thesis and the program developed (SOILDYNA) is also presented. A general perspective on the analysis of the liquefaction risk of a particular site comparing most of the tools currently available is finally presented.
|
242 |
Comportamiento de materiales granulares gruesos. Efecto de la succiónOrtega Iturralde, Enrique Francisco 08 July 2008 (has links)
Las grandes deformaciones de colapso y deferidas en el tiempo originadas por el humedecimiento parcial o total de la roca están íntimamente relacionadas con el fenómeno de rotura de partículas. La humedad inicial del material es el factor que más influye sobre la deformación de colapso por inundación.Esta tesis estudia y caracteriza el comportamiento de un material de granular calizo, de alta resistencia, baja porosidad en condiciones triaxiales y edómetricas. Se determina la influencia de diferentes factores que afectan la compresibilidad y la resistencia al corte del material granular como: granulometría, densidad, velocidad de deformación de corte, trayectorias de tensiones y ciclos de tensión desviadora. Los resultados experimentales edométricos muestran la influencia de la succión en la compresibilidad de un material a humedades relativas de HR100%, HR50%, HR40% y HR10%; así como en las deformaciones de colapso obtenidas mediante humedecimiento mediante vapor de agua o por inundación de la probeta. Los resultados experimentales triaxiales muestran la influencia de la succión en la resistencia al corte en las trayectorias de tensiones desarrollas a HR100%, HR50%, y HR10%. El ángulo de fricción interna del material depende de la tensión de confinamiento y de la succión aplicada en las probetas. La dilatancia es sensiblemente afectada por la succión aplicada. Debido a los altos índices medidos al final de los ensayos no fue encontrado un estado crítico estable. Los vectores de los incrementos de deformación plástica muestran un flujo plástico no asociado del material. Las velocidades de las deformaciones de corte tienen particular influencia en la resistencia y la compresibilidad de los materiales granulares a bajas y altas tensiones de confinamiento.Se encontró que la superficie de fluencia para la etapa no saturada (HR50%) tiene una homotética de menor dimensión en HR100%. Su forma es similar a una elipse rotada con respecto a las trayectorias de cargas. La forma depende de la proporcionalidad de la historia de las trayectorias de cargas. El proceso de compactación induce anisotropía en la dirección vertical.La compresibilidad y la resistencia al corte del material calizo dependen de la uniformidad de las partículas, su densidad, el nivel de tensiones aplicados y principalmente de los cambios de succión en los poros de las partículas. La compresibilidad del material es mayor conforme se incrementa los tamaños de las partículas en las granulometrías. Las líneas de compresión virgen para las granulometrías ensayadas dependen de los tamaños de las partículas y de la succión total aplicada. La resistencia al corte esta afectada por la uniformidad de las partículas, la densidad y los cambios de succión. La tensión desviadora disminuye con el incremento del tamaño de las partículas y aumenta con la disminución del tamaño de las partículas para las condiciones no saturadas y saturadas. La dilatancia se ve fuertemente reducida por la uniformidad en las partículas y la succión. Analizando los vectores de los incrementos de deformación plástica el material muestra un comportamiento de flujo plástico no asociado. La rotura de partículas está fuertemente afectado por el nivel de tensiones aplicado, la densidad de las probetas, la uniformidad de las partículas y los cambios de succión.El módulo de resiliencia se incrementa con la tensión de confinamiento, las tensiones desviadoras y la succión aplicada. Al saturar las muestras existe una disminución del módulo de resiliencia debido a la reducción de la succión.Los resultados triaxiales desarrollados para granulometrías uniformes y no uniformes se simularon con el modelo constitutivo de escolleras, el cual tiene en cuenta el análisis acoplado de flujo y deformación. La succión es una variable fundamental que explica el comportamiento tensión-deformación de los materiales granulares.La dilatancia desarrollada en el material estuvo activa hasta el final de los ensayos. Las condiciones del estado crítico no pudieron ser encontradas. El análisis de la dilatancia como una función de las relaciones de tensiones actuales y las relaciones de tensiones límite no es apropiada para describir el comportamiento de los agregados ensayados.El trabajo plástico de entrada describe las medidas de dilatancia para el rango de la relación de tensiones y las presiones de confinamiento aplicadas. El trabajo plástico explica la cantidad de rotura de los contactos y partículas. La dilatancia es descrita mediante una variable que combina la relación de tensiones, el trabajo plástico y las tensiones medias. / The long collapse strains and time-dependent strains caused by the partial or total wetting of rocks are in front relationship with the particles breakage phenomenon. The initial humidity of material is the main factor on the collapse strain by flooding.This thesis study and characterizes the behaviour of limestone gravel with high resistance, low porosity under triaxial and oedometer conditions. The main topics of analysis are the determination of the influence of different factors which affect the compressibility and the shear strength of the granular material like: grain size distribution, density, rate of shear strain velocity, stress path and stress deviatory cycles.The oedometer experimental results show the suction influence in the compressibility of the material at different values of relative humidity (RH 100%, RH50%, RH40% and RH10%); as well as the influence on the collapse deformations obtained by water vapour wetting or by flooding of the sample. The triaxial experimental results show the suction influence on the strength shear in the stress paths developed to RH100%, RH50% and RH10%. The material internal friction angle depends on the confining stress and the suction applied to the samples. The dilation is affected in a sensible manner by the suction applied. Due to the high rates of dilation measured at the end of the tests, the critical steady state was not reached. The increment plastic vectors show no associate plastic flow on the material. The rate of shear strain velocity has particular influence on the compressibility and strength of the granular materials under low and high confining stress.It was found that the yielding surface on unsaturated conditions (RH50%) have a homothetic smaller yielding surface at RH100%. Its form is similar to a rotated ellipse with respect to the loading paths. Also its form depends of the proportionality of the loading history paths. The compaction process induces anisotropy in the vertical direction.The compressibility and shear strength of the limestone material depends of the particle uniformity, density, stress level and mainly of the suction changes in the voids of the particles. The compressibility of the material increase when the size of the particles increases for the whole range of grading curves. The virgin compression lines for the grading curves tested depend of the sizes of the particles and the total suction applied.The shear strength is affected by the uniformity of the particles and suction changes.The deviatoric stress reduces with the increment of the size particles and increase with the reduction of particle size on unsaturated and saturated conditions. The dilation is strongly affected (reduction) by the uniformity of the particles and suction. From the increment of plastic deformation vectors analysis, it was observed that the material shows a no associated flow. The particle breakage is strongly affected by the stress level, sample density, particle uniformity and suction changes. The resilient modulus increase with the confining stress, deviatoric stress and the applied suction. When the material is wetted there is a reduction of the resilient modulus due to the suction reduction.Triaxial results tests for uniform and no uniform grading curves were simulated by Rockfill model implemented in Code_Bright. This model has into account the coupled analysis of flow and strains. The suction is a fundamental variable which explains the - stress-strain behaviour of the granular materials. The dilation experienced by the materials was active until the end of the tests. The critical state conditions were not reached. The dilation analysis as a function of the current stress level and the limit stress is not correct for describing the behaviour of the tested materials. The introduced plastic work describes the dilation measurements for the range between the stress ratio and the confining stress applied. The plastic work explains the quantity of contacts and particles breakage. The dilation is described through a variable which combines the stress ratio, the plastic work and the intermediate stress.
|
243 |
Implementación de un sistema para la evaluación de personal basado en las competencias genéricasMarcos Salcedo, José Javier January 2011 (has links)
Muestra la implementación de un software que permite realizar la evaluación del personal Ministerio de Vivienda, Construcción y Saneamiento, basándose en los indicadores asociados en las competencias genéricas que debe tener el empleado público al ejercer sus funciones.
|
244 |
Ingeniería inversa aplicado a sistemas desarrollados con programación orientada a objetos para obtener la documentaciónAcevedo Ricse, Jessica Jahany, Puma Falcón, Elmer Emilio January 2007 (has links)
No description available.
|
245 |
FPFS : un sistema de ficheros paralelo basado en dispositivos OSD+= FPFS : a parallel file system based on OSD+ devicesAvilés González, Ana 16 December 2014 (has links)
A medida que los supercomputadores aumentan su potencia, es posible ejecutar aplicaciones con mayor carga computacional y que procesan volúmenes de datos cada vez más grandes. Tradicionalmente, para proporcionar un rendimiento rápido y fiable, los sistemas de ficheros paralelos se centraban en la distribución escalable de los datos. Sin embargo, mayores cargas de trabajo presionan los servidores de metadatos todavía más, con un número de peticiones de metadatos cada vez mayor. Estas operaciones hacen un gran consumo de CPU, y, generalmente, un sólo servidor de metadatos ya no es suficiente. En esta tesis presentamos la arquitectura de un nuevo sistema de ficheros paralelo que proporciona un servicio de metadatos completamente distribuido. Creemos que esto es clave al enfrentarse a la era exabyte en los sistemas de ficheros paralelos. Nuestra primera propuesta es "Fusion Parallel File System" (FPFS). FPFS es un sistema de ficheros paralelo donde todos los dispositivos trabajan como servidores tanto de datos como de metadatos. Con esta arquitectura sencilla incrementamos la capacidad del clúster de metadatos, que pasa a ser tan grande como el clúster de datos. Asimismo, incrementamos el rendimiento y escalabilidad de todo el sistema. Nuestra segunda contribución es el dispositivo OSD+. Proponemos el uso de dispositivos OSD mejorados para construir la arquitectura de FPFS. Los OSD regulares sólo pueden manejar objetos de datos y sus operaciones; nuestra propuesta amplía los dispositivos OSD, de manera que también puedan manejar metadatos a través de lo que hemos llamado "objetos de directorio". Nuestra tercera aportación es el diseño e implementación de un clúster de metadatos basado en dispositivos OSD+ para FPFS. En el clúster distribuimos de forma uniforme los metadatos a través de los nodos del clúster por medio de los objetos de directorio. Nuestra distribución del espacio de nombres minimiza las migraciones en caso de renombramientos de directorios o de cambios dentro del clúster. Garantizamos la atomicidad por medio de un protocolo de compromiso en tres fases y de los sistemas de ficheros locales en cada OSD+. Nuestra cuarta contribución es el diseño e implementación del manejo de directorios gigantes en FPFS. Estos directorios almacenan desde miles a millones de entradas que son accedidas por miles de clientes concurrentemente. Utilizamos los objetos de directorio para permitir a FPFS distribuir de forma dinámica esos directorios a través de varios servidores. A su vez, este diseño mejora el manejo que hacemos de los renombramientos, evitando gran parte de las migraciones de datos. Nuestra última contribución es el diseño e implementación de las operaciones por lotes. Estas operaciones juntan cientos o miles de entradas del mismo tipo de operación en un sólo paquete. Con ellas conseguimos hacer un mejor uso de los recursos existentes, desplazando, en muchos casos, el cuello de botella de la red a los servidores. Para evaluar el rendimiento de nuestra propuesta, hemos implementado un prototipo del servicio de metadatos en un entorno Linux, y comparado su rendimiento con otros sistemas de ficheros paralelos como: Lustre, OrangeFS y Ceph. En las pruebas, se han usado distintos tipos de sistemas de ficheros, y distintos tipos de discos (discos duros y de estado sólido) en los servidores. Asimismo, se han usado benchmarks con distintos tipos de carga de trabajo de metadatos con el fin de evaluar el rendimiento de los metadatos. Los experimentos muestran que FPFS puede crear, stat, y borrar cientos de miles de ficheros vacíos por segundo con unos pocos OSD+s. Los ratios obtenidos con FPFS son un orden de magnitud mayor que el rendimiento que obtiene Lustre con un sólo servidor de metadatos, y que el rendimiento de OrangeFS y Ceph con un clúster de metadatos. / The growth in the number of nodes and computational power of supercomputers allow us to process not only larger and more compute-intensive workloads, but also data-intensive workloads that access and store vast amounts of data. Traditionally, to provide fast and reliable performance, parallel file systems have focused on scalable data distribution to share out the storage and management of large data volumes between several nodes. However, increasing workload is now pushing metadata servers to their limits, with not only greater volumes of data but also critically ever-greater numbers of metadata requests. Metadata operations are very CPU consuming, and a single metadata server is often no longer sufficient. In this thesis we define a new parallel file system architecture that provides a completely distributed metadata service. We believe this is key as we approach the exabyte scale-era in parallel file systems. The main contributions to reach this aim are the following. First, we introduce the Fusion Parallel File System (FPFS) that presents a novel architecture that merges the metadata cluster and the data cluster into one large cluster through the use of a single type of server. This enlarges the capacity of the metadata cluster because it becomes as large as the data cluster, also augmenting the overall system capacity. Second, we propose OSD+ devices to support the FPFS architecture. Object-based Storage Devices (OSDs) have proved to be a perfect tool for parallel file systems, since their inherent intelligence allows file systems to delegate tasks to the devices themselves, such as the management of the device space. OSD+s are improved object-based storage devices that, in addition to handle data objects, as traditional OSDs do, can also manage "directory objects", a new type of object able to store and handle metadata. Third, we develop a scalable metadata cluster made up of hundreds to thousands of OSD+ devices. The design takes into account essential aspects, like a balanced namespace distribution, able to adapt to cluster changes, and the atomicity of operations that involve several OSD+s. Fourth, we enlarge the metadata service capabilities by including support for huge directories. Directories storing thousand to millions of files accessed by thousands of clients at the same time are becoming common in file systems, and present performance downgrades if not handled properly. We modify OSD+ devices to dynamically distribute these directories among several objects in different OSD+s in the cluster. Finally, we propose the use of batch operations, which embed several operations of the same type into a single network packet. This way, we optimize network resources, and significantly reduce network traffic on the system, reducing network delays and round-trips. To evaluate the performance of our proposal, we have implemented a prototype built on a Linux environment, and compared its performance with other well-known parallel file systems as: Lustre, OrangeFS, or Ceph. In the tests, we have used different backend file systems, and different type of backend devices (hard disks, and solid state drives). We have run benchmarks with different types of metadata workloads, in order to evaluate the metadata performance. Experiments show that FPFS can create, stat and unlink hundreds of thousands of empty files per second with a few OSD+s. The rates obtained by FPFS are an order of magnitude better than what Lustre achieves when a single metadata server is used, and what OrangeFS and Ceph achieve when a metadata cluster is deployed.
|
246 |
Metodología para la cración de modelos computacionales de comportamiento humano aplicados a la validación de entornos inteligentesCampuzano Adán, Francisco José 13 July 2015 (has links)
Tesis por compendio de publicaciones / Los entornos inteligentes son espacios físicos, en los cuales las tecnologías de la información y las comunicaciones se encuentran plenamente integradas. El objetivo de dichas tecnologías es el de mejorar la calidad de vida del usuario que habita el entorno, ya sea su domicilio, lugar de trabajo o incluso espacios públicos. Gracias a los últimos avances tecnológicos en hardware, este soporte al usuario se realiza de forma no intrusiva. Existen dispositivos de todo tipo capaces de obtener información de contexto del entorno en el que se encuentran y de los usuarios de dicho entorno. Esta información puede ser utilizada por servicios o aplicaciones software a los que se les denomina inteligentes, por ser capaces de aprender acerca del comportamiento del usuario y de ofrecerle servicios adaptados a cada situación. El auge de estos entornos en la sociedad actual ha provocado la proliferación de métodos para un desarrollo robusto de sus componentes software. La etapa de validación resulta imprescindible en todo proceso de calidad y su objetivo es comprobar que el software en cuestión cumple determinados requisitos para los que fue creado. El método más utilizado para validar software de entornos inteligentes son los laboratorios de pruebas, o living labs, que consisten en emular de forma física el entorno y los usuarios que van a interactuar con el sistema durante su despliegue final. De forma previa al living lab, o de forma alternativa si no es posible desplegar el laboratorio (por motivos económicos, situaciones de riesgo, elevada cantidad de usuarios, etcétera), se propone el uso de plataformas de simulación. Mediante estas plataformas se pueden simular tanto los dispositivos hardware del entorno inteligente, como los comportamientos de los usuarios que utilizan el sistema. Esta tesis propone una metodología para crear y validar modelos computacionales de comportamiento humano orientados a la validación software de entornos inteligentes en plataformas de simulación. CHROMUBE es una metodología iterativa que permite, a través de una serie de pasos, la creación, simulación y validación de modelos con el nivel de detalle adecuado como para validar las aplicaciones y servicios para los que sean requeridos. Este nivel de detalle se puede obtener a partir de diversas fuentes de datos. Se proponen ramas alternativas para crear los modelos tanto a partir de datos de sensores como a partir de entrevistas con expertos. Con este fin, CHROMUBE aplica técnicas de varias disciplinas científicas, como Cronobiología, Aprendizaje Computacional e Ingeniería del Conocimiento. Así, la principal contribución científica de esta tesis consiste en la definición de una metodología para la creación y validación de modelos de usuario, aplicable a cualquier situación donde se requiera validar aplicaciones o servicios inteligentes mediante simulación. También se ha obtenido como resultado una plataforma de simulación que permite la integración de elementos reales con elementos simulados, y cuyo fin es utilizar los modelos de usuario simulados de CHROMUBE para validar software real en un entorno que emule al entorno inteligente real donde se pretende desplegar el software. En el ámbito práctico, gracias a la aplicación de CHROMUBE en la plataforma de simulación, se han reducido los tiempos y costes de implantación de diversos entornos inteligentes donde la creación de living labs no era viable, como geriátricos y hospitales. También, en otros escenarios la simulación ha sido útil para la detección de fallos del sistema previa a la etapa de living lab, y para simular nuevas condiciones de trabajo o funcionalidades del sistema imposibles de reproducir en el entorno real. La posibilidad de observación directa y análisis forenses de los resultados de dichas simulaciones también ha proporcionado a las empresas un valioso sistema de apoyo a la decisión. / Intelligent environments are physical spaces where information and communication technology (ICT) becomes embebbed into the spaces in which we live and work, even in public spaces. The main objective of these environments is supporting people in their daily lives. The enormous advances in hardware allow this support to be non-intrusive. There are all kind of smart devices able to obtain context-aware information from users and environment. This information can be processed by intelligent software and applications to learn about users' habits and to enhance their daily experiences by Ambient Intelligence (AmI) services. Nowadays, the emergence of intelligent environments has caused the proliferation of different validation methods of their software components. Validation is a software life cycle stage that provides evidence that the software satisfies specified requirements. A typical approach to validate intelligent software is the use of living labs. These labs emulate the final environment where the system is going to be deployed, including users. The use of simulation platforms is proposed here during the earlier stages of the living lab, or as an alternative if the living lab creation is unfeasible, e.g. due to its high cost. Simulation platforms allow simulating both the hardware devices of the intelligent environment and the users' behaviours. This PhD thesis proposes a methodology to create and validate Computational Models of Human Behaviour (CMHB). These models can be used in simulation platforms in order to validate AmI software systems. The proposed methodology, Chronobiological Modelling of Human Behaviours (CHROMUBE), is an iterative methodology that provides methodological processes for the creation, simulation and validation of CMHB. The complexity of these models is given by the complexity of the services or applications they are intended to validate. This information can be obtained from different sources. CHROMUBE proposes two main data sources: 1) sensor devices and 2) interviews with experts. The behaviour data obtained from these sources is conveniently analysed using different scientific disciplines, such as Chronobiology, Machine Learning and Knowledge Engineering. Thus, the main contribution of this thesis is the definition of a methodology, which is applicable to any situation where software validation by simulation requires the use of realistic computational models of human beings, such as AmI systems and intelligent environments. Another significant contribution is the implementation of a simulation platform that enables the integration of real and simulated elements. In this manner, it is possible to integrate the software under test (SUT) into a simulated environment that emulates the final scenario where the software is going to be deployed. The application of CHROMUBE within the simulation platform has helped to reduce deploying times of a number of complex intelligent environments. In some of them, the deployment of a living lab was unfeasible, e.g. in an operating theater. In other cases, simulations were useful to detect system failures in the earlier stages of the deployment, which supposed a considerable cost saving. The resulting CMHBs have been also employed by various companies to validate new working situations or system functionalities which are impossible to test exhaustively in the final environment. The possibility of forensic analysis during the simulations has also provided them a valuable decision support system.
|
247 |
Development and evaluation of a novel advanced lipoprotein test based on 2d diffusion orderen 1h nmr spectroscopyMallol Parera, Roger 12 June 2014 (has links)
La determinació de la mida i el nombre de lipoproteïnes utilitzant tests avançats de lipoproteïnes és d'un gran interès clínic ja que el nombre de partícules LDL s'ha posicionat com a millor predictor de risc cardiovascular que el colesterol LDL. Tanmateix, els tests avançats de lipoproteïnes actuals encara no s'han introduït en l'àmbit clínic en gran part per la falta d'una estandarització. En aquesta tesi presentem el test LipoScale, un nou test avançat de lipoproteïnes basat en espectroscopia de RMN de difusió 2D. Amb aquest test es pretén obtenir una millor caracterització de les lipoproteïnes plasmàtiques, tant el seu contingut lipídic com la seva mida i nombre de partícules, de manera que amb ell s'aconsegueixi una millor predicció del risc cardiovascular. Durant el desenvolupament del test s’han estudiat diferents patologies i cohorts dins del marc de les malalties metabòliques (les quals són un factor de risc de les malalties cardiovasculars). Entre les malalties estudiades destaquem la diabetis, la dislipèmia aterògena i la síndrome de l’ovari poliquístic (PCOS). A més, també s’han monitoritzat canvis en el perfil de les lipoproteïnes deguts a intervencions nutricionals i a l’exercici. La principal diferència entre la nostra aproximació i la dels mètodes actuals és que aquests últims utilitzen mètodes de RMN 1D estàndards, mentre que el nostre test està basat en l'ús de gradients de camps magnètic, els quals generen espectres 2D amb els que es pot obtenir informació directa i objectiva de la mida de les partícules lipoproteiques. Aquesta tesi ha generat diferents publicacions científiques així com també s'ha fet la sol•licitud d'una patent europea i s'ha creat una spin-off per comercialitzar el test. / La determinación del tamaño y el número de lipoproteínas utilizando tests avanzados de lipoproteínas es de un gran interés clínico ya que el número de partículas LDL se ha posicionado como mejor predictor de riesgo cardiovascular que el colesterol LDL. Sin embargo, los tests avanzados de lipoproteínas actuales aún no se han introducido en el ámbito clínico en gran parte por la falta de una estandarización. En esta tesis presentamos el test LipoScale, un nuevo test avanzado de lipoproteínas basado en espectroscopía de RMN de difusión 2D. Con este test se pretende obtener una mejor caracterización de las lipoproteínas plasmáticas, tanto su contenido lipídico como su tamaño y número de partículas, por lo que con él se consiga una mejor predicción del riesgo cardiovascular. Durante el desarrollo del test se han estudiado diferentes patologías y cohortes dentro del marco de las enfermedades metabólicas (las cuales son un factor de riesgo de las enfermedades cardiovasculares). Entre las enfermedades estudiadas destacamos la diabetes, la dislipemia aterògena y el síndrome del ovario poliquístico (PCOS). Además, también se han monitorizado cambios en el perfil de las lipoproteínas debidos a intervenciones nutricionales y el ejercicio. La principal diferencia entre nuestra aproximación y la de los métodos actuales es que estos últimos utilizan métodos de RMN 1D estándar, mientras que nuestro test está basado en el uso de gradientes de campo magnético, los cuales generan espectros 2D con los que se puede obtener información directa y objetiva del tamaño de las partículas lipoproteicas. Esta tesis a generado diferentes publicaciones científicas así como también se ha hecho la solicitud de una patente europea y se ha creado una spin-off para comercializar el test. / Determination of lipoprotein particle size and particle number using advanced lipoprotein analyses is of particular interest since the LDL particle number has been shown to improve cardiovascular disease risk prediction. Advanced lipoprotein tests (ALT), however, are not yet routinely introduced in clinical practice partly due to the lack of standardization. This thesis presents the LipoScale test, a novel advanced lipoprotein test based on 2D diffusion-ordered 1H NMR spectroscopy. This test is to obtain a better characterization of plasma lipoproteins in terms of their lipid content, particle size and particle number that will allow a better assessment of cardiovascular risk. During the development of the test various diseases and cohorts were studied in the context of metabolic diseases (which are a risk factor for cardiovascular disease). Among the diseases studied we highlight diabetes, atherogenic dyslipidemia and polycystic ovary syndrome (PCOS). In addition, changes were also monitored in the lipoprotein profile due to nutritional interventions and exercise. The main difference between our approach and the current NMR methods is that the latter use standard 1D methods, whereas our test is based on the use of magnetic field gradients, which generate the 2D spectra that can be used to get direct and objective information on lipoprotein particle sizes. This thesis generated various scientific publications, includes an application for a European patent and a spin-off has been created to commercialize the test.
|
248 |
Analyis and design of reset control systems = Análisis y diseño de sistemas de control reseteadosDavó Navarro, Miguel Ángel 06 October 2015 (has links)
Esta tesis se enmarca principalmente en el área de los sistemas de control reseteados, los cuales surgen hacen 60 años con el claro objetivo de superar las limitaciones fundamentales de los compensadores lineales. En los últimos años una multitud de trabajos han mostrado los potenciales beneficios de la compensación mediante acciones de reset. Sin embargo, solo unos pocos trabajos abordan dos de las limitaciones mas comunes en las aplicaciones de control de procesos como es el retardo y la saturación. Es bien conocido que dichas limitaciones pueden producir el deterioro del rendimiento, pudiendo llegar a la inestabilidad el sistema de control. Por lo tanto, el objetivo principal de la tesis es el estudio de la estabilidad de los sistemas control reseteados en presencia de dichas limitaciones. En primer lugar se ha llevado a cabo un análisis de la estabilidad de los sistemas de control reseteados con retardo. Para ello se han desarrollado criterios de estabilidad para sistemas impulsivos con retardo, basados en el método de Lyapunov-Krasovskii. Por una parte se consideran sistemas impulsivos con ley de reset dependiente del estado. La aplicación de los criterios de estabilidad obtenidos a los sistemas de control reseteados con retardo suponen una clara mejora con respecto a los resultados previos, garantizando la estabilidad del sistema para retardos mas grandes. Por otro lado, con el objetivo de superar las limitaciones del sistema base, se contempla la estabilización de sistemas impulsivos mediante condiciones temporales en los intervalos de reset. Como resultado se obtienen criterios de estabilidad para sistemas impulsivos con retardo, y en particular sistemas de control reseteados, cuyo sistema base es inestable. Finalmente, el nuevo criterio es utilizado para establecer condiciones de estabilidad en sistemas de control reseteados compuestos por un compensador proporcional-integral mas un integrador de Clegg (PI+CI). Por otra parte, se realiza un análisis de la estabilidad de los sistemas de control reseteados en presencia de saturación a la entrada de la planta. En particular, se desarrolla un método para la obtención de una aproximación de la región de atracción, basado en una representación del comportamiento del sistema de control mediante politopos y grafos dirigidos. La principal ventaja del método propuesto es que la aproximación obtenida puede ser no-convexa e infinita. Por lo tanto, como se ilustra en varios ejemplos, la estimación de la región de atracción es considerablemente mayor que la estimación obtenida con los resultados previos. Desde el punto de vista practico, se considera la utilización del compensador PI+CI. Para este compensador se estudian las diferentes mejoras de diseño propuestas en la literatura, y se proponen nuevas modificaciones con el objetivo de mejorar el rendimiento del sistema de control en aplicaciones reales. Por otra parte, se desarrolla un método sistemático para el diseño del compensador PI+CI, basado en el análisis y optimización de la respuesta impulsional de un conjunto de sistemas lineales e invariantes en el tiempo. Como resultado se obtiene un conjunto de reglas de sintonización sencillas y aplicables a procesos modelados como sistemas de primer y segundo orden, e integradores con retardo. Finalmente, los beneficios del compensador PI+CI y del método de ajuste propuesto son comprobados sobre sistemas reales de control de procesos. En primer lugar, se realiza el control de un proceso de pH en linea, mostrando que las reglas de sintonía para procesos de primer y segundo orden pueden ser aplicadas a procesos mas complejos. En segundo lugar, se lleva a cabo el control de nivel de un tanque de agua. En ambos procesos, la utilización del compensador PI+CI conlleva una mejora del rendimiento en comparación a su homologo lineal PI. En particular, se obtiene una respuesta mas rápida con menor sobreimpulso y tiempo de establecimiento. / Analysis and Design of Reset control Systems This thesis is focused on the field of reset control, which emerged more than 50 years ago with the main goal of overcoming the fundamental limitations of the linear compensators. In the last years, a multitude of works have shown the potential benefits of the reset compensation. Nevertheless, there are only a few works dealing with two of the most common limitations in industrial process control: the time-delay and the saturation. It is well-known that both limitations may lead into a detriment of the performance, and even the destabilization of the closed-loop system. Therefore, this thesis aim at analyzing the stability of the reset control systems under these limitations. First, in order to provide a solid mathematical foundation, the reset control systems are described by the framework of impulsive dynamical systems, then we have developed stability criteria for impulsive delay dynamical systems, based on the Lyapunov-Krasovskii method. The applicability of the results to time-delay reset control systems arises naturally, since they are a particular class of impulsive systems. We first focus our attention on impulsive delay systems with state-dependent resetting law. The application of the criteria to reset control systems supposes an improvement of the results in the literature, guaranteeing the stability of the systems for larger values of the time-delay. In addition, in order to overcome the limitations of the base system, we consider the stabilization of impulsive delay systems by imposing time-dependent conditions on the reset intervals. As a result, stability criterion is developed for impulsive systems, and in particular time-delay reset control systems, with unstable base system. Finally, the new criterion is used to establish conditions for the stability of a reset control system containing a proportional-integral plus Clegg integrator (PI+CI) compensator. On the other hand, we study the stability of the reset control systems in presence of plant input saturation. In particular, we propose a method to obtain an approximation of the region of attraction based on a representation of the behavior of the reset control system by polytopes and directed graphs. The main advantage of the proposed procedure is that the approximation of the region of attraction is not necessarily neither convex nor finite. Therefore, as it is illustrated by several examples, the provided region of attraction estimate is considerably greater than the estimation obtained by the previous results. From the application point of view, it is considered the PI+CI compensator. We study several modifications of the compensator which are proposed in the literature, for instance variable band resetting law and variable reset ratio. In addition, we propound new design improvements such as switching reset ratio, in order to enhance the performance in real applications. On the other hand, it is developed a systematic method for PI+CI tuning, based on the analysis and optimization of the impulse response of a set of linear and time invariant systems. Therefore, simple tuning rules have been developed for processes modeled by first and second order systems, and integrator plus dead time systems. Finally, the superior performance of the PI+CI compensator with the proposed tuning method is shown in real experiments of process control. First, the control of an in-line pH process is performed, showing that the tuning rules for first and second order systems can be applied to more complex processes. Second, we accomplish the control of water level in a tank. In both cases, the PI+CI supposes an improvement of the performance in comparison to its linear counterpart PI. In particular, the reset compensation provides a faster response with smaller overshoot and settling time.
|
249 |
Técnicas para mejorar la eficiencia energética de los CMPs con coherencia de caché= Improving the energy-efficiency of cache-coherent multi-cores.García Guirado, Antonio 22 November 2013 (has links)
Objetivos Con el fin de los beneficios energéticos del escalado clásico de los transistores, la eficiencia energética se convirtió en el principal objetivo de los diseños de microprocesador. Las mejoras de los transistores no pueden compensar al mismo ritmo que en el pasado los costes energéticos de mejorar el rendimiento con frecuencias mayores y microarquitecturas más complejas. Ahora más que nunca, los arquitectos de computadores deben proporcionar el crecimiento de rendimiento esperado a través de diseños más eficientes energéticamente. Hace algunos años los multiprocesadores en un chip (CMPs), formados por núcleos relativamente simples, se adoptaron como una arquitectura con mayor eficiencia energética, convirtiéndose en la principal corriente de diseño. Sin embargo, los CMPs plantean dificultades particulares en su diseño. En esta tesis abordamos dos cuestiones con creciente importancia al escalar los CMPs: el consumo de energía de la red del chip (NoC) y la escalabilidad de la coherencia de caché, y proponemos mecanismos para mitigar su impacto en la eficiencia energética. Al aumentar la cantidad de núcleos, la información de coherencia de caché llegaría a ocupar la mayor parte del área de almacenamiento del chip si no somos capaces de desarrollar esquemas de coherencia escalables y eficientes energéticamente. Además, las tendencias actuales indican que la NoC acabaría usando la mayor parte de la energía del chip si no se toman medidas para evitarlo. Metodología Cada propuesta de esta tesis fue evaluada contra otras soluciones recientes, demostrando su eficacia, y puesta en contexto con el estado del arte. Para ello se utilizó un extenso conjunto de herramientas, incluyendo simuladores detallados como Simics, GEMS y GEM5 para modelar el rendimiento de los CMPs, simuladores de red como GARNET y simuladores de consumo energético como McPAT, Orion o CACTI. Un diseño tiled-CMP, representativo de los multiprocesadores actuales en cualquier segmento de mercado, se usó como base sobre la que implementar nuestras propuestas. Resultados Para mejorar la escalabilidad de la coherencia de caché proponemos un nuevo esquema de coherencia basado en un chip dividido en áreas enlazadas que reduce notablemente el tamaño del almacenamiento usado por la información de compartición. También proponemos una organización de caché unificada que elimina la sobrecarga y complejidad de las estructuras de almacenamiento de directorio aprovechando los recursos compartidos de caché para almacenar alternativamente datos o información de directorio con granularidad de entrada de caché. Esta organización usa eficientemente los recursos de almacenamiento, asignando a información de directorio sólo el (pequeño) número de entradas necesarias de la memoria caché unificada. Demostramos que esta organización es escalable a grandes números de núcleos (e.g., 512 trivialmente y 1 millón con códigos compartidos elaborados). Para reducir el impacto del escalado de la NoC desarrollamos técnicas para aumentar la proximidad entre datos y núcleos a nivel de la arquitectura y políticas para utilizar de manera eficiente la novedosa tecnología de transmisión fotónica en silicio de bajo consumo. Para aumentar la cercanía de datos, proponemos un mecanismo que obtiene datos de un proveedor cercano en la zona en que se encuentra el núcleo que solicita los datos, a nivel de protocolo de coherencia de caché. A nivel de organización de caché proponemos una nueva organización cuyo objetivo es minimizar la distancia media para acceder al último nivel de cache, reduciendo la energía necesaria para alimentar los núcleos con datos. Para permitir la explotación de la fotónica en silicio abrimos el campo de las políticas dinámicas de gestión de NoCs híbridas fotónicas-electrónicas, haciendo uso eficiente de las propiedades particulares de cada tecnología con fina granularidad de mensaje, resultando en importantes beneficios en rendimiento, energía y latencia. / Objectives With the end of the energy benefits of classical transistor scaling, energy-efficiency became the driving factor of microprocessor design. The energy costs of increasing operating frequencies and using more aggressive microarchitectures to improve performance can no longer be compensated by transistor technology advances at the same rate as in the past. Now more than ever, computer architects are left in charge of providing the expected growth of microprocessor performance by means of more energy-efficient designs, in order to make cost-effective use of the ever-increasing transistor density in chips within a limited power budget. Otherwise, microprocessor evolution would be doomed to hit the power wall. Some years back, chip multiprocessors (CMPs) containing relatively simple cores were deemed a suitable architecture in the search for energy-efficiency and went mainstream. However, CMPs pose particular challenges in their design. In this thesis we tackle two paramount issues with growing importance as we scale out CMPs, namely network-on-chip power consumption and cache coherence scalability, and we propose mechanisms to alleviate their impact on the energy-efficiency of CMPs. As the core count increases, cache coherence information may eventually account for most storage area on chip if we fail to provide scalable and energy-efficient coherence schemes. In addition, current trends indicate that networks-on-chip (NoCs) would end up taking up most of the chip energy budget unless measures are taken to prevent it. Methodology To carry out this research, a comprehensive set of tools was used, including detailed simulators such as Simics, GEMS and GEM5 to model the timing of CMPs, network simulators such as GARNET, as well as power simulators such as McPAT, Orion or CACTI. A tiled-CMP design, representative of current multiprocessors in every market segment, was used as a baseline with realistic features on which to implement our proposals. Every proposal was evaluated against state of the art counterparts to prove their effectiveness. Results To improve the scalability of cache coherence, we propose a new coherence scheme based on a chip divided in linked areas that noticeably reduces the size of the storage used to maintain sharing information. Then, we propose a unified cache organization that eliminates the overhead and complexity of directory storage structures by leveraging shared cache resources to alternately store data or directory information at a cache entry granularity. This organization makes efficient use of storage resources as just the required (small) number of entries are allocated for directory information in the unified cache. We show that this organization is scalable to very large core counts (e.g. 512 trivially and one million with elaborate sharing codes). To reduce the impact of network scaling, we develop techniques to increase the proximity of data to cores at the architecture level, and policies to efficiently use disruptive low-power transmission technologies such as silicon photonics. For increasing data proximity, in this thesis we propose a mechanism that retrieves data from a close provider in the area in which the core requesting the data is located, working at the cache coherence protocol level. At the cache organization level, we propose a new organization that aims at minimizing the average distance to access the last level cache, reducing the energy required to feed the cores with data. To enable the exploitation of photonics, we open the field of dynamic policies for arbitrating hybrid photonic-electronic NoCs, making energy-efficient use of the particular properties of both technologies at a fine message granularity, resulting in important benefits in throughput, energy and latency.
|
250 |
Proporcionando acceso federado y SSO a servicios de internet mediante kerberos e infraestructuras AAA = Providing federated access and SSO to internet services by means of kerberos and AAA infrastructuresPérez Méndez, Alejandro 23 January 2015 (has links)
A día de hoy las federaciones de identidad para servicios web y para el acceso a la red están bastante asentadas y aceptadas. Pero, ¿qué ocurre con otros tipos de servicio que no soportan estas tecnologías? El objetivo de esta tesis es diseñar soluciones que permitan el establecimiento de federaciones de identidad más allá del Web, evitando los problemas que presentan las soluciones disponibles en el estado del arte. Para ello se han analizado y seleccionado un conjunto de tecnologías asociadas al control de acceso que, una vez integradas, proporcionan la funcionalidad completa deseada: • Kerberos, para realizar el control de acceso a los servicios de aplicación, dadas las grandes cualidades que presenta (seguro, ligero, SSO, etc.), su amplio despliegue y su gran rango de servicios y sistemas operativos soportados. • Infraestructuras AAA, para el soporte de federación, por su amplio uso para proporcionar acceso federado a la red (p.ej. eduroam). • SAML, para el soporte de autorización, por su gran historial de éxito y amplio despliegue en federaciones basadas en Web. Por tanto, el objetivo general de esta tesis puede expresarse como: Analizar, diseñar y validar soluciones que permitan a los usuarios obtener credenciales Kerberos para un proveedor de servicios específico, como resultado de un proceso de autenticación realizado a través de una federación AAA y de un proceso de autorización basado en el intercambio de sentencias SAML con la organización origen. Este objetivo se ha abordado de tres formas diferentes, dependiendo del escenario de uso, dando lugar a tres sub-objetivos más específicos: 1. Diseñar una solución que permita la generación de credenciales Kerberos mediante la integración directa de las infraestructuras Kerberos y AAA en el proveedor de servicios. 2. Diseñar una solución que permita la generación de credenciales Kerberos mediante el uso de un protocolo auxiliar (out-of-band) que haga uso de la infraestructura AAA para autenticar al usuario. 3. Diseñar una solución que permita la generación de credenciales Kerberos como consecuencia del proceso de autenticación federada en la red. Además, se definen los siguientes sub-objetivos transversales: 4. Diseñar un modelo de autorización que permita la distribución de información de autorización a través de la infraestructura AAA. 5. Validar las soluciones diseñadas mediante modelos analíticos e implementación de prototipos. A fin de cumplir con estos objetivos, esta tesis define tres soluciones al problema planteado: • FedKERB integra las infraestructuras Kerberos y AAA mediante la definición un nuevo mecanismo de pre-autenticación para Kerberos basado en tecnologías como GSS-API y EAP (objetivo 1). Además, incluye la posibilidad de realizar una autorización avanzada mediante la generación y el transporte de una sentencia SAML desde el IdP de la organización origen hasta la infraestructura Kerberos del proveedor de servicios (objetivo 4). • PanaKERB define una alternativa a FedKERB que no requiere la modificación del mecanismo de pre-autenticación de Kerberos, sino que utiliza un protocolo out-of-band con soporte nativo para infraestructuras AAA (en este caso PANA) para realizar la autenticación federada del usuario (objetivo 2). • EduKERB proporciona una arquitectura cross-layer que integra Kerberos con la autenticación realizada durante el acceso a la red (basada en AAA), mediante la utilización de un nuevo mecanismo de pre-autenticación para Kerberos que utiliza el resultado de una ejecución EAP exitosa previa (objetivo 3). Además, esta tesis proporciona un análisis funcional y de rendimiento de las contribuciones (objetivo 5), consistente en la definición de un modelo teórico de rendimiento, la implementación de prototipos para demostrar su viabilidad y la medición de su rendimiento real, basado en la ejecución de estos prototipos. De este análisis se han extraído dos conclusiones principales. En primer lugar, las tres propuestas presentan tiempos de ejecución aceptables (es decir, similares a los que se dan durante el acceso a la red, que sirve como referencia). Además, al haberse implementado y ejecutado en un entorno real, su viabilidad real queda demostrada. / Nowadays identity federations for web applications and for the network access service are widely used and accepted. But, what happens with other kind of applications that do not support these technologies? The objective of this thesis is designing solutions to allow establishing identity federations beyond the web, avoiding the issues shown by the state of the art alternatives. For doing that, this thesis has analyzed and selected a set of technologies associated to access control. These technologies, once integrated, provide the totality of the desired functionality. • Kerberos, to perform the access control to application services, given the great features it has (secure, lightweight, SSO, etc.), its wide deployment, and its extensive range of supported applications and operating systems. • AAA infrastructures, to provide federation substrate, given their wide usage to provide federated access to the network service (e.g. eduroam). • SAML, to provide support for authorization, due to its great history of success and wide deployment for web-based federations. Hence, the general objective of this PhD thesis can be expressed as: To analyse, design, and validate solutions that enable end users to bootstrap Kerberos credentials for a specific service provider, as the result of an authentication process conducted through the AAA-based federation, and an authorization process based on the exchange of SAML statements with the home organization. This objective has been approached in the different ways, depending on the target scenario, and resulting into three more specific sub-objectives: 1. To design a solution allowing the bootstrapping of Kerberos credentials by means of the integration of the Kerberos and AAA infrastructures in the service provider. 2. To design a solution enabling the bootstrapping of Kerberos credentials by means of an auxiliary protocol (out-of-band) which makes use of the AAA infrastructure to authenticate the end user. 3. To design a solution enabling the bootstrapping of Kerberos credentials as a result of the federated authentication to the network service. Besides, the following transversal sub-objectives are defined: 1. To design an authorization model enabling the distribution of authorization information through the AAA infrastructure. 1. To validate the designed solutions by means of analytical models and prototype implementations. In order to accomplish with these objectives, this PhD thesis defines three solutions to the problem stated problem: • FedKERB integrates the Kerberos and AAA infrastructures by means of the definition of a new pre-authentication mechanism for Kerberos based on GSS-API and EAP (objective 1). Besides, it includes the possibility of performing advanced authorization based on the generation and transport of a SAML assertion from the IdP in the home organization to the Kerberos infrastructure in the service provide (objective 4). • PanaKERB defines an alternative to FedKERB that does not require the modification of the Kerberos pre-authentication mechanism. Instead, it makes use of an out-of-band protocol with native support for AAA infrastructures (i.e. PANA) to perform the federated authentication of the end user (objective 2). • EduKERB provides a cross-layer architecture integrating Kerberos with the authentication process performed during the network access process (based on AAA), by means of a new pre-authentication mechanism that makes use of the results of a successful previous EAP authentication (objective 3). Besides, this PhD thesis provides a functional and performance analysis of the aforementioned contributions (objective 5), consisting of the definition of a theoretical performance model, the implementation of prototypes to demonstrate their feasibility, and the actual performance measurement based on these prototypes. To major conclusions have been extracted from the results of this analysis. On the one hand, the three contributions have shown reasonable execution times (i.e. similar to the ones shown for the network access service, used as a reference). Besides, since they have been implemented and executed in a real environment, they feasibility has been proven.
|
Page generated in 0.2667 seconds