• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 141
  • 97
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 466
  • 204
  • 203
  • 178
  • 162
  • 160
  • 133
  • 131
  • 131
  • 131
  • 131
  • 131
  • 128
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Transmission system for an off-road multiple axle wheeled vehicle. Performance and energetic efficiency modelization

Comellas Andrés, Martí 02 December 2013 (has links)
Actualment existeix un interès creixent en desenvolupar vehicles que permetin la seva mobilitat en terrenys abruptes. Els vehicles de rodes són els que presenten una millor relació entre la capacitat de superació d’obstacles i eficiència energètica. En aquesta tesi s’analitza l’eficiència energètica i les prestacions de les transmissions hidrostàtiques de vehicles de múltiples eixos amb configuracions complexes destinats a operar en terrenys irregulars. Els objectius són desenvolupar una metodologia per al disseny de transmissions hidrostàtiques d’aquest tipus de vehicles i analitzar els rendiments dels components principals d’una transmissió hidrostàtica i del seu conjunt. Els resultats posen de manifest que el disseny de transmissions hidrostàtiques en aquests vehicles és un procés complex amb múltiples solucions tècnicament factibles. A més, es quantifica l’afectació de les restriccions imposades per la transmissió en la capacitat de tracció del vehicle i es posa de manifest la influència de la interacció entre components de la transmissió i de les condicions d’operació en el seu rendiment global. Finalment es mostra la variabilitat dels rendiments, tant del conjunt de la transmissió com el funcional del vehicle, en aquestes condicions d’operació. / Actualmente existe un interés creciente en desarrollar vehículos que permitan su movilidad en terrenos abruptos. Los vehículos de ruedas son los que presentan una mejor relación entre la capacidad de superación de obstáculos y eficiencia energética. En esta tesis se analiza la eficiencia energética y las prestaciones de las transmisiones hidrostáticas de vehículos de múltiples ejes con configuraciones complejas destinados a operar en terrenos irregulares. Los objetivos son desarrollar una metodología para el diseño de transmisiones hidrostáticas de este tipo de vehículos y analizar los rendimientos de los componentes principales de una transmisión hidrostática y de su conjunto. Los resultados ponen de manifiesto que el diseño de transmisiones hidrostáticas en estos vehículos es un proceso complejo con múltiples soluciones técnicamente factibles. Además, se cuantifica la afectación de las restricciones impuestas por la transmisión en la capacidad de tracción del vehículo y se pone de manifiesto la influencia de la interacción entre componentes de la transmisión y de las condiciones de operación en su rendimiento global. Finalmente se muestra la variabilidad de los rendimientos, tanto del conjunto de la transmisión como el funcional del vehículo, en estas condiciones de operación. / Nowadays there is a growing interest in developing vehicles that enable its mobility in rough terrain. The wheeled vehicles are those that have a better relationship between the ability to overcome obstacles and efficiency. This thesis evaluates the efficiency and performance of hydrostatic transmissions for multiple axle vehicles with complex configurations designed to operate in rough terrain. The objectives are to develop a methodology for the design of hydrostatic transmissions for these vehicles and analyze the efficiency of the main components of a hydrostatic transmission and the efficiency of the transmission as a whole. The results show that the design of hydrostatic transmissions in these vehicles is a complex process with multiple solutions technically feasible. It also quantifies the effect of the restrictions imposed by the transmission over the vehicle traction capacity and it is demonstrated the influence of the interaction between components of the transmission and the operating conditions on the overall performance. Finally it is shown the variability of the transmission efficiency and the functional efficiency in these operating conditions.
22

Magnetic diagnostics algorithms for LISA Pathfinder: system identification and data analysis

Díaz Aguiló, Marc 27 October 2011 (has links)
LISA (Laser Interferometer Space Antenna) is a joint mission of ESA and NASA, which aims to be the first space-borne gravitational wave observatory. LISA will consist in a constellation of three spacecraft at the vertexes of an equilateral triangle of side 5 million kilometers. The constellation will orbit around the Sun trailing the Earth by some 20 degrees. Each of the spacecraft harbors two proof masses, carefully protected against external disturbances such as solar radiation pressure and charged particles, which ensures they are in nominal free-fall in the interplanetary gravitational field. Gravitational waves will show as differential accelerations between pairs of proof masses, and the main aim of LISA is to measure such acceleration using laser interferometry. The technologies required for the LISA mission are many and challenging. This, coupled with the fact that some flight hardware cannot be tested on ground, led ESA to define a technology demonstrator to test in flight the required critical technologies. This precursor mission is called LISA Pathfinder (LPF). The payload of LISA Pathfinder is the LISA Technology Package (LTP), and will be the highest sensitivity geodesic explorer flown to date. The LISA Technology Package is designed to measure relative accelerations between two test masses in nominal free fall placed in a single spacecraft, since one LISA arm is squeezed from 5 million kilometer to 35 cm. Its success will prove the maturity of the necessary technologies for LISA such as the Optical Metrology System and the Drag Free concept. The differential acceleration reading will be perturbed by identified disturbances, such as thermal fluctuations or magnetic effects. These disturbances are monitored by the Diagnostics Subsystem. The Magnetic Diagnostics System is one of its modules and is a critical subsystem, since magnetic noise is apportioned to 40% of the total noise budget. In this respect, to estimate the magnetic noise contribution, the Magnetic Diagnostics Subsystem will have two main tasks: (1) estimate the magnetic properties of the test masses, i.e., their remanent magnetic moment and susceptibility, and (2) infer the magnetic field and its gradient at the location of the test masses. To this end, the Magnetic Diagnostics Subsystem includes two coils which generate controlled magnetic fields at the locations of the test masses. These magnetic fields will excite the dynamical response of both test masses. Thus, by adequate processing of the kinematic excursions delivered by the interferometer, the magnetic characteristics of the test masses can be estimated within 1% accuracy level. Additionally, the Magnetic Diagnostic Subsystem includes a set of four tri-axial fluxgate magnetometers. However, the magnetic field and its gradient need to be measured at the positions of the test masses and the readouts of the magnetometers do not provide a direct measurement of the magnetic field at these positions. Thus, an interpolation method must be implemented to calculate them. This is a difficult problem, mostly because the magnetometers are too distant from the locations of the test masses (more than 20 cm away) and because there are not sufficient magnetic channels to go beyond a classical linear interpolation method, which yields extremely poor interpolation results. Consequently, in this thesis we present and validate an alternative interpolation method based on neural networks. We put forward its robustness and accuracy in several mission scenarios and we stress the importance of an extensive magnetic testing campaign. Under these assumptions, we deliver magnetic field and gradient estimates with 10% accuracy. Finally, the estimate of the magnetic noise contribution to the total acceleration between the two LPF’s test masses is determined with an accuracy of 15%. This result represents an enhancement of the estimation quality in one order of magnitude with respect to former studies. / LISA (Laser Interferometer Space Antenna) és un missió espacial conjunta de l’ESA i la NASA, que serà el primer detector d’ones gravitacionals a l’espai. LISA consisteix en una constel·lació de tres satèl·lits situats als vèrtexs d’un triangle equilàter de 5 milions de quilòmetres de costat. La constel·lació orbitarà al voltant del Sol seguint la Terra a uns 20 graus. Cada un dels satèl·lits contindrà dues masses de prova, curosament protegides de pertorbacions externes com la pressió de la radiació solar, assegurant que estiguin en una caiguda lliure nominal en el camp gravitacional interplanetari. Les ones gravitacionals creen acceleracions diferencials entre el parell de masses de prova. Així doncs el principal objectiu de LISA és mesurar l’esmentada acceleració utilitzant interferometria làser. Les tecnologies necessàries per LISA són molt exigents. A més, la majoria d’elles no poden ser testejades a la Terra. Per tant, l’ESA va determinar la necessitat de llançar una missió precursora que actués com a demostrador tecnològic, aquesta missió és LISA Pathfinder (LPF). La seva càrrega útil és el LISA Technology Package (LTP) i serà el sensor geodèsic de més alta sensitivitat a l’espai. El LISA Technology Package està dissenyat per mesurar acceleracions diferencials entre dues masses de prova en caiguda lliure situades en un sol satèl·lit, reduint un dels braços de LISA des de 5 milions de quilòmetres fins a 35 cm. L’èxit de la missió suposaria la demostració de la maduresa de les tecnologies necessàries per LISA, com són el Optical Metrology System i el concepte Drag Free. La mesura de l’acceleració diferencial estarà afectada per certes pertorbacions com podrien ser les fluctuacions tèrmiques o els efectes magnètics a l’interior del satèl·lit. Aquestes pertorbacions són monitoritzades pel Subsistema de Diagnòstic. El Subsistema de Diagnòstic Magnètic és un dels seus mòduls i és un sistema crític, perquè el soroll magnètic representa un 40% del soroll total. Amb la finalitat d’estimar la contribució del soroll magnètic, el Subsistema de Diagnostic Magnètic ha de (1) estimar les propietats magnètiques de les masses de prova, i.e., el seu moment magnètic remanent i la seva susceptibilitat, i (2) estimar el camp magnètic i el seu gradient a la posició de les masses de prova. Així doncs, aquest subsistema integra dues bobines per generar camps magnètics a la posició de les masses. Aquests camps magnètics exciten la resposta dinàmica de les dues masses. Finalment, amb el processament de les excursions cinemàtiques proporcionades per l’interferòmetre podem estimar les característiques magnètiques amb una precisió de l’1%. D’altra banda, el Subsistema de Diagnòstic Magnètic també integra 4 magnetòmetres triaxials. No obstant, el camp magnètic i el seu gradient ha de ser mesurat a la posició de les masses de prova i les lectures dels magnetòmetres no estan situades en aquestes posicions. Per tant, cal implementar un sistema d’interpolació. Aquest problema presenta una dificultat especial perquè els magnetòmetres estan situats lluny de les masses de prova (més de 20 cm) i perquè només hi ha mesures magnètiques per realitzar una interpolació de primer ordre. Aquest mètode dóna resultats inacceptables, per tant en aquesta tesi presentem i validem un mètode d’interpolació alternatiu basat en xarxes neuronals. En demostrem la seva robustesa i exactitud en diferents casos i remarquem la importància de disposar d’una extensa campanya de tests magnètics. Sota aquests supòsits, estimem el camp magnètic i el seu gradient amb un error inferior al 10%. Finalment, l’estimat de la contribució del soroll magnètic en la mesura de l’acceleració diferencial de les dues masses de prova es pot determinar amb una exactitud del 15%. Aquest resultat suposa una millora de la qualitat d’estimació en un ordre de magnitud en comparació a estudis previs.
23

Smart memory management through locality analysis

Sánchez Navarro, Francisco Jesús 06 November 2001 (has links)
Las memorias caché fueron incorporadas en los microprocesadores ya desde los primeros tiempos, y representan la solución más común para tratar la diferencia de velocidad entre el procesador y la memoria. Sin embargo, muchos estudios señalan que la capacidad de almacenamiento de la caché es malgastada muchas veces, lo cual tiene un impacto directo en el rendimiento del procesador. Aunque una caché está diseñada para explotar diferentes tipos de localidad, todas la referencias a memoria son tratadas de la misma forma, ignorando comportamientos particulares de localidad. El uso restringido de la información de localidad para cada acceso a memoria puede limitar la eficiencia de la cache. En esta tesis se demuestra como un análisis de localidad de datos puede ayudar al investigador a entender dónde y porqué ocurren los fallos de caché, y proponer entonces diferentes técnicas que hacen uso de esta información con el objetivo de mejorar el rendimiento de la memoria caché. Proponemos técnicas en las cuales la información de localidad obtenida por el analizador de localidad es pasada desde el compilador al hardware a través del ISA para guiar el manejo de los accesos a memoria.Hemos desarrollado un análisis estático de localidad de datos. Este análisis está basado en los vectores de reuso y contiene los tres típicos pasos: reuso, volumen y análisis de interferencias. Comparado con trabajos previos, tanto el análisis de volúmenes como el de interferencias ha sido mejorado utilizando información de profiling así como un análisis de interferencias más preciso. El analizador de localidad de datos propuesto ha sido incluido como un paso más en un compilador de investigación. Los resultados demuestran que, para aplicaciones numéricas, el análisis es muy preciso y el overhead de cálculo es bajo. Este análisis es la base para todas las otras partes de la tesis. Además, para algunas propuestas en la última parte de la tesis, hemos usado un análisis de localidad de datos basado en las ecuaciones de fallos de cache. Este análisis, aunque requiere más tiempo de cálculo, es más preciso y más apropiado para cachés asociativas por conjuntos. El uso de dos análisis de localidad diferentes también demuestra que las propuestas arquitectónicas de esta tesis son independientes del análisis de localidad particular utilizado.Después de mostrar la precisión del análisis, lo hemos utilizado para estudiar el comportamiento de localidad exhibido por los programas SPECfp95. Este tipo de análisis es necesario antes de proponer alguna nueva técnica ya que ayuda al investigador a entender porqué ocurren los fallos de caché. Se muestra que con el análisis propuesto se puede estudiar de forma muy precisa la localidad de un programa y detectar donde estan los "puntos negros" así como la razón de estos fallos en cache. Este estudio del comportamiento de localidad de diferentes programas es la base y motivación para las diferentes técnicas propuestas en esta tesis para mejorar el rendimiento de la memoria.Así, usando el análisis de localidad de datos y basándonos en los resultados obtenidos después de analizar el comportamiento de localidad de un conjunto de programas, proponemos utilizar este análisis con el objetivo de guiar tres técnicas diferentes: (i) manejo de caches multimódulo, (ii) prebúsqueda software para bucles con planificación módulo, y (iii) planificación de instrucciones de arquitecturas VLIW clusterizadas.El primer uso del análisis de localidad propuesto es el manejo de una novedosa organización de caché. Esta caché soporta bypass y/o está compuesta por diferentes módulos, cada uno orientado a explotar un tipo particular de localidad. La mayor diferencia de esta caché con respecto propuestas previas es que la decisión de "cachear" o no, o en qué módulo un nuevo bloque es almacenado, está controlado por algunos bits en las instrucciones de memoria ("pistas" de localidad). Estas "pistas" (hints) son fijadas en tiempo de compilación utilizando el análisis de localidad propuesto. Así, la complejidad del manejo de esta caché se mantiene bajo ya que no requiere ningún hardware adicional. Los resultados demuestran que cachés más pequeñas con un manejo más inteligente pueden funcionar tan bien (o mejor) que cachés convencionales más grandes.Hemos utilizado también el análisis de localidad para estudiar la interacción entre la segmentación software y la prebúsqueda software. La segmentación software es una técnica muy efectiva para la planificación de código en bucles (principalmente en aplicaciones numéricas en procesadores VLIW). El esquema más popular de prebúsqueda software se llama planificación módulo. Muchos trabajos sobre planificación módulo se pueden encontrar en la literatura, pero casi todos ellos consideran una suposición crítica: consideran un comportamiento optimista de la cache (en otras palabras, usan siempre la latencia de acierto cuando planifican instrucciones de memoria). Así, los resultados que presentan ignoran los efectos del bloqueo debido a dependencias con instrucciones de memoria. En esta parte de la tesis mostramos que esta suposición puede llevar a planificaciones cuyo rendimiento es bastante más bajo cuando se considera una memoria real. Nosotros proponemos un algoritmo para planificar instrucciones de memoria en bucles con planificación módulo. Hemos estudiado diferentes estrategias de prebúsqueda software y finalmente hemos propuesto un algoritmo que realiza prebúsqueda basándose en el análisis de localidad y en la forma del grafo de dependencias del bucle. Los resultados obtenidos demuestran que el esquema propuesto mejora el rendimiento de las otras heurísticas ya que obtiene un mejor compromiso entre tiempo de cálculo y de bloqueo.Finalmente, el último uso del análisis de localidad estudiado en esta tesis es para guiar un planificador de instrucciones para arquitecturas VLIW clusterizadas. Las arquitecturas clusterizadas están siendo una tendencia común en el diseño de procesadores empotrados/DSP. Típicamente, el núcleo de estos procesadores está basado en un diseño VLIW el cual particiona tanto el banco de registros como las unidades funcionales. En este trabajo vamos un paso más allá y también hacemos la partición de la memoria caché. En este caso, tanto las comunicaciones entre registros como entre memorias han de ser consideradas. Nosotros proponemos un algoritmo que realiza la partición del grafo así como la planificación de instrucciones en un único paso en lugar de hacerlo secuencialmente, lo cual se demuestra que es más efectivo. Este algoritmo es mejorado añadiendo una análisis basado en las ecuaciones de fallos de cache con el objetivo de guiar en la planificación de las instrucciones de memoria para reducir no solo comunicaciones entre registros, sino también fallos de cache. / Cache memories were incorporated in microprocessors in the early times and represent the most common solution to deal with the gap between processor and memory speeds. However, many studies point out that the cache storage capacity is wasted many times, which means a direct impact in processor performance. Although a cache is designed to exploit different types of locality, all memory references are handled in the same way, ignoring particular locality behaviors. The restricted use of the locality information for each memory access can limit the effectivity of the cache. In this thesis we show how a data locality analysis can help the researcher to understand where and why cache misses occur, and then to propose different techniques that make use of this information in order to improve the performance of cache memory. We propose techniques in which locality information obtained by the locality analyzer is passed from the compiler to the hardware through the ISA to guide the management of memory accesses.We have developed a static data locality analysis. This analysis is based on reuse vectors and performs the three typical steps: reuse, volume and interfere analysis. Compared with previous works, both volume and interference analysis have been improved by using profile information as well as a more precise inter-ference analysis. The proposed data locality analyzer has been inserted as another pass in a research compiler. Results show that for numerical applications the analysis is very accurate and the computing overhead is low. This analysis is the base for all other parts of the thesis. In addition, for some proposals in the last part of the thesis we have used a data locality analysis based on cache miss equations. This analysis, although more time consuming, is more accurate and more appropriate for set-associative caches. The usage of two different locality analyzers also shows that the architectural proposals of this thesis are independent from the particular locality analysis.After showing the accuracy of the analysis, we have used it to study the locality behavior exhibited by the SPECfp95 programs. This kind of analysis is necessary before proposing any new technique since can help the researcher to understand why cache misses occur. We show that with the proposed analysis we can study very accurately the locality of a program and detect where the hot spots are as well as the reason for these misses. This study of the locality behavior of different programs is the base and motivation for the different techniques proposed in this thesis to improve the memory performance.Thus, using the data locality analysis and based on the results obtained after analyzing the locality behavior of a set of programs, we propose to use this analysis in order to guide three different techniques: (i) management of multi-module caches, (ii) software prefetching for modulo scheduled loops, and (iii) instruction scheduling for clustered VLIW architectures.The first use of the proposed data locality analysis is to manage a novel cache organization. This cache supports bypassing and/or is composed of different modules, each one oriented to exploit a particular type of locality. The main difference of this cache with respect to previous proposals is that the decision of caching or not, or in which module a new fetched block is allocated is managed by some bits in memory instructions (locality hints). These hints are set at compile time using the proposed locality analysis. Thus, the management complexity of this cache is kept low since no additional hardware is required. Results show that smaller caches with a smart management can perform as well as (or better than) bigger conventional caches.We have also used the locality analysis to study the interaction between software pipelining and software prefetching. Software pipelining has been shown to be a very effective scheduling technique for loops (mainly in numerical applications for VLIW processors). The most popular scheme for software pipelining is called modulo scheduling. Many works on modulo scheduling can be found in the literature, but almost all of them make a critical assumption: they consider an optimistic behavior of the cache (in other words, they use the hit latency when a memory instruction is scheduled). Thus, the results they present ignore the effect of stalls due to dependences with memory instructions. In this part of the thesis we show that this assumption can lead to schedules whose performance is rather low when a real memory is considered. Thus, we propose an algorithm to schedule memory instructions in modulo scheduled loops. We have studied different software prefetching strategies and finally proposed an algorithm that performs prefetching based on the locality analysis and the shape of the loop dependence graph. Results obtained shows that the proposed scheme outperforms other heuristic approaches since it achieves a better trade-off between compute and stall time than the others. Finally, the last use of the locality analysis studied in this thesis is to guide an instruction scheduler for a clustered VLIW architecture. Clustered architectures are becoming a common trend in the design of embedded/DSP processors. Typically, the core of these processors is based on a VLIW design which partitionates both register file and functional units. In this work we go a step beyond and also make a partition of the cache memory. Then, both inter-register and inter-memory communications have to be taken into account. We propose an algorithm that performs both graph partition and instruction scheduling in a single step instead of doing it sequentially, which is shown to be more effective. This algorithm is improved by adding an analysis based on the cache miss equations in order to guide the scheduling of memory instructions in clusters with the aim of reducing not only inter-register communications, but also cache misses.
24

Coordinated Scheduling and Dynamic Performance Analysis in Multiprocessors Systems

Corbalán González, Julita 05 July 2002 (has links)
El rendimiento de los actuales sistemas multiprocesador de memoria compartida depende tanto de la utilización eficiente de todos los componentes del sistema (procesadores, memoria, etc), como de las características del conjunto de aplicaciones a ejecutar. Esta Tesis tiene como principal objetivo mejorar la ejecución de conjuntos de aplicaciones paralelas en sistemas multiprocesador de memoria compartida mediante la utilización de información sobre el rendimiento de las aplicaciones para la planificación de los procesadores.Es una práctica común de los usuarios de un sistema multiprocesador reservar muchos procesadores para ejecutar sus aplicaciones asumiendo que cuantos más procesadores utilicen mejor rendimiento sacarán sus aplicaciones. Sin embargo, normalmente esto no es cierto. Las aplicaciones paralelas tienen diferentes características respecto a su escalabilidad. Su rendimiento depende además de parámetros que sólo son conocidos en tiempo de ejecución, como por ejemplo el conjunto de datos de entrada o la influencia que pueden ejercer determinadas aplicaciones que se ejecutan de forma concurrente.En esta tesis proponemos que el sistema no base sus decisiones solamente en las peticiones de recursos de los usuarios sino que él, dinámicamente, mida el rendimiento que están consiguiendo las aplicaciones y base, o ajuste, sus decisiones teniendo en cuenta esa información.El rendimiento de las aplicaciones paralelas puede ser medido por el sistema de forma dinámica y automática sin introducir una sobrecarga significativa en la ejecución de las aplicaciones. Utilizando esta información, la planificación de procesadores puede ser decidida, o ajustada, siendo mucho más robusta a requerimientos incorrectos por parte de los usuarios, que otras políticas que no consideran este tipo de información. Además de considerar el rendimiento, proponemos imponer una eficiencia objetivo a las aplicaciones paralelas. Esta eficiencia objetivo determinará si la aplicación está consiguiendo un rendimiento aceptable o no, y será usada para ajustar la asignación de procesadores. La eficiencia objetivo de un sistema podrá ser un parámetro ajustable dinámicamente en función del estado del sistema: número de aplicaciones ejecutándose, aplicaciones encoladas, etc.También proponemos coordinar los diferentes niveles de planificación que intervienen en la planificación de procesadores: Nivel librería de usuario, planificador de procesadores (en el S.O), y gestión del sistema de colas. La idea es establecer una interficie entre niveles para enviar y recibir información entre niveles, así como considerar esta información para tomar las decisiones propias de cada nivel.La evaluación de esta Tesis ha sido realizada utilizando un enfoque práctico. Hemos diseñado e implementado un entorno de ejecución completo para ejecutar aplicaciones paralelas que siguen el modelo de programación OpenMP. Hemos introducido nuestras propuestas modificando los tres niveles de planificación mencionados. Los resultados muestran que las ideas propuestas en esta tesis mejoran significativamente el rendimiento del sistema. En aquellos casos en que tanto las aplicaciones como los parámetros del sistema han sido previamente optimizados, las propuestas realizadas introducen una penalización del 5% en el peor de los casos, comparado con el mejor de los resultados obtenidos por otras políticas evaluadas. Sin embargo, en otros casos evaluados, las propuestas realizadas en esta tesis han mejorado el rendimiento del sistema hasta un 400% también comparado con el mejor resultado obtenido por otras políticas evaluadas.Las principales conclusiones que podemos obtener de esta Tesis son las siguientes: - El rendimiento de las aplicaciones paralelas puede ser medido en tiempo de ejecución. Los requisitos para aplicar el mecanismo de medida propuesto en esta Tesis son que las aplicaciones sean maleables y estar en un entorno de ejecución multiprocesador de memoria compartida. - El rendimiento de las aplicaciones paralelas debe ser considerado para decidir la asignación de procesadores a aplicaciones. El sistema debe utilizar la información del rendimiento para auto-ajustar sus decisiones. Además, el sistema debe imponer una eficiencia objetivo para asegurar el uso eficiente de procesadores.- Los diferentes niveles de planificación deben estar coordinados para evitar interferencias entre ellos / The performance of current shared-memory multiprocessor systems depends on both the efficient utilization of all the architectural elements in the system (processors, memory, etc), and the workload characteristics.This Thesis has the main goal of improving the execution of workloads of parallel applications in shared-memory multiprocessor systems by using real performance information in the processor scheduling.It is a typical practice of users in multiprocessor systems to request for a high number of processors assuming that the higher the processor request, the higher the number of processors allocated, and the higher the speedup achieved by their applications. However, this is not true. Parallel applications have different characteristics with respect to their scalability. Their speedup also depends on run-time parameters such as the influence of the rest of running applications.This Thesis proposes that the system should not base its decisions on the users requests only, but the system must decide, or adjust, its decisions based on real performance information calculated at run-time. The performance of parallel applications is information that the system can dynamically measure without introducing a significant penalty in the application execution time. Using this information, the processor allocation can be decided, or modified, being robust to incorrect processor requests given by users. We also propose that the system use a target efficiency to ensure the efficient use of processors. This target efficiency is a system parameter and can be dynamically decided as a function of the characteristics of running applications or the number of queued applications.We also propose to coordinate the different scheduling levels that operate in the processor scheduling: the run-time scheduler, the processor scheduler, and the queueing system. We propose to establish an interface between levels to send and receive information, and to take scheduling decisions considering the information provided by the rest of levels.The evaluation of this Thesis has been done using a practical approach. We have designed and implemented a complete execution environment to execute OpenMP parallel applications. We have introduced our proposals, modifying the three scheduling levels (run-time library, processor scheduler, and queueing system).Results show that the ideas proposed in this Thesis significantly improve the system performance. If the evaluated workload has been previously tuned, in the worst case, we have introduced a slowdown around 5% in the workload execution time compared with the best execution time achieved. However, in some extreme cases, with a workload and a system configuration not previously tuned, we have improved the system performance in a 400%, also compared with the next best time.The main results achieved in this Thesis can be summarized as follows:- The performance of parallel applications can be measured at run-time. The requirements to apply the mechanism proposed in this Thesis are to have malleable applications and shared-memory multiprocessor architectures.- The performance of parallel applications 1must be considered to decide the processor allocation. The system must use this information to self-adjust its decisions based on the achieved performance. Moreover, the system must impose a target efficiency to ensure the efficient use of processors.- The different scheduling levels must be coordinated to avoid interferences between levels.
25

High performance instruction fetch using software and hardware co-design

Ramírez Bellido, Alejandro 12 July 2002 (has links)
En los últimos años, el diseño de procesadores de altas prestaciones ha progresado a lo largo de dos corrientes de investigación: incrementar la profundidad del pipeline para permitir mayores frecuencias de reloj, y ensanchar el pipeline para permitir la ejecución paralela de un mayor numero de instrucciones. Diseñar un procesador de altas prestaciones implica balancear todos los componentes del procesador para asegurar que el rendimiento global no esta limitado por ningún componente individual. Esto quiere decir que si dotamos al procesador de una unidad de ejecución mas rápida, hay que asegurarse de que podemos hacer fetch y decodificar instrucciones a una velocidad suficiente para mantener ocupada a esa unidad de ejecución.Esta tesis explora los retos presentados por el diseño de la unidad de fetch desde dos puntos de vista: el diseño de un software mas adecuado para las arquitecturas de fetch ya existente, y el diseño de un hardware adaptado a las características especiales del nuevo software que hemos generado.Nuestra aproximación al diseño de un suevo software ha sido la propuesta de un nuevo algoritmo de reordenación de código que no solo pretende mejorar el rendimiento de la cache de instrucciones, sino que al mismo tiempo pretende incrementar la anchura efectiva de la unidad de fetch. Usando información sobre el comportamiento del programa (profile data), encadenamos los bloques básicos del programa de forma que los saltos condicionales tendrán tendencia a ser no tomados, lo cual favorece la ejecución secuencial del código. Una vez hemos organizado los bloques básicos en estas trazas, mapeamos las diferentes trazas en memoria de forma que minimicen la cantidad de espacio requerida para el código realmente útil, y los conflictos en memoria de este código. Además de describir el algoritmo, hemos realizado un análisis en detalle del impacto de estas optimizaciones sobre los diferentes aspectos del rendimiento de la unidad de fetch: la latencia de memoria, la anchura efectiva de la unidad de fetch, y la capacidad de predicción del predictor de saltos.Basado en el análisis realizado sobre el comportamiento de los códigos optimizados, proponemos también una modificacion del mecanismo de la trace cache que pretende realizar un uso mas efectivo del escaso espacio de almacenaje disponible. Este mecanismo utiliza la trace cache únicamente para almacenar aquellas trazas que no podrían ser proporcionadas por la cache de instrucciones en un único ciclo.También basado en el conocimiento adquirido sobre el comportamiento de los códigos optimizados, proponemos un nuevo predictor de saltos que hace un uso extensivo de la misma información que se uso para reordenar el código, pero en este caso se usa para mejorar la precisión del predictor de saltos.Finalmente, proponemos una nueva arquitectura para la unidad de fetch del procesador basada en explotar las características especiales de los códigos optimizados. Nuestra arquitectura tiene un nivel de complejidad muy bajo, similar al de una arquitectura capaz de leer un único bloque básico por ciclo, pero ofrece un rendimiento muy superior, siendo comparable al de una trace cache, mucho mas costosa y compleja.
26

Analysis and design of real-time control systems with varying control timing constraints

Martí Colom, Pau 26 July 2002 (has links)
L'anàlisi i el disseny dels sistemes de control de temps real és una tasca complexa, que requereix la integració de dues disciplines, la dels sistemes de control i la dels sistemes de temps real. Tradicionalment però, els sistemes de control de temps real s'han dissenyat diferenciant, de forma independent, dues fases, primerament el disseny del controlador, i després, la seva implementació en un computador. Això ha desembocat en solucions no òptimes tant en termes de planificabilitat del sistema i com en el rendiment dels sistemes controlats.Normalment, els mètodes i models de la teoria de control de temps discret no consideren durant la fase de disseny dels controladors les limitacions que es puguin derivar de la implementació. En la fase de disseny s'assumeix que els algorismes de control s'executaran en processadors dedicats i que els processadors seran prou ràpids i determinístics per no haver-se de preocupar del comportament temporal que aquests algorismes de control tindran en temps d'execució. Tot i així, quan els recursos - per exemple, processadors - són limitats, apareixen variacions temporals en l'execució dels algorismes de control. En concret, en els sistemes de planificació de tasques de temps real, un algorisme de control s'implementa en una tasca periòdica caracterizada per restriccions temporals estàndards com períodes i terminis. És sabut que, en la planificació de tasques de temps real, les variacions temporals en l'execució d'instàncies de tasques és permesa sempre i quan les restriccions de planificabilitat estiguin garantides. Aquesta variabilitat per tasques de control viola l'estricte comporament temporal que la teoria de control de temps discret pressuposa en l'execució dels algorismes de control.Això té dos efectes negatius: la variabilitat temporal en l'execució de les tasques de control degrada el rendiment del sistema controlat, fins i tot causant inestabilitat. A més, si es minimitza la probabilitat d'aparició d'aquesta variabilitat en l'execució de les tasques de control a través d'especificacións més limitants, la planificabilitat del conjunt de tasques del sistema disminueix.Cal tenir en compte que la teoria de control no dóna directrius de com incloure, en la fase de disseny dels controladors, aquesta variabilitat en l'execució de tasques que es deriva de les limitacions d'implementació. A més, la teoria de sistemes de temps real no proporciona ni models de tasques ni restriccions temporals que puguin ser usats per garantir l'execució periòdica, i sense variabilitats temporals, de tasques sense sobrelimitar la planificabilitat dels sistema.En aquesta tesi es presenta un entorn integrat i flexible de planificació i de control per a l'anàlisi i el disseny de sistemes de control de temps real que dóna solucions als problemes esmentats anteriorment (baixa planificabilitat en el sistema i degradació del rendiment dels sistemes controlats). Mostrem que, fusionant les activitats de la comunitat de temps real amb les de la comunitat de control, això és, integrant la fase de disseny de controladors amb la fase d'implementació en un computador, es millora tant la planificabilitat del sistema com el rendiment dels sistemes controlats.També es presenta una nova aproximació al disseny de controladors de temps discret que té en compte les limitacions derivables de la implementació i relaxa les tradicionals assumpcions dels controladors de temps discret (mostreig i actuació equidistants). En lloc d'especificar, en la fase de disseny, únics valors pel període de mostreig i pel retard temporal, especifiquem un conjunt de valors tant per l'un com per l'altre. Aquesta nova aproximació al disseny de controladors es basa en la idea d'ajustar, en temps d'execució, els paràmetres del controlador d'acord amb el comportament temporal específic de la implementació (per exemple, d'acord amb la variabilitat en l'execució de les tasques deguda a la planificació). Els llaços de control resultants esdevenent sistemes variants en el temps, amb mostreig irregular i retards temporals variables. Per a aquests sistemes, i utilitzant formulació en l'espai d'estat, presentem una anàlisi completa d'estabilitat, així com l'anàlisi de la resposta. També mostrem com, a partir de les propietats temporals d'aquesta nova aproximació al disseny de controladors, podem obtenir restriccions temporals més flexibles per a les tasques de control. Les restriccions temporals estàndards, per a les tasques periòdiques en els sistemes de temps real, són constants per a totes les instàncies d'una tasca. Això és, només un sol valor per a una restricció és aplicable a totes les instàncies. Les noves restriccions temporals que presentem per a tasques de control no forcen a aplicar un valor específic, sinó que permeten aplicar valors diferents a cada instància d'una tasca, tenint en compte, per exemple, la planificabilitat d'altres tasques.Aquestes restriccions temporals flexibles per a tasques de control ens permeten obtenir planificacions viables i sistemes de control estables a partir de conjunts de tasques (incloent tasques de control i d'altres) que no eren planificables en usar mètodes estàndards tant de planificació de temps real com de disseny de controladors. A més, associant informació de rendiment de control a aquestes noves restriccions temporals per a tasques de control, mostrem com podem prendre decisions de planificació que, anant més enllà de complir amb les restriccions temporals, milloren el rendiment dels sistemes controlats quan aquests sofreixen perturbacions. / The analysis and design of real-time control systems is a complex task, requiring the integration and good understanding of both control and real-time systems theory. Traditionally, such systems are designed by differentiating two separate stages: first, control design and then its computer implementation, leading to sub-optimal solutions in terms of both system schedulability and controlled systems performance.Traditional discrete-time control models and methods consider implementation constraints only to a very small extent. This is due to the fact that in the control design stage, controllers are assumed to execute in dedicated processors and processors are assumed to be fast and deterministic enough not to worry about the timing that the controlling activities may have on the implementation. However, when resources (e.g., processors) are limited, timing variations in the execution of control algorithms occur. Specifically, a control algorithm in traditional real-time scheduling is implemented as a periodic task characterized by standard timing constraints such as period and deadline. In real-time scheduling, timing variations in task instance executions (i.e., jitters) are allowed as far as the schedulability constraints are preserved. Consequently, the resulting jitters for control task instances do not comply with the strict timing demanded by discrete-time control theory. This has two pervasive effects: the presence of jitters for control tasks degrades the controlled system performance, even causing instability. On the other hand, minimizing the likelihood of jitters for control tasks by over-constraining the control task specification reduces the schedulability of the entire task set. It is worth mentioning that control theory offers no advice on how to include, into the design of controllers, the effects that implementation constraints have in the timing of the control activities (e.g., scheduling inherent jitters). Also, real-time theory lacks task models and timing constraints that can be used to guarantee a periodic task execution free of jitters without over-constraining system schedulability. In this thesis we present a flexible integrated scheduling and control analysis and design framework for real-time control systems that solves the problems outlined above: poor system schedulability and controlled systems performance degradation. We show that by merging the activities of the control and real-time communities, that is, by integrating control design with computer implementation, both system schedulability and controlled systems performance are improved. We present a new approach to discrete-time controller design that takes implementation constraints into account and relaxes the equidistant sampling and actuation assumptions of traditionally designed discrete-time controllers. Instead of specifying a single value for the sampling period and a single value for the time delay at the design stage, we specify a set of values for both the sampling period and for the time delay. This new approach for the controller design relies on the idea of adjusting controller parameters at run time according to the specific implementation timing behaviour, i.e., scheduling inherent jitters. The resulting closed-loop systems are based on irregularly sampled discrete-time system models with varying time delays. We have used state space formulation to present a complete stability and response analysis for such models.We also show how to derive more flexible timing constraints for control tasks by exploiting the timing properties imposed by this new approach to discrete-time controller design. Real-time scheduling standard timing constraints for periodic tasks are constant for all task instances. That is, a single value of a constraint (e.g., period or deadline) holds for all task instances. Our flexible timing constraints for control tasks do not set specific values. Rather, they provide ranges and combinations to choose from (at each control task instance execution), taking into account, for example, schedulability of other tasks. That is, these more flexible timing constraints for control tasks allow us to obtain feasible schedules and stable control systems from task sets (including control and non-control tasks) that are not feasible using traditional real-time scheduling and discrete-time control design methods. In addition, by associating control performance information with these new timing constraints for control tasks, we show how scheduling decisions, going beyond meeting timing constraints, can be taken to improve the performance of the controlled systems when they are affected by perturbations.
27

Contact Damage on Ceramic Laminates

Ceseracciu, Luca 22 May 2008 (has links)
La difusión de los materiales cerámicos en muchos campos de la industria es amplia y está en fuerte expansión, debido a las excelentes propiedades de estos materiales, ya sean mecánicas, térmicas, tribológicas o biológicas. Sin embargo, su fragilidad intrínseca y falta de fiabilidad limitan una mayor difusión en esas aplicaciones donde se precisa alta resistencia estructural. La producción de composites multilaminares es un camino prometedor para aumentar la fiabilidad de los cerámicos. Los cerámicos multicapa permiten que las propiedades mecánicas sean mejores que las de los componentes, debido a la presencia en la superficie de tensiones residuales de compresión provocadas diferencias de expansión térmica entre las capas.Las aplicaciones óptimas de estos materiales son las que están relacionadas con las propiedades superficiales; por eso la respuesta a las cargas por contacto son especialmente importantes para caracterizar las propiedades mecánicas y para mejorar el diseño de cerámicos composites avanzados.Las técnicas de indentación Hertziana son herramientas muy útiles para estudiar este tipo de carga, que por otro lado es difícil de caracterizar por ensayos mecánico tradicionales. El daño por contacto en materiales frágiles aparece principalmente como grietas anillo en la superficie, que pueden desarrollarse como grietas cono, características de este tipo de carga. Este agrietamiento es perjudicial para la funcionalidad del material, y puede llevar al fallo de la pieza. Las cerámicas tenaces, por otro lado, pueden presentar un daño, cuasi-plástico, que se genera debajo la superficie en forma de microagrietamento, y que es causa de deformación inelástica.En esta tesis, se caracteriza la resistencia al daño por contacto materiales cerámicos en base alúmina, incluyendo todos los aspectos de ese daño, desde la aparición de fisuras superficiales, a la propagación de grietas frágiles en la primera capa y su influencia sobre la resistencia del material, hasta el fallo inducido por carga de contacto. Se comparan medidas experimentales con análisis a los Elementos Finitos de los parámetros involucrados en cada caso, lo que permite formular pautas para una correcta caracterización y diseño de cerámicas multicapas avanzados.Se vio que la presencia de tensiones residuales es efectiva en mejorar la resistencia a la formación de grieta anillo, sea generada por cargas monotónicas, cíclicas o estáticas.La alta resistencia frente a este último tipo de carga revela que existen mecanismos de puenteo intergranular que se oponen a la formación de grietas, lo que era inesperado por el tamaño de grano fino, y que se atribuye a un efecto de grieta corta, comparada con la microestructura. Ensayos cíclicos de larga duración mostraron, por otro lado, que en los materiales multicapas aparece daño superficial más severo que en los monolíticos, lo que sugiere un cambio del daño predominante hacía una degradación superficial producida por cuasi-plasticidad.Las tensiones residuales afectan tanto la longitud como el ángulo de la grieta cono. Se modeló el problema mediante Elementos Finitos y algoritmos de propagación de grieta, lo que permitió predecir el crecimiento de grieta en función tanto de las tensiones residuales, como de otros parámetros microestructurales, y determinar del ángulo de la grieta cono en materiales policristalinos.La respuesta a cargas remotas de materiales indentados, en otras palabras la degradación de la resistencia, se ve afectada por la geometría de la grieta cono, y por otros factores que son consecuencia de la estructura laminar, tales como las tensiones residuales y la redistribución de carga por el desajuste elástico entre capas. Asimismo, la resistencia por contacto, o sea la resistencia a compresión roma localizada, se ve mejorada en materiales laminares, como consecuencia de las tensiones residuales. Sin embargo, se evidenció que existe el riesgo de que se genere tensión elevada en las capas interiores bajo ambos tipos de carga, y se propusieron consideraciones generales sobre el diseño de materiales laminares.En definitiva, se consiguió una caracterización exhaustiva de las propiedades de contacto mecánico de los materiales estudiados, y se amplió y mejoró el conocimiento de la propagación de grieta en materiales frágiles policristalinos. / The use of ceramic materials in many industrial fields is spread and ever-increasing, for their excellent properties, either mechanical, thermal, tribological or biological. However, their intrinsic brittleness and lack of reliability are obstacles to further spreading these materials in applications where structural resistance is required. To build multilayered composite structures is a promising way which aims to increase the reliability of ceramics. As it is common in composite materials, layered materials allow the mechanical properties to be superior to those of the constituent materials, in the studied case due to the presence of compressive residual stress in the surface.The best applications for such materials are those related to the surface properties; for this reason the response to contact loading is especially important to characterize the mechanical properties and to assist in the design of advanced ceramic composites. Hertzian indentation techniques provide a powerful tool to study such type of loading, which is otherwise difficult to characterize with the traditional mechanical testing methodologies. Contact damage in brittle materials appears mainly as surface ring-cracks, which can develop in a characteristic cone crack. Such fissuration is detrimental to the functionality of the material, and can lead to the failure of the component. Tough ceramics often present another type of damage, the so-called quasi-plasticity, generated as subsurface microcracking and which is cause of inelastic deformation.In this thesis, alumina-based ceramic laminates were characterized in their resistance to contact damage in all its aspects, starting from the appearance of surface fissures, to the propagation of brittle cracks in the first layer and its influence on the material strength, to the contact loadinginduced failure. Experimental measurements were coupled with Finite Element analysis of the involved parameters, which assisted in formulating comprehensive guidelines for the correct characterization and the design of advanced multilayered ceramics. The presence of residual stress in ceramic laminates proved to be effective in improving the material resistance to the ring cracking, generated by monotonic, cyclic and longlasting tests.The better resistance to these latter revealed the existence of grain bridging hindering the crack formation, unexpected in fine-grained alumina and which was related to the small crack character of the ring crack. Longer lasting cyclic tests showed that more severe damage appears in the multilayered materials than in the monolithic one, suggesting a modification of the redominant damage mode to quasi-plastic-derived surface degradation.Propagation of long cone cracks is affected by residual stress in both the length and angle. An automatic Finite Element model of crack propagation allowed to predict crack growth as a function of both the extrinsic residual stresses and of microstructural parameters, which helped address the long-open question of the cone crack angle on polycrystalline materials.The response to remote loading of indented materials, in other words the strength degradation, is conditioned by the cone crack geometry, as well as by other factors deriving from the laminated structure, such as the presence of residual stress itself and the load redistribution due to the elastic mismatch between layers. Similarly, the contact strength, i.e. the resistance to local blunt compression, is improved in the composite materials as a consequence of the residual stresses. Nevertheless, the risk of high stress in the lower tensile layers was highlighted for both types of loading and general consideration on the design of laminated materials were proposed.In the overall, a comprehensive characterization of the contact properties of the studied materials was achieved, and the understanding of crack propagation on brittle polycrystalline materials was broadened and improved.
28

Algoritmos de ordenación conscientes de la arquitectura y las características de los datos

Jiménez González, Daniel 02 July 2004 (has links)
En esta tesis analizamos y presentamos algoritmos de ordenación secuencial y paralelo que explotan la jerarquía de memoria del computador usado y/o reducen la comunicación de los datos. Sin embargo, aunque los objetivos de esta tesis son los mismo que los de otros trabajos, la forma de conseguirlos es diferente.En esta tesis los conseguimos haciendo que los algoritmos de ordenación propuestos sean conscientes de la arquitectura del computador y las características de los datos que queremos ordenar.Los conjuntos de datos que consideramos son conjuntos que caben en memoria principal, pero no en memoria cache.Los algoritmos presentados se adaptan, en tiempo de ejecución, a las características de los datos (duplicados, con sesgo, etc.) para evitar pérdidas de rendimiento dependiendo de estas características. Para ello, estos algoritmos realizan un particionado de los datos, utilizando una técnica que llamamos Mutant Reverse Sorting y que presentamos en esta tesis. Mutant Reverse Sorting se adapta dinámicamente a las características de los datos y del computador. Esta técnica analiza una muestra del conjunto de datos a ordenar para seleccionar la forma más rápida de particionar los datos. Esta técnica elige entre Reverse Sorting y Counting Split en función de la distribución de los datos. Estas técnicas también son propuestas en esta tesis. El análisis de estas técnicas, junto con los algoritmos de ordenación presentados, se realiza en un computador IBM basado en módulos p630 con procesadores Power4 y en un computador SGI O2000 con procesadores R10K. En el análisis realizado para ambos computadores se presentan modelos de comportamiento que se comparan con ejecuciones reales.Con todo ello, conseguimos los algoritmos de ordenación secuencial y paralelo más rápidos para las características de los datos y los computadores utilizados. Esto es gracias a que estos algoritmos se adaptan a los computadores y las características de los datos mejor que el resto de algoritmos analizados.Así, por un lado, el algoritmo secuencial propuesto, SKC-Radix sort, consigue unas mejoras de rendimiento de más de 25% comparado con los mejores algoritmos que encontramos en la literatura. Es más, cuanto mayor es el número de duplicados o el sesgo de los datos, mayor es la mejora alcanzada por el SKC-Radix sort.Por otro lado, el algoritmo paralelo presentado, PSKC-Radix sort, es capaz de ordenar hasta 4 veces más datos que Load Balanced Radix sort en la misma cantidad de tiempo. Load Balanced Radix sort era el algoritmo más rápido de ordenación en memoria y en paralelo para los conjunto de datos que ordenamos hasta la publicación de nuestros trabajos. / In this thesis we analyze and propose parallel and sequential sorting algorithms that exploit the memory hierarchy of the computer used and/or reduce the data communication. So, the objectives of this thesis are not different from the objectives of other works. However, the way to achieve those objectives is different.We achieve those objectives by being conscious of the computer architecture and the data characteristics of the data set we want to sort.We have focused on the data sets that fit in main memory but not in cache.So, the sorting algorithms that we present take into account the data characteristics (duplicates, skewed data, etc.) in order to avoid any lose of performance in execution time depending on those characteristics. That is done by partitioning the data set using Mutant Reverse Sorting, which is a partition technique that we propose in this thesis.Mutant Reverse Sorting dynamically adapts to the data characteristics and the computer architecture. This technique analyzes a set of samples of the data set to choose the best way to partition this data set. This chooses between Reverse Sorting and Counting Split, which are selected depending on the data distribution. Those techniques are also proposed in this thesis.The analysis of the partitioning techniques and the sorting algorithms proposed is done in an IBM computer based on p630 nodes with Power4 processors and in a SGI O2000 with R10K processors. Also, we present models of the behavior of the algorithms for those machines.The sequential and parallel algorithms proposed are the fastest for the computer architectures and data set characteristics tested. That is so because those algorithms adapt to the computer architecture and data characteristics better than others.On one hand, the sequential sorting algorithm presented, SKC-Radix sort, achieves performance improvements of more than 25% compared to other sequential algorithms found in the literature. Indeed, the larger the number of duplicates or data skew, the larger the improvement achieved by SKC-Radix sort. On the other hand, the parallel sorting algorithm proposed, PSKC-Radix sort, sorts 4 times the number of keys that Load Balanced Radix can sort in the same amount of time. Load Balanced Radix sort was the fastest in-memory parallel sorting algorithm for the kind of data set we focus on.
29

Some Digital Signature Schemes with Collective Signers

Herranz Sotoca, Javier 15 April 2005 (has links)
Digital signatures are one of the most important consequences of the appearance of public key cryptography, in 1976. These schemes provide authentication, integrity and non-repudiation to digital communications. Some extensions or variations of the concept of digital signature have been introduced, and many specific realizations of these new types of nature schemes have been proposed.In this thesis, we deal with the basic definitions and required security properties of traditional signature schemes and two of its extensions: distributed signature schemes and ring signature schemes. We review the state of the art in these two topics; then we propose and analyze new specific schemes for different scenarios.Namely, we first study distributed signature schemes for general access structures, based on RSA; then we show that such schemes can be used to construct other cryptographic protocols: distributed key distribution schemes and metering schemes. With respect to ring signatures, we opose schemes for both a scenario where the keys are of the Discrete Logarithm type and a scenario where the public keys of users are inferred from their personal identities. Finally, we also propose some distributed ring signature schemes, a kind of schemes which combine the concepts of distributed signatures and ring signatures. We formally prove the security of all these proposals, assuming that some mathematical problems are hard to solve. Specifically, we base the security of our schemes in the hardness of either the RSA problem, or the Discrete Logarithm problem, or the Computational Diffie-Hellman problem.
30

Alberta Infant Motor Scale: análisis de validez y fiabilidad y su aplicación en la determinación de las trayectorias del desarrollo motor grueso en niños nacidos pre-término

Morales Monforte, Erica 19 January 2016 (has links)
El parto prematuro es el mayor desafío clínico actual de la medicina perinatal. La incidencia de recién nacidos pre-término en España ha ido aumentando en las últimas dos décadas. La prematuridad es causa de un aumento de riesgo en el retraso del desarrollo de la motricidad gruesa, especialmente en los recién nacidos con edad gestacional inferior a 30 semanas, quienes son de alto riesgo. El objetivo principal de este estudio se divide en dos fases, en primer lugar la traducción y validación de la Alberta Infant Motor Scale (AIMS) y en segundo lugar examinar las posibles diferencias encontradas entre el desarrollo motor grueso de los niños/as de la muestra de estudio y los valores referenciados en la norma que establece el AIMS. Respecto a la población de estudio para la primera fase, son niños/as de entre 0 y 18 meses de edad que están en situación de riesgo de presentar o presentan cualquier forma de retraso en el desarrollo motor. Para la segunda fase, son niños nacidos antes de la semana 37 de gestación con un peso inferior a 2.500g, desde el primer mes hasta los dieciséis meses de edad corregida. En la primera fase, la muestra está compuesta por 50 niños/as de 0 a 18 meses de edad y en la segunda fase por 25 niños/as de 1 a 16 meses de edad corregida. En relación a la metodología, en primer lugar se lleva a cabo la traducción y adaptación trans-cultural del AIMS al castellano. A continuación se inicia la recogida de datos, mediante video-grabaciones por parte del fisioterapeuta (A). Tras lo cual se calcula la fiabilidad intra-observador. En paralelo, un segundo fisioterapeuta (B) analiza las video-grabaciones para estudiar así la fiabilidad inter-observador. En el análisis de los datos se calcula también la consistencia interna. En segundo lugar, el fisioterapeuta A valora una muestra aleatoria, de 25 niños/as del total de la muestra, mediante la Bayley-III para llevar a cabo un análisis de comparación de métodos y obtener así la correlación entre ambas escalas. Respecto a la segunda fase del estudio, el fisioterapeuta A valora la muestra de niños prematuros necesaria, mediante la AIMS, para obtener las puntuaciones en diferentes momentos del desarrollo motor entre el primer mes y los dieciséis meses de edad corregida. Examinando así las posibles diferencias con los datos referenciados en la norma y en función de la edad gestacional al nacer.

Page generated in 0.0421 seconds