• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 73
  • 31
  • 29
  • 18
  • 9
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 486
  • 194
  • 190
  • 185
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 98
  • 64
  • 50
  • 36
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modelización y Asignación de Tareas para Aplicaciones Paralelas con Flujo Continuo de Datos de Entrada

Guirado Fernández, Fernando 20 July 2007 (has links)
Las aplicaciones paralelas que procesan flujos continuos de datos de entrada, denominadas como aplicaciones pipeline, son de gran interés para la comunidad científica. Los principales criterios de rendimiento en el proceso de su optimización son dos: (a) minimizar la latencia, de forma que se obtenga el resultado para un dato de entrada en el menor tiempo posible y (b) conseguir un ratio de datos procesados por unidad de tiempo predeterminado, valor denominado como productividad.La necesidad de procesar una flujo continuo de datos, añade un factor de iteratividad en la ejecución de las tareas, lo cual supone un incremento en la complejidad de su optimización respecto a las aplicaciones que solo procesan un dato de entrada.El objetivo de este trabajo de tesis contribuye en aportar una solución en la optimización de las aplicaciones pipeline. El proceso de optimización está basado en la obtención de una productividad específica en la ejecución de la aplicación. Para realizarllo, se aborda el problema mediante dos estrategias: (a) cuando la aplicacione no tienen la capacidad de alcanzar la productividad requerida, se crea una nueva estructura para el grafo de tareas que lo permita y, (b) en la situación de que le requerimiento de productividad sí sea alcanzable, se definen estrategias de mapping que asignan las tareas a los procesadores asegurando la capacidad de obtener el rendimiento marcado como objetivo. La arquitectura de ejecución escogida en esta tesis está basada en la arquitectura de memoria distribuida, por ser ésta la más utilizada en la actualidad en el cómputo de altas prestaciones.Con respecto a la definición del grafo de tareas, esta tesis desarrolla dos técnicas basadas en la paralelización/replicación de taeras y que minimizan la sobrecarga de las comunicaciones. Ambas técnicas localizan las tareas que actúan como cuello de botella en la obtención del requisito de productividad. Con el conocimiento de su funcionalidad y del tipo de flujo de datos a tratar aplican: (a) paralelismo de datos para disminuir el tiempo de cómputo individual de cada uno de los datos de entrada o (b) replicación de tareas para aumentar la capacidad de procesar, de forma concurrente, más datos del flujo de entrada. En el proceso de mapping, en el que las tareas de la aplicación serán asignadas a los nodos de procesamiento de la arquitectura de ejecución, esta tesis propone dos heurísticas de mapping basadas en el concepto de etapa síncrona y con diferente complejidad. Estas heurísticas reciben el nombre de MPASS (Mapping of Pipeline Applications based on Synchronous Stages) y MPART (Mapping of Pipeline Applications based on Reduced Tree). Ambas heurísticas, poseen los mismos objetivos para la asignación: (a) obtener una productividad prefijada, minimizando el número de nodos de procesamiento o (b) minimizar la latencia, bajo un requisito de productividad a alcanzar y, de nuevo, minimizando el número de nodos de procesamiento.La experimentación se ha realizado utilizando un conjunto de aplicaciones sintéticas que modelan el comportamiento de las aplicaciones pipeline y tres aplicaciones reales de diferentes ámbitos científicos: el compresor de vídeo MPEG2, IVUS (IntraVascular UltraSound), encargada de procesar imágenes medicas para definir la estructura arterial y BASIZ (Bright And Satured Images Zones), que detecta en una secuencia de imágenes, aquellas regiones que captan la atención del ojo humano. Los resultados obtenidos demuestran como las técnicas propuestas son capaces de alcanzar el redimiento marcado como objetivo, proponiendo la estructura más adecuada para el grafo de tareas y mediante el mapping apropiado para las aplicaicones pipeline. / Parallel applications that process an input data stream, called pipeline applications, are currently focussing the interest of scientific comunity. The main issues to deal with in the optimization process of these applications are the following two: (a) to minimize latency, allowing the execution of one data of the input stream in the smallest possible time and, (b) to achieve a specific ratio of data processed per time unit, named as throughput.The necessity of processing an input data stream, adds a characteristic of iterativity in the execution of tasks that increases the complexity of the optimization of these applications compared with this for parallel applications that only process a single input data.The aim of this thesis is to contribute with a solution in the optimization of the pipeline applications. The optimization process is based on the obtention of a specific throguhput for the application during the execution. To do this, we confront the problem with two kind of strategies: (a) when the pipeline application is not able to achieve the throughput requirement, we develop the definition of a new task graph structure that allows it and, (b) in the situation where the required throuhgput is achievable, we define task mapping strategies that assign tasks to processors ensuring the capacity of obtaining the performance objective. The execution architecture selected in this thesis is based on the distributed memory arquitecture, as can be the clusters of workstations, which in the present time are broadly used on high performance computing.Related to the task graph definition issue, this thesis propose two new techniques based on task parallelization/replication and reduce the communications overhead. Both techniques find the bottleneck tasks that don't allow to reach the throughput requirement. With the knowledge of their functionality and the kind of input data stream they apply: (a) data parallelism to minimize the individual computation time of a single input data or, (b) task replication in order to increase the ability of the pipeline application to process concurrently a higher number of input data.In the mapping process, where the tasks of the applications are assigned to the processors on the execution architecture, this thesis proposes two new mapping heuristics based in the synchronous stage concept, with different complexity. These heuristics are named as MPASS (Mapping of Pipeline Applications based on Synchronous Stages) and MPART (Mapping of Pipeline Applications based on Reduced Tree). Both mapping heuristics have the same objectives: (a) to obtain the throughput used as the requirement by minimizing the number of processors and, (b) to minimize the latency, under a throughput requirement to be achieved by minimizing the number of processors to be used too.The experimentation process is carried out using a set of synthetic applications that model the behaviour of the pipeline applications, and with three real applications of different scientific fields: the video mpeg-2 compressor, IVUS (IntraVascular-UltraSound) that process medical images in order to determine the arterial structure and BASIZ (Bright and Satured Images Zones) that detects on a image sequence, the zones that capture the main interest of the human eye. The results show that the proposed techniques are able to reach the target performance, proposing the best suitable task graph structure and the appropriate task mapping for these pipeline applications.
42

Automatic dynamic tuning of parallel/distributed applications on computational grids

Fernandes de Carvalho Costa, Genaro 20 July 2009 (has links)
Las aplicaciones paralelas presentan diversos problemas de prestaciones al ser cambiadas para ejecutar en entornos Grid. Las características del sistema pueden ser diferentes en cada ejecución y en algunos casos dentro de una misma ejecución. Los recursos remotos comparten enlaces de red y, los procesos de la aplicación comparten las maquinas con otros procesos. En esos escenarios se propone el uso de la técnica de sintonización dinámica de prestaciones para ayudar las aplicaciones a adaptarse a los cambios en las características del sistema con la intención de resolver los problemas de prestaciones. Esta tesis analiza el problema de la ejecución de aplicaciones paralelas en entornos Grid, herramientas para el análisis de prestaciones disponibles y modelos adecuados para la sintonización dinámica de aplicaciones paralelas en este tipo de entorno. De este análisis, se propone una arquitectura para sintonización dinámica de aplicaciones paralelas en entornos Grid llamada GMATE. Esta arquitectura incluye diversas contribuciones. En el caso donde un gestor de recursos de alto nivel decide el mapeo de procesos de la aplicación, se proponen dos aproximaciones para el seguimiento de procesos que habilita GMATE a localizar donde las capas de software del Grid ha mapeado los procesos de la aplicación. Una aproximación consiste en la integración de GMATE a las capas de software del Grid. La otra integra los componentes requeridos de GMATE dentro de los binarios de la aplicación. El primer enfoque requiere derechos de administración en cuanto que el segundo incrementa el binario del la aplicación, lo que torna más lento el arranque de la misma. Para respetar las políticas de las organizaciones propietarias de los recursos, todas las comunicaciones usan el mismo certificado de seguridad de la aplicación. Esas comunicaciones son hechas con base en las capas del Grid. Esta aproximación habilita la arquitectura a monitorizar y sintonizar los procesos de la aplicación de forma dinámica a las restricciones de cortafuegos de las organizaciones y políticas de uso de la red en las mismas. Para bajar la necesidad de comunicaciones en la arquitectura GMATE, se encapsula parte de la lógica requerida para colectar las medidas y para cambiar los parámetros de la aplicación en componentes encuestados que ejecutan dentro de espacio de memoria del proceso de la aplicación. Para colectar medidas, se ha creado componentes sensores que disminuyen la necesidad de comunicaciones llevando el procesamiento de eventos para dentro del proceso de la aplicación. Diferente de la instrumentación tradicional, los sensores pueden retrasar la transmisión de los eventos y ejecutar operaciones básicas como sumas, temporizadores, promedios o generación de eventos basados en umbrales. Esas capacidades reducen los requerimientos de comunicaciones que son útiles en situaciones de bajo ancho de banda. Se propone también el encapsulamiento de la lógica de cambio en las aplicaciones en componentes actuadores. Los actuadores son instalados en el flujo de ejecución de la aplicación y posibilita la sincronización y baja intrusión en cambio de variables y ejecución de funciones para modificar la aplicación. La arquitectura propuesta posibilita la comunicación entre sensores y actuadores lo cual habilita la sintonizaciones sencillas sin necesidad de comunicaciones. Para aplicar la sintonización dinámica en entornos Grid, necesitamos de un modelo de prestaciones que pueda ser usado en entornos con heterogeneidad de red y procesadores para guiar el proceso. Se propone un modelo de prestaciones basado en una heurística para lograr usar el máximo número de esclavos y el mejor tamaño de grano en una ejecución Maestro-Esclavo en sistemas Grid. Se considera que una clase de aplicaciones pueden ser desarrolladas con la capacidad de cambiar el tamaño de grano en tiempo de ejecución y que esa acción cambia la relación entre cómputo y comunicación. En el escenario donde usuarios reciben un conjunto de recursos para una ejecución paralela, esos recursos pueden configurar un sistema de múltiples clústeres. La heurística del modelo presentado permite guiar la selección de los recursos para disminuir el tiempo total de ejecución de la aplicación. Se intenta buscar el punto donde el maestro usa el máximo número de esclavos posible asignando prioridad a aquellos más rápidos. Se presentan los resultados de sintonización del tamaño de grano y número de esclavos en ejecuciones Maestro-Esclavo en entornos Grid donde se logra bajar el tiempo total de ejecución de la aplicación y aumentando la eficiencia de uso de los recursos. Se presentan las implementaciones de las aplicaciones multiplicación de matrices, N-Body y cargas sintéticas las cuales tienen diferentes grados en la relación entre cómputo y comunicación en escenarios de cambio del tamaño de grano. / When moving to Grid Computing, parallel applications face several performance problems. The system characteristics are different in each execution and sometimes within the same execution. Remote resources share network links and in some cases, the processes share machines using per-core allocation. In such scenarios we propose to use automatic performance tuning techniques to help an application adapt itself thus a system changes in order to overcome performance bottlenecks. This thesis analyzes such problems of parallel application execution in Computational Grids, available tools for performance analysis and models to suit automatic dynamic tuning in such environments. From such an analysis, we propose system architecture for automatic dynamic tuning of parallel applications on computational Grids named GMATE. Its architecture includes several contributions. In cases where a Grid meta-scheduler decides application mapping, we propose two process tracking approaches that enable GMATE to locate where a Grid middleware maps application processes. One approach consists of the integration of GMATE components as Grid middleware. The other involves the need to embed a GMATE component inside application binaries. The first requires site administration privileges while the other increases the application binary which slows down application startup. To obey organizational policies, all communications use the same application security certificates for authentication. The same communications are performed using Grid middleware API. That approach enables the monitoring and tuning process to adapt dynamically to organizational firewall restrictions and network usage policies. To lower the communication needs of GMATE, we encapsulate part of the logic required to collect measurements and change application parameters in components that run inside the processing space. For measurements collection, we create sensor components that reduce the communication needs by event processing inside the process space. Different from traditional instrumentation, sensors can postpone the event transmission and perform basic operations such as summarizations, timers, averages or threshold based event generation. That reduces the communication requirements in cases where network bandwidth is expensive. We also encapsulate the modifications used to tune the application in components called actuators. Actuators may be installed at some point in the program flow execution and provide synchronization and low overhead control of application variables and function executions. As sensors and actuators can communicate with each other, we can perform simple tuning within process executions without the need for communication. As the dynamic tuning is performance model-centric, we need a performance model that can be used on heterogeneous processors and network such Grid Systems. We propose a heuristic performance model to find the maximum number of workers and best grain size of a Master-Worker execution in such systems. We assume that some classes of application may be built capable of changing grain size at runtime and that change action can modify an application's compute-communication ratio. When users request a set of resources for a parallel execution, they may receive a multi-cluster configuration. The heuristic model allows for shrinking the set of resources without decreasing the application execution time. The idea is to reach the maximum number of workers the master can use, giving high priority to the faster ones. We presented the results of the dynamic tuning of grain size and the number of workers in Master-Worker applications on Grid systems, lowering the total application execution time while raising system efficiency. We used the implementation of Matrix-Multiplication, N-Body and synthetic workloads to try out different compute-communication ratio changes in different grain size selections.
43

P2P-VoD on Internet: Fault Tolerance and Control Architecture

Godoi, Rodrigo 23 July 2009 (has links)
Un sistema de Vídeo bajo Demanda (Video on Demand - VoD) proporciona que un conjunto de clientes acceda a contenidos multimedia de manera independiente; los usuarios se conectan al sistema, eligen el contenido a visualizar y empiezan a disfrutar del servicio en cualquier instante de tiempo. El vídeo es enviado al cliente, que recibe, descodifica y visualiza el contenido siempre esperando garantía de Calidad de Servicio (Quality of Service - QoS) por parte del sistema. Uno de los objetivos principales en el diseño de servicios de VoD es soportar un gran número de peticiones concurrentes generadas por clientes geográficamente distribuidos; los sistemas de VoD deben conseguir un servicio factible a gran escala y de alta calidad, imponiendo bajos costes de operación y pocas restricciones de despliegue. Recientemente, la distribución de contenidos multimedia en forma de flujo de datos en Internet viene presentando un crecimiento espectacular. La Internet es el entorno más popular de usuarios interconectados y está presente en todo el mundo. Debido a las características de escala global y entorno publico de Internet, esta se ha hecho el ambiente más importante para desplegar el servicio de Vídeo bajo Demanda a gran escala (Large-scale Video on Demand - LVoD). Debido a las limitaciones del modelo cliente-servidor centralizado, los paradigmas peer-to-peer (P2P) y multicast son extensamente aplicados en la distribución multimedia para mejorar la escalabilidad y prestaciones del sistema a través de la compartición de recursos. El P2P está basado en la libre cooperación de iguales con vistas al desarrollo de una tarea común; aprovecha recursos disponibles en el lado del usuario final (almacenamiento, contenido, ancho de banda, poder de procesamiento etc.). El multicast a su vez es una estrategia de comunicación donde un origen tiene la capacidad de transmitir información que puede ser recibida simultáneamente por un grupo de destinos interesados en el mismo contenido. Sin embargo, los paradigmas P2P y multicast añaden nuevas cuestiones en el diseño servicios de VoD para Internet. Los peers son heterogéneos en sus recursos y actúan por su propio libre albedrío, llegando y dejando el sistema en cualquier momento; la carencia o el cambio de la fuente de datos provocada por fallos de peers afectan fuertemente la QoS en sistemas de VoD basados en técnicas de multicast y P2P. Así, la tolerancia a fallos se ha hecho una cuestión crucial en servicios de VoD basados en P2P a fin de garantizar QoS. El mecanismo de tolerancia a fallos se consigue a través del intercambio de mensajes de control; además, el tratamiento de fallos es limitado en el tiempo para proporcionar ausencia de errores y por consiguiente mantener la QoS. Un buen esquema de control se hace imprescindible y su diseño debe ser cuidadoso debido a la restricción de tiempo real del servicio multimedia y el overhead impuesto al sistema por los mensajes de control. Esta tesis presenta un Esquema de Tolerancia a Fallos (Fault Tolerance Scheme - FTS) que trabaja construyendo un sistema de backup distribuido, basado en las capacidades de los propios peers. El FTS está diseñado para organizar un pequeño conjunto de peers que almacenan estáticamente porciones de los archivos multimedia en un buffer llamado 'buffer altruista'. Los clientes que componen el backup distribuido colaboran en el mecanismo de tolerancia a fallos del sistema reservando espacio de almacenamiento (buffer) y capacidad de ancho de banda de subida; los peers seleccionados forman un Grupo de Tolerancia a Fallos (Fault Tolerance Group - FTG). Los resultados obtenidos muestran que el mecanismo de control tiene gran impacto sobre el sistema y exige un diseño cuidadoso; el Esquema de Tolerancia a Fallos propuesto colabora para reducir el overhead impuesto al sistema y es capaz de conseguir tiempos de respuesta bajos en el manejo de fallos; esto mejora la experiencia del usuario reduciendo el retraso en el inicio de la visualización y garantiza un mejor uso de recursos de almacenamiento (buffer). El FTS también distribuye las tareas de control proporcionando fiabilidad y robustez al sistema de VoD. / A Video on Demand (VoD) system provides multimedia content to a set of clients in independent manner; users connect to the system, choose the content to view and start enjoying the service at any given moment. The video is down-streamed to the client, who receives, decodes and displays the content always expecting guaranteed Quality of Service (QoS) from the system. One of the main goals in designing VoD services is to support a great number of concurrent requests generated by geographically distributed clients; VoD systems must achieve a feasible large-scale and high-quality service with the lower costs and fewer deployment restrictions. Recently, multimedia streaming distribution in the Internet presented a spectacular growing. The Internet is the most popular environment of connected users and is deployed throughout the world. Owing to the public and global scale features of Internet, it has become the most important environment to deploy large-scale Video on Demand service (LVoD). Owing to the limitations of centralised server-client model, Peer-to-Peer (P2P) and multicast approaches are widely applied in the multimedia distribution to improve system scalability and performance by sharing resources. P2P is based in the free cooperation of equals in view of the performance of a common task; it takes advantage of available resources at the end host side (storage, content, bandwidth, power processing etc.). The multicast is a communication strategy where a sender has the capability to transmit information that can be received concurrently by a group of interested destinations. Nevertheless, P2P and multicast paradigms add new issues in the design of Internet VoD services. Peers are heterogeneous in their resources and act by their own free will, coming and leaving the system at any time; the lack or the change of data source provoked by peer faults strongly affects the QoS in VoD systems based in P2P and multicast techniques. This way, fault tolerance has become a major issue in P2P-based VoD services in order to guarantee QoS. The fault tolerance mechanism is achieved through the exchange of control messages; moreover, the failure treatment is time limited for providing error absence and consequently maintaining the QoS. A good control scheme is needed and its design must be careful owing to the soft real-time restriction of multimedia service and the overhead imposed on the system. This thesis presents a Fault Tolerance Scheme (FTS) that works by constructing a backup system in a distributed manner, based in own peers' capabilities. The FTS is designed to organise a small set of peers to store portions of the multimedia files statically in a buffer called the 'altruist buffer'. The clients that make up the distributed backup collaborate in system fault tolerance mechanism by reserving buffer space and upload bandwidth capacity; the selected peers form a Fault Tolerance Group (FTG). Results show that the control mechanism has great impact over the system and demands a caution design; the proposed Fault Tolerance Scheme collaborates to reduce the overhead imposed on the system and is able to achieve low response times in dealing with failures; this improves user experience by reducing start-up delays and guarantees a better usage of buffer resources. The FTS also distributes the control tasks providing reliability and robustness to the VoD system.
44

Simulación de altas prestaciones para modelos orientados al individuo

Mostaccio, Diego Javier 20 March 2007 (has links)
Existen diversos campos de la biología que necesitan realizar experimentos para estudiar el modelo de comportamiento de diferentes especies. En la presente tesis, se analizan las diferentes posibilidades de análisis en base a sistemas de simulación de altas prestaciones donde se ha desarrollado un laboratorio virtual que permite a los científicos experimentar con sus modelos y realizar pruebas mediante métodos de simulación distribuida. El modelo utilizado es un Modelo Orientado al Individuo con el cual se puede conocer el comportamiento de un grupo partiendo de la interacción entre los individuos que forman el sistema. Una de las limitaciones de este tipo de simulación orientada al individuo es que es necesario reproducir modelos con un alto grado de detalle. Este tipo de simulaciones necesita grandes potencia de cómputo y solo ha podido transformarse en los últimos años. En virtud de los avances en tecnología de computadores y redes que han favorecido la disponibilidad de cómputo de altas prestaciones (HPC), las simulaciones con grandes cantidades de individuos o alto nivel de detalle, pueden realizarse hoy en día en tiempos considerablemente aceptables a diferencia de las realizadas en sistemas de cómputo convencionales. El laboratorio virtual, que se ha desarrollado como parte del trabajo experimental para probar las teorías de esta tesis, puede ser ejecutado eficientemente en un computador de altas prestaciones y utilizado por científicos de diversas áreas del conocimiento que trabajen con modelos de este tipo. El modelo orientado al individuo utilizado en este trabajo está diseñado para considerar las tres dimensiones, a diferencia de los modelos bidimensionales utilizados hasta el momento, del movimiento de peces. Esta transformación del modelo se ha llevado a cabo derivando el modelo bidimensional, ampliamente utilizando, y obteniendo resultados excelentes en comparación con sus predecesores. En este trabajo los objetivos se han centrado en un modelo que describe el comportamiento de peces en un grupo dentro del espacio, pero todos los pasos realizados demuestran que es posible extraer una metodología general para la resolución de problemas y que puede ser generalizada para modelos orientados al individuo de otras especies o sistemas biológicos. Las aportaciones que presenta este trabajo son el diseño y desarrollo de una metodología de modelado y simulación de altas prestaciones utilizando como caso de uso el movimiento de peces (fishschool) y la implementación de un laboratorio virtual para científicos interesados en el estudio de modelos orientados al individuo (especialmente el de comportamiento de peces) con el agregado que la metodología de trabajo es aplicable a otros campos de la investigación en el ámbito de la ciencia computacional y los sistemas biológicos. Como trabajo adicional también se ha desarrollado un modelo analítico del simulador y se realizan un conjunto de propuestas para mejorar la eficiencia y prestaciones en técnicas de simulación distribuida. / There are several areas in biology that need to perform experiments to study the model behavior of different species. In this thesis, we will analyze the different possibilities of analysis based on high performance simulation systems. In order to study these environments a virtual laboratory has been developed and this allows scientists to experiment and test their models using distributed simulation methods. The model used is an individual-oriented model which allows to know the behavior of a group based on the interaction between individuals within the system. One limitation of this type of individual-oriented simulation is that models need to be replicated with a high degree of detail. Such simulations require large computational power and, in recent years, with the advance in computer technology and networks it is possible to obtain low cost infrastructures for high performance computing (HPC). These HPC simulations allow experiments with large numbers of individuals or high level of detail in reduced intervals of time unlike those in conventional computer systems. The virtual laboratory, which has been developed as part of experimental work to test the theories of this thesis, can be performed efficiently in a high performance computer and used by scientists from diverse areas of knowledge working with such models. The Individual-oriented models used in this work are designed to consider three dimensions, unlike two-dimensional models used in the major part of the models of the literature, to the fish movement. This model transformation was carried out by deriving the two-dimensional model, and excellent results are obtained compared to their predecessors. In this thesis, the objectives have focused on a model that describes the behavior of fish in a group within the space, but their analysis shows that it is possible to extract a general methodology to solve problems and can be generalized to individual-oriented models from other species or biological systems. The main featured in this work are the design and development of a methodology for modeling and high performance simulation for fish movement (fishschool). The proof of concept of this thesis has been made by developing a virtual laboratory that can be used for scientists interested in studying individual-oriented models (the fish movement behavior in our case) with the addition that the methodology is appliable to other research topics in the field of computer science and biological systems. Additional work also includes an analytical model of the simulator and a set of proposals are suggested in order to improve the efficiency and performance in distributed simulation techniques.
45

Diseño de un colorímetro triestímulo a partir de una cámara CCD-RGB

Martínez Verdú, Francisco Miguel 23 November 2001 (has links)
Un dispositivo de captura (escáner o cámara) de imágenes digitales no es un instrumento de medida del color como un espectrofotómetro o un tele-espectrocolorímetro. Aunque codifica la información espectral contenida en una escena en tres canales de color RGB, los datos digitales RGB asociados a un estímulo visual no son los mismos que codificaría el observador humano, el cual se caracteriza por el observador patrón colorimétrico CIE-1931 XYZ. Este trabajo desarrolla un algoritmo general de caracterización colorimétrica para cualquier dispositivo de captura incorporando un estudio del grado de exactitud (errores sistemáticos) y precisión (errores aleatorios) con respecto un tele-espectrocolorímetro.El modelo de caracterización se divide en un algoritmo de caracterización espectral y otro de caracterización colorimétrica. El dispositivo de captura usado ha sido una cámara CCD-RGB Sony DXC-930P conectada a una tarjeta digitalizadora Matrox MVP-AT 850.La caracterización espectral consiste en la determinación de las funciones de igualación, las cuales son básicamente las curvas de sensibilidad espectral relativa más dos factores de escalado: el escalado conjunto entre ellas y el balance de blanco ideal. El punto de partida para obtenerlas es la determinación de las funciones espectrales de conversión optoelectrónica (OECSF), que no son más que una relación empírica entre los niveles digitales RGB y la exposición espectral incidente en el sensor optoelectrónico. Gracias a ellas, hemos comprobado que la ley de la reciprocidad -la respuesta del sistema es independiente frente a valores idénticos de exposición espectral, pero obtenidos variando la apertura relativa N o el tiempo de exposición t- se verifica en Fotografía Digital, cuando no se verifica en Fotografía Fotoquímica. Utilizando dos términos ambivalentes de sensibilidad espectral -responsividad y espectro de acción- hemos determinado también las sensibilidades espectrales completas de los canales-color RGB, las cuales se han utilizado para describir el comportamiento de transferencia fotónica (función espectral de ganancia incremental, eficiencia cuántica, etc), un modelo de codificación cromática y las funciones de igualación.La caracterización colorimétrica consiste en la transformación de los datos digitales RGB en valores triestímulo absolutos CIE-XYZ (en cd/m2) frente a condiciones espectroradiométricas variables y desconocidas a priori. Así, en primer lugar, se ha aplicado un balance de grises sobre los datos digitales RGB para convertirlos en valores colorimétricos relativos RGB. En segundo lugar, se ha incluido por primera vez un algoritmo de adaptación luminosa con el que podemos variar controladamente la apertura relativa N del objetivo fotográfico sin por ello variar la especificación triestímulo absoluta CIE-XYZ que estimamos a partir del perfil colorimétrico entre RGB y XYZ. Con estos dos pasos previos, se ha analizado el nivel de reproducción del color de nuestro dispositivo de captura con respecto un tele-espectrocolorímetro, tanto en su estado bruto como una vez compensado con un modelo lineal de corrección de color. Se ha evaluado el grado de exactitud utilizando el espacio psicométrico CIE-L*a*b* y el algoritmo de índice de reproducción del color tras implementar previamente el modelo de apariencia de colores aislados Hunt'91. También se ha analizado la propagación de los errores aleatorios desde los niveles digitales RGB hasta CIE-XYZ y CIE-L*a*b*. Por último, se ha obtenido la gama de colores reproducibles del dispositivo a partir de la determinación del triángulo de primarios fundamentales y la captura simulada de los colores óptimos y varias muestras del Atlas Munsell. Los resultados obtenidos indican que, en general, debido a las limitaciones optoelectrónicas del rango dinámico espectroradiométrico de entrada, nuestro dispositivo de captura, en estado bruto, aclara y desatura los colores, con lo cual los errores colorimétricos serán más notables cuando se pretenda captar colores oscuros con una apertura relativa N fija. / Un dispositiu de captació (escàner o càmera) d'imatges digitals no és un instrument de mesura del color com un espectrefotòmetre o un tele-espectrecolorímetre. Encara que codifica la informació espectral inclosa en una escena en tres canals de color RGB, les dades digitales RGB associades a un estímul visual no són les mateixes que codificaria l'observador humà, el qual es caracteritza per l'observador patró colorimètric CIE-1931 XYZ. Aquest treball desenvolupa un algorisme general de caracterització colorimètrica per a qualsevol dispositiu de captació agefint-ne un estudi del grau d'exactitud (errors sistemàtics) i precisió (errors aleatoris) respecte un tele-espectrecolorímetre.El model de caracterització es divideix en un algorisme de caracterització espectral i un altre de caracterització colorimètrica. El dispositiu de captació emprat ha sigut una càmera CCD-RGB Sony DXC-930P conectada amb una tarja digitalizadora Matrox MVP-AT 850.La caracterització espectral consisteix en la determinació de les funcions d'igualació, els quals són bàsicament les corbes de sensibilitat espectral relativa a més de dos factors d'escalat: l'escalat conjunt entre elles i el balanç de blanc ideal. El punt de sortida per a obtenir-les és la determinació de les funcions espectrals de conversió optoelectrònica (OECSF), que no són més que una relació empírica entre els nivells digitals RGB i l'exposició espectral incident sobre el sensor optoelectrónic. Gràcies a elles, hem comprovat que la llei de la reciprocitat -la resposta del sistema és independent en front a valors idèntics d'exposició espectral, però obtinguts variant l'obertura relativa N o el temps d'exposició t- es verifica en Fotografía Digital, quan no es verifica en Fotografía Fotoquímica. Emprant dos conceptes ambivalents de sensibilitat espectral -responsivitat i espectre d'acció- hem determinat també les sensibilitats espectrals complertes dels canals RGB, els quals s'han utilitzat per a descriure el comportament de transferència fotònica (funció espectral de ganància incremental, eficiència quàntica, etc) i un model de codificació cromàtica, i per a calcular les funcions d'igualació.La caracterització colorimètrica consisteix en la transformació de les dades digitals RGB en valors triestímuls absoluts CIE-XYZ (en cd/m2) en front a condicions espectreradiomètriques variables i desconegudes a priori. Així, en primer lloc, s'ha aplicat un balanç de grisos sobre les dades digitals RGB per a convertir-les en valors colorimètrics relatius RGB. En segon lloc, s'ha afegit per primera vegada un algorisme d'adaptació luminosa amb el que podem variar controladament l'obertura relativa N de l'objectiu fotogràfic sense per això variar l'especificació triestímul absoluta CIE-XYZ que estimem a partir del perfil colorimètric entre RGB i XYZ. Amb aquests dos pasos previs, hem analitzat respecte un tele-espectrecolorímetre el nivell de reproducció del color del nostre dispositiu de captació, tant en el seu estat brut de funcionament com una vegada compensat amb un model lineal de correcció de color. Hem avaluat el grau d'exactitud utilitzant l'espai psicomètric CIE-L*a*b* i l'algorisme d'ìndex de reproducció del color després d'implementar el model de aparença de colors aïllats Hunt'91. Hem analitzat també la propagació d'errors aleatoris des dels nivells digitals RGB fins a CIE-XYZ i CIE-L*a*b*. Per últim, hem determinat a més el conjunt o gamma de colors reproduïbles del dispositiu a partir de l'obtenció del triangle de primaris fonamentals i la captació simulada dels colors òptims i vàries mostres de l'Atlas Munsell. Els resultats obtinguts indiquen que, en general, degut a les limitacions optoelectròniques del rang dinàmic espectreradiomètric d'entrada, el nostre dispositiu de captació, en el seu estat brut de funcionament, claretja i desatura el colors, amb lo qual els errors colorimètrics destaquen més quan van associats a la captació de colors foscos amb una obertura relativa N fixa. / A digital image capture device (scanner or camera) is not a tool for measuring colour as a spectrophotometer or a tele-spectroradiometer. Although it encodes the spectral information enclosed in a scene into three RGB colour channels, the RGB digital data associated to a visual stimulus are not the same that would encode a human observer, who is characterised by the CIE-1931 XYZ standard observer. This work shows a general algorithm of colorimetric characterisation for any digital image capture device incorporating a study of the accuracy (systematic errors) and precision (statistical errors) levels with respect to a tele-spectroradiometer.The characterisation model is divided into two algorithms of spectral and colorimetric characterisation. The digital image capture device is a CCD-RGB camera Sony DXC-930P connected to a frame grabber Matrox MVP-AT 850.The spectral characterisation consists of the calculation of the colour-matching functions, which are basically the curves of relative spectral sensitivity modified by two scaling factors: the joint scaling factor between them and the ideal white balance. The first step to obtain them is the measurement of the opto-electronic conversion spectral functions (OECSF), which are just an empirical relationship between the RGB digital levels and the spectral exposure incident on the optoelectronic sensor. Thanks to these functions, we have proved that the reciprocity law -identical values of spectral exposure yield identical responses even if the relative aperture N or the exposure time t change- is verified in Digital Photography, although it is not verified in Photochemical Photography. Using two equivalent concepts of spectral sensitivity -responsivity and action spectrum- we have also determined the complete spectral sensitivities of the RGB colour-channels, which are used to describe the optoelectronic performance (incremental gain spectral function, quantum efficiency, etc), a chromatic encoding model, and the colour-matching functions.The colorimetric characterisation consists of transforming the RGB digital data into absolute tristimulus values CIE-XYZ (in cd/m2) under variable and unknown spectroradiometric conditions. So, at the first stage, a grey balance has been applied over the RGB digital data to convert them into RGB relative colorimetric values. At a second stage, an algorithm of luminance adaptation has been included for the first time. With this algorithm, we can change suitably the relative aperture N of the zoom lens without changing the absolute tristimulus specification CIE-XYZ estimated from the colorimetric profile between RGB and XYZ colour spaces. With these previous steps, the colour reproduction level of our digital image capture device has been compared with that obtained with a tele-spectoradiometer, both in a raw state and with the corrections from a linear model of colour correction. The accuracy level has been evaluated using the colour space CIE-L*a*b*. The algorithm of colour reproduction index has been evaluated implementing previously the unrelated Hunt'91 colour appearance model. The propagation of the statistical errors from the RGB digital data to CIE-XYZ and CIE-L*a*b* values has been also studied. Finally, the device gamut has been obtained from the determination of the additive triangle of fundamental primaries and the simulated capture of the optimal colours and some Munsell chips. The obtained results indicate that, in general, due to the optoelectronic limitations of the spectroradiometric dynamic range, our digital image capture device, in raw performance, lightens and desaturates the colours, so dark colours captured with a fixed relative aperture N will have high colorimetric errors.
46

Η τεχνολογική καινοτομία στην διαχείριση των ενδο-νοσοκομειακών διαδικασιών και η εφαρμογή της στον ηλεκτρονικό φάκελο του ασθενή

Μούρτου, Ευστρατία 25 June 2008 (has links)
Τα Δημόσια Νοσοκομεία αντιμετωπίζουν σοβαρά προβλήματα διαχείρισης και εκσυγχρονισμού των παρεχόμενων υπηρεσιών υγείας με κύριο αποτέλεσμα την αναποτελεσματικότητα της λειτουργίας των και το χαμηλό βαθμό της ικανοποίησης των πολιτών. Ο πολίτης που καταφεύγει σε ένα Δημόσιο Νοσοκομείο ζητώντας την απαραίτητη υγειονομική φροντίδα και περίθαλψη δηλώνει σιωπηρά την εμπιστοσύνη του στις υπηρεσίες παροχής υγείας, καθώς και την αποδοχή του στο σύστημα της Δημόσιας Διοίκησης. Το σύστημα όμως δημιουργεί παραλείψεις, καθυστερήσεις, χαοτική γραφειοκρατία και υπέρογκες χρηματικές και μη- επιβαρύνσεις που έχουν σαν αποτέλεσμα τη χαμηλή απόδοση παραγωγής υπηρεσιών υγείας και την άναρχη λειτουργία του ιδιωτικού τομέα. Η αιτία του προβλήματος έγκειται τόσο στη παραβίαση ή στην έλλειψη κανόνων που ρυθμίζουν το κανονιστικό εργασιακό πλαίσιο όσο και στην αδυναμία κατασκευής και εφαρμογής μηχανισμών οι οποίοι να επιβάλλουν την ανελαστική εφαρμογή των διατάξεων. Επίσης, η αδιαφορία των διοικήσεων για την εφαρμογή της τεχνολογικής εξέλιξης και της καινοτομίας καθώς και η έλλειψη σχεδιασμού υλοποίησης και οργάνωσης της παροχής δημόσιας υγείας το ενισχύουν. Γενικά, το πρόβλημα των οργανωτικών αλλαγών στο νοσοκομειακό χώρο είναι βαθύ, αφού απαιτείται αναδιοργάνωση, αλλαγή, προσαρμογή στην τεχνολογική διοίκηση, έλεγχος και αξιολόγηση του παραγομένου έργου σε όλες τις βαθμίδες και ιδιαίτερα στην παροχή υπηρεσιών υγείας. Για παράδειγμα, οι ιατρικοί φάκελοι στα περισσότερα νοσοκομεία ακόμα και σήμερα εξακολουθούν να είναι χειρόγραφοι, ογκώδεις, ασαφείς, δυσεύρετοι, δυσανάγνωστοι ενώ πολλές φορές χάνονται, φθείρονται και αλλοιώνονται. Επίσης, η αναζήτηση ιστορικών και κλινικών δεδομένων που αφορούν τους νοσηλευόμενους και τους εξωτερικούς ασθενείς είναι πολύ δύσκολη, ενώ η εξαγωγή στατιστικών συμπερασμάτων εντελώς αβέβαιη και πολύπλοκη. Ωστόσο οι όποιες προσπάθειες για την βελτίωση και τον εκσυγχρονισμό του συστήματος υγείας πρέπει να συνοδεύονται από σταδιακές τεχνολογικές μεταρρυθμίσεις οι οποίες θα βελτιώνουν την πολυποίκιλη νοσοκομειακή εργασία και παράλληλα θα βοηθούν στο σχεδιασμό πολιτικών διοικητικού ελέγχου και ιεραρχικών δομών οργάνωσης. Ο σκοπός της διατριβής αυτής είναι η σταδιακή αλλαγή νοοτροπίας στο νοσοκομειακό περιβάλλον δια μέσου της αποδοχής των επιτευγμάτων της πληροφορικής, παράλληλα με την ανάπτυξη ενός μοντέλου διαχείρισης της κλινικής πληροφορίας που βασίζεται στη χρήση κατάλληλων κωδικοποιήσεων του υλικού και των ιατρικών πράξεων. Το προτεινόμενο μοντέλο μπορεί να χρησιμοποιηθεί στα νοσοκομεία και να αποτελέσει ένα χρήσιμο εργαλείο για τη λήψη αποφάσεων και το σχεδιασμό βάσεων δεδομένων που θα υποστηρίζουν με ακεραιότητα, αξιοπιστία, ευελιξία και ασφάλεια τα προσωπικά δεδομένα. Το προτεινόμενο μοντέλο έχει αναπτυχθεί με την Ingres II Enterprise Edition [1] και χρησιμοποιεί δομές Β-δέντρων πολλών δρόμων [2], πίνακες hash [3] και τεχνικές row locking [4] με στόχο την ελαχιστοποίηση συγκρούσεων και υπερχειλίσεων των εγγραφών. Σε αυτό, καταγράφονται κανόνες, συμβάντα και ειδικοί περιορισμοί που αυξάνουν την ασφάλεια των δεδομένων. Επίσης ορίζονται κατάλληλοι ρόλοι για τις διαφορετικές ομάδες χρηστών. Η αξιοπιστία του μοντέλου αποτιμάται θεωρώντας το ως ένα μη συντηρούμενο σύστημα, εφόσον οι συνιστώσες του δεν λειτουργούν ανεξάρτητα μεταξύ των. Παράλληλα, θεωρώντας το ως Markov μοντέλο συνεχούς χρόνου [5], χρησιμοποιούνται διαγράμματα μπλοκ αξιοπιστίας σε τεχνολογία RAID [6]. Η ευελιξία του μοντέλου έχει μελετηθεί ποσοτικά σε σχέση με την αξιοπιστία του στο επίπεδο ερωτημάτων-ενημερώσεων, ενώ παράλληλα αναπτύσσεται η ευελιξία επέκτασης του μοντέλου, με την εφαρμογή της τεχνολογίας των γραμμωτών κωδίκων για την αναγνώριση των ασθενών, αλλά και για τη ταυτοποίηση των υλικών που χρησιμοποιούνται στις εκάστοτε νοσηλείες. / Public hospitals are facing a lot of problems in management and modernisation of Health services, not least their inefficiency as well as the low degree of satisfaction of citizens. Any citizen, who takes to a hospital asking for the essential health care and hospitalization, declares silently his trustiness in Health services as well as his acceptance in public services system. However, this system is mostly responsible for failures, delays, chaotic bureaucracy as well as for oversized burden and charges, which result in the low performance of health care services and the uncontrolled operation of private sector. The reason of this problem lies partly in the lack or violation of rules which regulate the defined framework and partly in the failing of construction of mechanisms that could enforce the inelastic implementation of rules. Likewise it lies in the lack of interest in technological development of applications and innovation, by administration, as well as in the lack of planning in organization and implementation of Health services However, the efforts for improvement and modernization of health system must be accompanied with gradual technological reforms, which should improve the miscellaneous hospital work and help not only the planning of administrative control politics but also the settlement of hierarchical structures. The problem of administrative changes in hospital environment is deeper, due to the great demand of re-definition of work flow and organisational structure, of understanding of change including roles and responsibilities, as well as of control and evaluation of any health project. Even nowadays medical records are keeping on being handwritten, massive, fuzzy, illegible, while many times they are lost, or wasted or misquoted. Likewise, searching for history and clinical data for inpatients and outpatients is very difficult, while the exportation of statistical conclusions is purely hazy and complicated. The goal of this dissertation is the development of change of thinking in hospital environment, through the acceptance of informatics achievements. Another goal is the development of a clinical information management model through the usage of relevant coding for medical tests and supplies. The proposed model aims to improve clinical care by facilitating the clinical decision and the planning of suitable hospital databases that could maintain patient’s information in a reliable, flexible and secure manner. This model is implemented within Ingres II Enterprise Edition, while btree structures, hash tables and row locking techniques are developed, aiming to minimize the possible deadlocks and the unwanted overflows. In addition, rules, events and special restrictions in conjunction with different groups and users are developed. Due to the dependence of the model components, its reliability is evaluated as a dependently maintained system, as well as a continuous time Markov chain system, via the usage of reliability block diagrams of RAID technology. Models flexibility is considered in relation with its reliability at a level of queries and updates, while its flexibility is extended through barcode technology, not only for patient’s identification but also for medical supplies recognition.
47

The image of Nero : contemporary iconography

Cass-Fox, Louise January 1983 (has links)
No description available.
48

1968-1981 : construction et identités du champ chorégraphique contemporain en France : désirs, tensions et contradictions / 1968-1981 : construction and identities of the contemporary choreographic field in France : desires, tensions and contradictions

Papin, Mélanie 21 November 2017 (has links)
Cette recherche tente de mettre en évidence les mécanismes d’émergence de la danse contemporaine en France entre 1968 et 1981. Animés par un désir émancipateur de vivre et de danser particulièrement intense dans l’après Mai-68, les danseurs mais aussi journalistes, administrateurs ont produit des micropolitiques au travers desquelles leurs actions collectives et militantes, leurs désirs de pratiques et de danse ont permis de sédimenter, sans pour autant défaire les tensions et la contradictions visibles dès les années 1950, le champ chorégraphique contemporain. Avant d’aborder Mai 68 dans notre première partie, nous dressons un état des lieux du champ chorégraphique dans les années 1950 et 1960 afin de comprendre les conditions d’apparition de cette communauté encore fragile, confrontée à une bataille autour de la notion de modernité entre les tenants d’un héritage « classique » et ceux d’un héritage « moderne ». Si Mai 68 est ensuite envisagé comme un moment politique pour la danse, ses effets « culturels » s’inscrivent tout au long des années 1970. D’abord, ils rendent possible l’accueil des modernités venues des Etats-Unis. Puis, ils favorisent l’installation de modes de production et d’organisation autogérés et collectifs ainsi que des modes de militance en faveur de l’amélioration des conditions de vie et de création. À bien des égards, cette organisation du champ chorégraphique, par les marges et les « forces discrètes », a contribué à ce que l’on a appelé « l’explosion de la Nouvelle danse française » des années 1980. / This research tries to place in a prominent position the mechanisms of emergence of the contemporary dance in France between 1968 and 1981. Livened up by a desire emancipator to live and to dance particularly intense in the after 1968, the dancers but also journalists, administrators produced micropolitics through which their collective and militant actions, their desires of practices and dance allowed to sediment, without undoing the tension and visible contradictions from the 1950s, the contemporary choreograpic field. Before enter upon 1968 on our first part, we draw up an inventory of the choreographic field in the 1950s and 1960s to understand the condition of appearance of this still fragile community, confronted with a battle around the notion of modernity between the upholders of a « classic » legacy and those of a « modern » legacy. If 1968 is then envisaged as a political moment for the dance, its « cultural » effects join troughout 1970s. At first, they make possible the reception of the modernities come from the United States. Then, they favor the installation of self-managed and collective modes of production and organization as well as modes of militance in favour of the provement of the conditions of life and creation. In some respects, this organization of the choreographic field, by the margins et the « discreet strengths », contributed to what we called « the explosion of the New French dance » in the 1980s.
49

Die verkoper se verpligtinge kragtens die gemenereg en die "Consumer Protection Act 68 of 2008" (Afrikaans)

Maree, Johannes Petrus Hermanus 11 September 2012 (has links)
The Consumer Protection Act (the CPA), 68 of 2008, has certainly evoked much debate and expectations in the consumer market. Most certainly, one of the most debated topics is how this new piece of legislation would influence common law of contract. Principles such as freedom to contract, caveat emptor and pacta servanda sunt, will from the effective date of this act certainly bear a new meaning. No longer will the consumer be faced with the might of the sword of the court's interpretation not to excuse contractual unfairness. The CPA seeks specifically to ensure contractual fairness through the principle of public policy and good faith, by promoting a fair, accessible and sustainable marketplace for consumer products and services, and for that purpose to establish national norms and standards relating to consumer protection. The CPA burdens the seller with rigid obligations and creates a plethora of rights available to the consumer. To a certain extent these rights and obligations are similar to the common law rights and obligations of the parties to an agreement of sale. But, in certain instances these rights and obligations differ in a considerable way. The main focus point of this dissertation is how the duties of a seller to an agreement of sale will be influenced and amended, either expressly or by implication. The study will start of with a brief discussion on the implementation and need for a Consumer Protection Act in South Africa, followed by the seller's common law obligations. Thereafter the systematic and application of the CPA will be set out, followed by an extensive discussion of the seller's obligations flowing from the CPA, as well as the specific differences as regards to the common law obligations. From here on, certain practical implications of the CPA will be discussed, followed by a general conclusion. Copyright / Dissertation (LLM)--University of Pretoria, 2012. / Mercantile Law / unrestricted
50

Les vies de Guy Hocquenghem : Sociologie d'une trajectoire à l'intersection des champs politiques, culturels et intellectuels français des années 1960 aux années 1980

Idier, Antoine 09 December 2015 (has links)
Cette thèse de doctorat est consacrée à Guy Hocquenghem (1946-1988), militant « gauchiste » dans les années 1968, figure du Front homosexuel d'action révolutionnaire fondé à Paris en 1971, enseignant à l'université de Vincennes, journaliste à Libération et écrivain, mort du Sida. Discutant plusieurs contributions des sciences sociales sur la biographie, cette thèse est construite comme l'analyse d'une « trajectoire », notion empruntée à Pierre Bourdieu. À partir d'un important travail d'archives et de 130 entretiens semi-directifs, il s'est agi, en retraçant le parcours d'Hocquenghem, de restituer des débats majeurs qu'il a traversés et dont il a été un acteur de premier plan, et de retracer un certain nombre de champs, au sens d'espaces autonomes de la vie sociale, et les logiques qui les animaient. En particulier, cette thèse de doctorat s'intéresse aux mobilisations politiques et aux mouvements sociaux de l'après-1968 en France, en Europe et aux États-Unis, et étudie plusieurs champs recoupant le mouvement homosexuel radical, les débats politiques qui traversent le « gauchisme » et la contre-culture, les intellectuels de la gauche radicale (Jean-Paul Sartre, Michel Foucault, Gilles Deleuze et Félix Guattari, Louis Althusser, Jacques Rancière, etc.), l'enseignement de la philosophie, les discussions théoriques sur la sexualité et l'enfance, la contestation du marxisme, les relectures critiques de la psychanalyse ou encore la littérature du Sida / ...

Page generated in 0.0316 seconds