• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 45
  • 19
  • Tagged with
  • 205
  • 202
  • 202
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 56
  • 50
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Multimodal visualization based on mutual information

Bramon Feixas, Roger 15 July 2013 (has links)
Medical imaging and 3D volumetric visualization are a standard routine for patient diagnosis and treatment. Multimodal visualization plays an important role in medical diagnosis and treatment, because it makes findings possible that might be missed when each modality is considered separately. Despite the advantages of multimodal visualization, its application in real medical context is still lacking due to the complexity of the technique. To overcome these limitations, we will focus this thesis on the automation of the fusion step and the main involved processes: the information fusion and the transfer function design. On the other hand, we will study the quality evaluation of a rendering where we will propose an objective quality metric, which can be used to assess and optimize different visualization processes. We will utilize information theory tools in order to tackle all described problems / La imatge mèdica i la visualització volumètrica tridimensional és un procés bàsic pel diagnòstic i tractament de pacients. La visualització multimodal juga un paper important en el diagnòstic i tractament mèdic perquè combina diferents modalitats d’imatge i permet detectar elements que podrien passar desapercebuts si s'analitzessin les modalitats per separat. Malgrat els avantatges de la visualització multimodal, la seva aplicabilitat en el món mèdic és poc rellevant degut a la complexitat de les tècniques. Per intentar pal·liar aquestes limitacions, en aquesta tesi ens centrarem en l’automatització de procés de fusió basat en dos passos: la fusió d’informació i la definició d’una funció de transferència. Per altar banda, estudiarem com avaluar la qualitat d’una visualització proposant una mètrica de qualitat que podrà ser utilitzada per a l’assistència i optimització de diferents processos de la visualització. En aquesta tesi utilitzarem eines de teoria de la informació per afrontar els problemes descrits
132

Algorithms for the Multiple Variants of Registration in 3D Range Data

Mateo Prous, Xavier 28 November 2013 (has links)
Des del naixement de la fotografia hi ha hagut sempre un gran interès en la possibilitat de detectar una tercera dimensió en les imatges obtingudes per una càmera. Aquesta tercera dimensió permetria la diferenciació i filtrat dels diferents objectes presents a una escena, i per tant facilitar molts del problemes actuals en la recerca de visió per computador. Per tal d'aconseguir-la, diverses tècniques s'han anat utilitzant a través del temps, des de la clàssica estereoscopia fins a altres mètodes més actuals com el Structure from Motion. Durant els darrers anys l'evolució de la tecnologia ha fet possible l'aparició de dispositius que permeten la captura directa d'aquesta informació 3D sense la necessitat d'una intervenció manual. L'ús de diferents espectres de llum com el làser o la llum infraroja, així com la seva integració en els dispositius, han possibilitat aquesta important millora, acompanyada al mateix temps d'una reducció en el preu dels components que ha fet possible el seu ús per gran part de la comunitat de recerca. Aquesta tesis està enfocada en el principals problemes derivats de l'ús de les anomenades càmeres range que, a més de la imatge RGB usual, ofereixen una imatge addicional indicant la distància als objectes de l'escena. Gràcies a l'aplicació directa d'aquestes imatges range, on cada píxel correspon a una distancia, una recreació 3D de l'escena capturada pot ser obtinguda fàcilment. Una de les seves principals avantatges és el fet de que, si la càmera està correctament calibrada, el 3D obtingut es troba expressat en unitat físiques reals (per exemple, en metres) i no pas en píxels. Tot i això, l'ús d'aquestes càmeres range no és tan ideal com es podria suposar. Normalment diverses captures d'una escena o objecte són necessàries per tal d'aconseguir una reconstrucció completa, i alguns materials poden produir problemes que interfereixen en el correcte posicionament dels objectes. Les particularitats de la representació 3D obtinguda fan que aquesta sigui apropiada per fer-la servir com a suport per afegir-hi altres fonts d'informació, com ara imatges RGB o imatges infraroges. L'estructura 3D obtinguda pot ser texturitzada amb aquestes fonts d'informació, donant un resultat integrat que pot ser molt útil per solucionar problemes que no serien possibles utilitzant les imatges de forma separada. Tot i això, diferències en el procés d'adquisició entre aquest tipus d'imatges poden produir alguns problemes quan són fusionades. A més, per tal d'obtenir una reconstrucció 3D completa d'una escena, normalment és necessari que la captura s'hagi fet des de múltiples punts de vista diferents. L'alineament de totes aquestes estructures 3D obtingudes és conegut com registració multivista, on és necessari identificar la posició i orientació de les càmeres range en cadascuna de les presses per tal de poder alinear-les correctament. Aquest alineament s'aconsegueix normalment fen servir dos passos diferenciats: la registració de imatges rang parell a parell, i la posterior minimització de l'error considerant simultàniament totes aquestes parelles. / Ever since the photography was born, there exists a high interest in the possibility of detecting a third dimension in the images obtained by a camera. This third dimension feature would allow the differentiation and easily filtering of the different objects present in the scene, and therefore to facilitate some of the main problematics in the computer vision research. In order to achieve this third dimension acquisition some techniques were historically applied, starting by the classical stereoscopy or other more current methods like Structure from Motion. During last years, the evolution of the technology has made possible the appearance of devices which allows the direct retrieval of 3D information without the manual intervention of the user. The use of different light spectrums like laser or infrared light and their integration inside the camera case have allowed this important improvement, accompanied at the same time by a reduction of the components price which allows its use for the vast majority of the research community. This thesis focuses on the main problems obtained in the use of the so-called range cameras, which, in addition to the usual RGB image, offers an additional image indicating the distance with respect to the objects in the scene. Thanks to the direct application of these range images, where each pixel corresponds to a distance, a 3D recreation of the observed scene can be directly obtained. One of the main advantages is that, if the camera is correctly calibrated, the 3D structure can be obtained with physical units of the real world (such as meters), and not with pixels. Nevertheless, the use of these range cameras was not as ideal as supposed. Usually some captures of every object in the scene are needed in order to obtain a full reconstruction, and different materials could produce problems that interferes the correct position of the object. The presence of these inconveniences produces the necessity of using some algorithms to produce a correct final 3D structure. The particularities of the 3D representation created from the range image become it appropriate to use as a support plate for placing other sources of information, like visible images or infrared images. The obtained 3D structure can be textured with these sources of information, giving an integrated result which could clarify some problems that cannot be solved by using the images separately. However, differences in the acquisition process between these types of images produce difficulties when they are fused. In addition, in order to obtain a full-side representation of a scene usually some 3D captures from different points of views are required. This addresses to the so-called multiview registration problem, where it is necessary to identify the position and orientation of the range camera for each viewpoint in order to correctly join the corresponding 3D structures. Current technology devices like GPSs or IMUs could give this information, but usually is not accurate enough, so common visual elements between different range images must be detected in order to align them. This alignment is usually achieved by using a two-steps procedure: the registration of pairs of range images between them, and the posterior minimization of the global error for the whole set of images.
133

Organisation-based co-ordination of wireless sensor networks

Delgado Román, María del Carmen 11 December 2014 (has links)
Esta tesis presenta el Coalition Oriented Sensing Algorithm (COSA) como un mecanismo de auto-organización para redes de sensores inalámbricos (WSN). El objetivo del algoritmo es extender la vida útil de la red, al mismo tiempo que la funcionalidad básica de la misma – la monitorización fiel del entorno– también es garantizada. La evaluación del funcionamiento del algoritmo se apoya en una plataforma de simulación novedosa, RepastSNS. La implementación de COSA y la preparación de la plataforma para el desarrollo de los experimentos dan lugar a una estructura software reutilizable. Esta estructura favorece la implementación de futuras ampliaciones del algoritmo, así como su exportación a otros entornos. El uso de las WSNs se ha popularizado en los últimos años. Sus particulares características han favorecido la aplicación de las mismas a múltiples áreas. No obstante, la gestión energética de las WSNs sigue siendo objeto de estudio para los investigadores, que tratan de aliviar las fuertes restricciones que estas presentan en cuanto a disponibilidad de energía se refiere. En esta línea, se han propuesto diversas técnicas para conservación de la energía. La restricción energética es especialmente acusada cuando las WSNs se despliegan en entornos que no permiten la conexión de los nodos a la red ni la recarga de sus baterías. Este es el tipo de entorno considerado para la evaluación de COSA. El caso de uso estudiado considera una WSN desplegada a lo largo de un río navegable con el objetivo de monitorizar el estado del agua y detectar la presencia de polución en ella. La definición de COSA se inspira en el paradigma de los Sistemas Multiagente (MAS) mediante la identificación de los nodos de la WSN con agentes del MAS. COSA define un algoritmo para formación de coaliciones basado en diálogos por parejas de agentes (nodos). El algoritmo está completamente embebido en el comportamiento del agente. Los agentes que implementan COSA se comunican con sus vecinos para intercambiar información sobre su percepción del entorno y su estado. Como resultado de esta comunicación local, los agentes eligen su rol en la organización y establecen relaciones leader-follower. La definición de este tipo de relaciones se basa en dos funciones relacionales y un protocolo de negociación que establece las normas de coordinación. Los agentes se juntan en grupos para compensar la calidad de los datos recogidos y el consumo de energía asociado. Esta habilidad permite adaptar el consumo energético de la red a cambios en el entorno, al mismo tiempo que se satisfacen los objetivos de muestreo en cuanto a calidad de la información enviada al sink se refiere. Los resultados experimentales obtenidos apoyan las hipótesis preliminares en cuanto al comportamiento de COSA. A partir de estos resultados también se pone de manifiesto la relación existente entre la coordinación local y las ganancias obtenidas por el uso de COSA. / This thesis introduces the Coalition Oriented Sensing Algorithm (COSA) as a self-organisation mechanism for Wireless Sensor Networks (WSNs). This algorithm aims at extending the network lifetime at the same time that the primary goal of the network –faithfully monitoring the environment– is also guaranteed. The evaluation of the algorithm performance is based on a novel simulator, RepastSNS. The implementation of COSA and the development of its experimental setup define a reusable software structure to work over this simulation environment. It also favours the performance of future enhancements of the algorithm as well as its exportation. The use of WSNs has become widespread in the last years. The special characteristics of these networks have favoured their application to many different areas. One of the major concerns about WSNs refers to their energy management, as they are typically constraint in energy availability. This problem has gained the attention of researchers that try to improve this aspect of the WSNs by defining network energy conservation strategies. This constraint becomes especially acute when the network deployment environment does not allow for battery replenishment or node connection to the net. This is the case of the environment considered for COSA evaluation. The use case considered is a WSN deployed along a waterway in order to monitor the state of the water and detect the presence of pollutant sources. The definition of COSA is inspired by the Multiagent Systems (MAS) paradigm through the identification of nodes in a WSN with agents in a MAS. COSA defines a coalition formation algorithm based on peer-to-peer dialogues between neighbouring agents (nodes). The algorithm is completely embedded into the agent behaviour. Agents implementing COSA communicate with its neighbours to exchange information about their perception of the environment and their state. As a result of this local communication, agents select the role to play in the organisation and can then establish leader-follower relationships. The establishment of these peer-to-peer relationships is based on two relational functions and a negotiation protocol that lays down the norms of this co-ordination. Agents join in groups in order to trade off the accuracy of the sensed data and their energy consumption. As a consequence, COSA endows the network with self-organisation capacity. This ability is used to adapt energy consumption to changes in the environment and, at the same time, to fulfil sampling objectives in terms of the quality of the information reported to the sink. The results derived from experimentation support preliminary hypotheses about COSA good performance. They also provide insights on the relationship between local co-ordination and the gains obtained from COSA’s use.
134

A dynamic link speed mechanism for energy saving in interconnection networks

Hoang Hai, Nguyen 18 July 2014 (has links)
El crecimiento de la potencia de procesamiento de los sistemas de computación paralelos requiere redes de interconexión de mayor nivel de complejidad y un mayor rendimiento, por lo que consumen más energía. Mayor cantidad de energía consumida conduce a muchos problemas relacionados con los costos, la infraestructura y la estabilidad del sistema de refrigeración. Los enlaces de la red contribuyen en una proporción sustancial al consumo total de energía de dichas redes. Varias propuestas se han ido acercando a una mejor administración de la energía de los enlaces. En esta tesis, aprovechamos ciertas características integradas en la tecnología actual de los enlaces para ajustar dinámicamente la velocidad de los mismos en función del tráfico. De esta manera, la red de interconexión consume menos energía cuando el tráfico es ligero. También proponemos una política de enrutamiento que tiene en cuenta la velocidad del enlace que favorece las conexiones de alta velocidad en el proceso de enrutamiento de paquetes para aumentar el rendimiento de la red cuando se despliega el mecanismo de ahorro de energía. Los resultados de la evaluación muestran que las redes que usan el mecanismo de ahorro de energía aquí propuesto, reducen el consumo de energía a expensas de un aumento en el promedio de latencia de paquetes. Sin embargo, con la propuesta de política de enrutamiento que tiene en cuenta la velocidad del enlace, nuestro mecanismo incurre en un menor aumento en el promedio de la latencia de paquetes mientras se logra un ahorro de energía similar, en comparación con otros enfoques convencionales de la literatura. / The growing processing power of parallel computing systems requires interconnection networks a higher level of complexity and higher performance, thus they consume more energy. A larger amount of energy consumed leads to many problems related to cost, cooling infrastructure and system stability. Link components contribute a substantial proportion of the total energy consumption of the networks. Several proposals have been approaching a better link power management. In this thesis, we leverage built-in features of current link technology to dynamically adjust the link speed as a function of traffic. By doing this, the interconnection network consumes less energy when traffic is light. We also propose a link speed aware routing policy that favors high-speed links in the process of routing packets to boost the performance of the network when the energy saving mechanism is deployed. The evaluation results show that the networks deploying our energy saving mechanism reduce the amount of energy consumption with the expense of an increase in the average packet latency. However, with the link speed aware routing policy proposal, our mechanism incurs a less increase in the average packet latency while achieving similar energy saving, compared with other conventional approaches in literature.
135

Diagnosis and fault-tolerant control using set-based methods

Xu, Feng 27 November 2014 (has links)
The fault-tolerant capability is an important performance specification for most of technical systems. The examples showing its importance are some catastrophes in civil aviation. According to some official investigations, some air incidents are technically avoidable if the pilots can take right measures. But, relying on the skill and experience of the pilots, it cannot be guaranteed that reliable flight decisions are always made. Instead, if fault-tolerant strategies can be included in the decision-making procedure, it will be very useful for safer flight. Fault-tolerant control is generally classified into passive and active fault-tolerant control. Passive fault-tolerant control relies on robustness of controller, which can only provide limited fault-tolerant ability, while active fault-tolerant control turns to a fault detection and isolation module to obtain fault information and then actively take actions to tolerate the effect of faults. Thus, active fault-tolerant control generally has stronger fault-tolerant ability. In this dissertation, one focuses on active fault-tolerant control, which for this case considers model predictive control and set-based fault detection and isolation. Model predictive control is a successful advanced control strategy in process industry and has been widely used for processes such as chemistry and water treatment, because of its ability to deal with multivariable constrained systems. However, the performance of model redictive control has deep dependence on system-model accuracy. Realistically, it is impossible to avoid the effect of modelling errors, disturbances, noises and faults, which always result in model mismatch. Comparatively, model mismatch induced by faults is possible to be effectively handled by suitable fault-tolerant strategies. The objective of this dissertation is to endow model predictive control with fault-tolerant ability to improve its effectiveness. In order to reach this objective, set-based fault detection and isolation methods are used in the proposed fault-tolerant schemes. The important advantage of set-based fault detection and isolation is that it can make robust fault detection and isolation decisions, which is key for taking right fault-tolerant measures. This dissertation includes four parts. The first part introduces this research, presents the state of the art and gives an introduction of used research tools. The second part proposes set-based fault detection and isolation for actuator or=and sensor faults, which are involved in interval observers, invariant sets and set-membership estimation. First, the relationship between interval observers and invariant sets is investigated. Then, actuator and sensor faults are separately coped with depending on their own features. The third part focuses on actuator or=and sensor fault-tolerant model predictive control, where the control strategy is robust model predictive control (tube-based and min-max approaches). The last part draws some conclusions, summarizes this research and gives clues for the further work. / La capacidad de los sistemas para tolerar fallos es una importante especificación de desempeño para la mayoría de sistemas. Ejemplos que muestran su importancia son algunas catástrofes en aviación civil. De acuerdo a investigaciones oficiales, algunos incidentes aéreos son técnicamente evitables si los pilotos pudiesen tomar las medidas adecuadas. Aun así, basándose en las habilidades y experiencia de los pilotos, no se puede garantizar que decisiones de vuelo confiables serán siempre posible de tomar. En cambio, si estrategias de tolerancia a fallos se pudieran incluir en el proceso de toma de decisión, los vuelos serían mucho más seguros. El control tolerante a fallos es generalmente clasificado en control pasivo y activo. El control pasivo se basa en la robustez del controlador, el cual sólo provee una habilidad limitada de tolerancia a fallos, mientras que el control tolerante a fallos de tipo activo se convierte en un modulo de detección y aislamiento de fallos que permite obtener información de éstos, y luego, activamente, tomar acciones para tolerar el efecto de dichos fallos. Así pues, el control activo generalmente tiene habilidades más fuertes de tolerancia a fallos. Esta tesis se enfoca en control tolerante a fallos activo, para lo cual considera el control predictivo basado en modelos y la detección y aislamiento de fallos basados en conjuntos. El control predictivo basado en modelos es una estrategia de control exitosa en la industria de procesos y ha sido ampliamente utilizada para procesos químicos y tratamiento de aguas, debido a su habilidad de tratar con sistemas multivariables con restricciones. A pesar de esto, el desempeño del control predictivo basado en modelos tiene una profunda dependencia de la precisión del modelo del sistema. Siendo realistas, es imposible evitar el efecto de errores de modelado, perturbaciones, ruidos y fallos, que siempre llevan a diferencias entre el modelo y el sistema real. Comparativamente, el error de modelo inducido por los fallos es posible de ser manejado efectivamente por estrategias adecuadas de control tolerante a fallos. Con el fin de alcanzar este objetivo, métodos de detección y aislamiento de fallos basados en conjuntos son utilizados en los esquemas de tolerancia a fallos propuestos en esta tesis. La ventaja importante de estas técnicas de detección y aislamiento de fallos basadas en conjuntos es que puede tomar decisiones robustas de detección y aislamiento, lo cual es clave para tomar medidas acertadas de tolerancia a fallos. Esta tesis esta dividida en cuatro partes. La primera parte es introductoria, presenta el estado del arte y hace una introducción a las herramientas de investigación utilizadas. La segunda parte expone la detección y aislamiento de fallos en actuadores y/o sensores, basándose en teoría de conjuntos, a partir de observadores de intervalo, y conjuntos invariantes. La tercera parte se enfoca en el control predictivo robusto (con enfoques basados tanto en tubos robustos como en min-max) con tolerancia a fallos en actuadores y/o sensores. La cuarta parte presenta algunas conclusiones, hace un resumen de esta investigación y da algunas ideas para trabajos futuros.
136

Biomimetic set up for chemosensor-based machine olfaction

Ziyatdinov, Andrey 04 December 2014 (has links)
Tesi per compendi de publicacions. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu de la UPC / The thesis falls into the field of machine olfaction and accompanying experimental set up for chemical gas sensing. Perhaps more than any other sensory modality, chemical sensing faces with major technical and conceptual challenges: low specificity, slow response time, long term instability, power consumption, portability, coding capacity and robustness. There is an important trend of the last decade pushing artificial olfaction to mimic the biological olfaction system of insects and mammalians. The designers of machine olfaction devices take inspiration from the biological olfactory system, because animals effortlessly accomplish some of the unsolved problems in machine olfaction. In a remarkable example of an olfactory guided behavior, male moths navigate over large distances in order to locate calling females by detecting pheromone signals both rapidly and robustly. The biomimetic chemical sensing aims to identify the key blocks in the olfactory pathways at all levels from the olfactory receptors to the central nervous system, and simulate to some extent the operation of these blocks, that would allow to approach the sensing performance known in biological olfactory system of animals. New technical requirements arise to the hardware and software equipment used in such machine olfaction experiments. This work explores the bioinspired approach to machine olfaction in depth on the technological side. At the hardware level, the embedded computer is assembled, being the core part of the experimental set up. The embedded computer is interfaced with two main biomimetic modules designed by the collaborators: a large-scale sensor array for emulation of the population of the olfactory receptors, and a mobile robotic platform for autonomous experiments for guiding olfactory behaviour. At the software level, the software development kit is designed to host the neuromorphic models of the collaborators for processing the sensory inputs as in the olfactory pathway. Virtualization of the set up was one of the key engineering solutions in the development. Being a device, the set up is transformed to a virtual system for running data simulations, where the software environment is essentially the same, and the real sensors are replaced by the virtual sensors coming from especially designed data simulation tool. The proposed abstraction of the set up results in an ecosystem containing both the models of the olfactory system and the virtual array. This ecosystem can loaded from the developed system image on any personal computer. In addition to the engineering products released in the course of thesis, the scientific results have been published in three journal articles, two book chapters and conference proceedings. The main results on validation of the set up under the scenario of robotic odour localization are reported in the book chapters. The series of three journal articles covers the work on the data simulation tool for machine olfaction: the novel model of drift, the models to simulate the sensor array data based on the reference data set, and the parametrized simulated data and benchmarks proposed for the first time in machine olfaction. This thesis ends up with a solid foundation for the research in biomimetic simulations and algorithms on machine olfaction. The results achieved in the thesis are expected to give rise to new bioinspired applications in machine olfaction, which could have a significant impact in the biomedical engineering research area. / Esta tesis se enmarca en el campo de bioingeneria, mas particularmente en la configuración de un sistema experimental de sensores de gases químicos. Quizás más que en cualquier otra modalidad de sensores, los sensores químicos representan un conjunto de retos técnicos y conceptuales ya que deben lidiar con problemas como su baja especificidad, su respuesta temporal lenta, su inestabilidad a largo plazo, su alto consumo enérgético, su portabilidad, así como la necesidad de un sistema de datos y código robusto. En la última década, se ha observado una clara tendencia por parte de los sistemas de machine olfaction hacia la imitación del sistema de olfato biológico de insectos y mamíferos. Los diseñadores de estos sistemas se inspiran del sistema olfativo biológico, ya que los animales cumplen, sin apenas esfuerzo, algunos de los escenarios no resueltos en machine olfaction. Por ejemplo, las polillas machos recorren largas distancias para localizar las polillas hembra, detectando sus feromonas de forma rápida y robusta. La detección biomimética de gases químicos tiene como objetivo identificar los elementos fundamentales de la vía olfativa a todos los niveles, desde los receptores olfativos hasta el sistema nervioso central, y simular, en cierta medida, el funcionamiento de estos bloques, lo que permitiría acercar el rendimiento de la detección al rendimiento de los sistemas olfativos conociodos de los animales. Esto conlleva nuevos requisitos técnicos a nivel de equipamiento tanto hardware como software utilizado en este tipo de experimentos de machine olfaction. Este trabajo propone un enfoque bioinspirado para la ¿machine olfaction¿, explorando a fondo la parte tecnológica. A nivel hardware, un ordenador embedido se ha ensamblado, siendo ésta la parte más importante de la configuración experimental. Este ordenador integrado está interconectado con dos módulos principales biomiméticos diseñados por los colaboradores: una matriz de sensores a gran escala y una plataforma móvil robotizada para experimentos autónomos. A nivel software, el kit de desarrollo software se ha diseñado para recoger los modelos neuromórficos de los colaboradores para el procesamiento de las entradas sensoriales como en la vía olfativa biológica. La virtualización del sistema fue una de las soluciones ingenieriles clave de su desarrollo. Al ser un dispositivo, el sistema se ha transformado en un sistema virtual para la realización de simulaciones de datos, donde el entorno de software es esencialmente el mismo, y donde los sensores reales se sustituyen por sensores virtuales procedentes de una herramienta de simulación de datos especialmente diseñada. La propuesta de abstracción del sistema resulta en un ecosistema que contiene tanto los modelos del sistema olfativo como la matriz virtual . Este ecosistema se puede cargar en cualquier ordenador personal como una imagen del sistema desarrollado. Además de los productos de ingeniería entregados en esta tesis, los resultados científicos se han publicado en tres artículos en revistas, dos capítulos de libros y los proceedings de dos conferencias internacionales. Los principales resultados en la validación del sistema en el escenario de la localización robótica de olores se presentan en los capítulos del libro. Los tres artículos de revistas abarcan el trabajo en la herramienta de simulación de datos para machine olfaction: el novedoso modelo de drift, los modelos para simular la matriz de sensores basado en el conjunto de datos de referencia, y la parametrización de los datos simulados y los benchmarks propuestos por primera vez en machine olfaction. Esta tesis ofrece una base sólida para la investigación en simulaciones biomiméticas y en algoritmos en machine olfaction. Los resultados obtenidos en la tesis pretenden dar lugar a nuevas aplicaciones bioinspiradas en machine olfaction, lo que podría tener un significativo impacto en el área de investigación en ingeniería biomédica
137

A comprehensive methodology to predict forest res behavior using complementary models

Brun Sorribas, Carlos 10 July 2014 (has links)
Els incendis a gran escala suposen un gran repte degut a l'impacte que tenen en la societat a diversos nivells. Aquest fenomen físic és un problema multidisciplinar que requereix de l'esforç d'investigadors de diferents camps. Així doncs, predir el comportament dels incendis forestals i minimitzar els seus efectes són els principals objectius d'aquest treball. Un dels principals problemes d'aquests tipus de fenòmens és la incertesa i la imprecisió dels paràmetres d'entrada. Per abordar aquest problema, ens basem en una estratègia de predicció basada en tècniques de calibració, que tracten de sintonitzar aquests paràmetres per tal de proporcionar una predicció més precisa, i reduir la incertesa sobre els paràmetres. En aquest treball, proposem estratègies per resoldre certes restriccions associades a aquesta tècnica. La distribució espacial dels paràmetres ha estat considerada uniforme en tot el terreny, per la qual cosa s'introdueix un model complementari que simula l'efecte del vent sobre terrenys complexes, degut al paper fonamental del vent en la propagació del foc. A més a més, es suggereix acoblar un model meteorològic, per enriquir el coneixement del sistema sobre l'evolució temporal de les variables meteorològiques. Tots aquests components s'integren en un entorn de simulació i predicció, i es defineix una metodologia per simular incendis forestals reals, en la qual s'especifiquen els passos, procediments, models i eines necessàries per a construir un sistema d'avaluació del risc d'incendis forestals a temps real. Aquest sistema utilitza recursos i paradigmes propis de la Computació d'Altes Prestacions per proporcionar una resposta en un temps acceptable, degut a l'elevat cost computacional de l'avaluació de múltiples escenaris i de la integració de models complementaris. / Los incendios a gran escala suponen un gran reto debido al impacto que tienen en la sociedad a múltiples niveles. Este fenómeno físico es un problema multidisciplinar que requiere del esfuerzo de investigadores de campos diversos. Por lo tanto, predecir el comportamiento de los incendios forestales y minimizar sus efectos son las principales metas de este trabajo. Uno de los problemas principales de este tipo de fenómenos es la incertidumbre e imprecisión de los parámetros de entrada. Para abordar este problema, nos basamos en una estrategia de predicción basada en técnicas de calibración, que trata de sintonizar estos parámetros para proporcionar una predicción más certera, y reducir la incertidumbre sobre los parámetros. En este trabajo, proponemos estrategias para resolver ciertas restricciones asociadas a esta técnica. La distribución espacial de los parámetros ha sido considerada uniforme a lo largo del terreno, por lo que introducimos un modelo complementario para simular el efecto del viento sobre terrenos complejos, debido al papel fundamental del viento en la propagación del fuego. Además, se sugiere acoplar un modelo meteorológico para enriquecer el conocimiento del sistema sobre la evolución temporal de las variables meteorológicas. Todos estos componentes se integran en un entorno de simulación y predicción, y se define una metodología para simular incendios forestales reales donde se especifican los pasos, procedimientos, modelos, y herramientas necesarias para construir un sistema de evaluación del riesgo de incendios forestales en tiempo real. Este sistema se sirve de recursos y paradigmas propios de la Computación de Altas Prestaciones para proporcionar una respuesta en un tiempo aceptable debido al alto coste computacional de evaluar múltiples escenarios, e integrar modelos complementarios. / Large scale forest fires suppose a great challenge due to their impact on society on many levels. This physical phenomenon is an interdisciplinary problem that requires the efforts of researchers across various fields. Therefore, predicting the behavior of forest fires and minimizing the effects of this hazard is the main goal of this work. One of the major problems with this kind of hazard is the uncertainty and imprecision of the input parameters. We rely on a prediction strategy based on calibration techniques that try to tune these parameters to produce a more accurate prediction and reduce the uncertainty of the parameters. In this work, we propose strategies to solve some of the restrictions associated with this technique. The spatial distribution of the parameters has been considered uniform along the terrain, and we introduce a complementary model to simulate the wind behavior over complex terrains, due to the leading role of wind in fire spreading. We also suggest coupling a meteorological model to enrich the knowledge of the system of the temporal evolution of the weather variables. All these components are integrated in a simulation and prediction framework, and a methodology to simulate real forest fire scenarios is defined in which the steps, processes, models and tools to build an effective real-time forest fire assessment system are specified. This system relies on High Performance Computing resources and paradigms to provide a response in an acceptable time due to the high computational cost of evaluating several scenarios and integrating complementary models.
138

Inexact Subgraph Matching Applied to Symbol Spotting in Graphical Documents

Dutta, Anjan 06 May 2014 (has links)
Existeix un ressorgiment en l'ús de mètodes estructurals per al problema de reconeixement i recuperació per contingut d'objectes en imatges. La teoria de grafs, en particular, la posada en correspondència de grafs (graph matching) juga un paper rellevant en aixó. En particular, la detecció d'un objecte (o una part) en una imatge es pot formular com un aparellament de subgrafs en termes de característiques estructurals. El matching de subgrafs és una tasca difícil. Especialment a causa de la presència de valors atípics, molts dels algoritmes existents per al matching de grafs tenen di- ficultats en l'escenari de matching de subgrafs. A més, l'aparellament de subgrafs de manera exacta s'ha demostrat ser una problema NP-complet. Així que hi ha una activitat intensa a la comunitat cientíca per proporcionar algoritmes eficaços per abordar el problema de manera suboptimal. La majoria d'ells treballen amb algoritmes aproximats que tracten d'obtenir una solució inexacta en forma aproximada. A més, el reconeixement habitualment ha de fer front a la distorsió. L'aparellament de subgrafs de manera inexacta consisteix a trobar el millor isomorfisme sota una mesura de similitud. Des del punt de vista teòric, aquesta tesi proposa algoritmes per a la solució al problema de l'aparellament de subgrafs de manera aproximada i inexacta. Des d'un punt de vista aplicat, aquesta tesi tracta el problema de la detecció de símbols en imatges de documents gràfics o dibuixos lineals (symbol spotting). Aquest és un problema ben conegut a la comunitat de reconeixement de gràfics. Es pot aplicar per a la indexació i classificació de documents sobre la base dels seus continguts. El caràcter estructural d'aquest tipus de documents motiva de forma natural la utilització d'una representació de grafs. Així el problema de detectar símbols en documents gràfics pot ser considerat com un problema d'aparellament de subgrafs. Els principals desaàments en aquest domini d'aplicació són el soroll i les distorsions que provenen de l'ús, la digitalització i la conversió de ràster a vectors d'aquests documents. A part que la visió per computador en l'actualitat no limita les aplicacions a un nombre limitat d'imatges. Així que el pas a l'escala i tractar un gran nombre d'imatges en el reconeixement de documents gràfics és un altre desaàment. En aquesta tesi, d'una banda, hem treballat en representacions de grafs eficients i robustes per solucionar el soroll i les distorsions dels documents. D'altra banda, hem treballat en diferents mètodes de matching de grafs per resoldre el problema de l'aparellament inexacte de subgrafs, que també sigui escalable davant d'un considerable nombre d'imatges. En primer lloc, es proposa un mètode per a detectar símbols mitjançant funcions de hash de subgrafs serialitzats. L'organització del graf una vegada factoritzat en subestructures comunes, que es poden organitzar en taules hash en funció de les similituds estructurals, i la serialització de les mateixes en estructures unidimensionals com ara camins, són dues aportacions d'aquesta part de la tesi. L'ús de les tècniques de hashing ajuda a reduir substancialment l'espai de cerca i accelera el procediment de la detecció. En segon lloc, presentem mecanismes de similitud contextual basades en la propagació basada en camins (walks) sobre el graf producte (tensor product graph). Aquestes similituds contextuals impliquen més informació d'ordre superior i més àble que les similituds locals. Utilitzem aquestes similituds d'ordre superior per formular l'aparellament de subgrafs com una problema de selecció de nodes i arestes al graf producte. En tercer lloc, proposem agrupament perceptual basat en convexitats per formar regions quasi convexes que elimina les limitacions de la representació tradicional dels grafs de regions per al reconeixement gràfic. En quart lloc, es proposa una representació de graf jeràrquic mitjançant la simplificació/correcció dels errors estructurals per crear un graf jeràrquic del graf de base. Aquests estructures de grafs jeràrquics s'integren en mètodes d'aparellament de grafs. A part d'aixó, en aquesta tesi hem proporcionat una comparació experimental general de tots els mètodes i alguns dels mètodes de l'estat de l'art. A més, també s'han proporcionat bases de dades d'experimentació. / Existe un resurgimiento en el uso de métodos estructurales para el problema de reconocimiento y recuperación por contenido de objetos en imágenes. La teoría de grafos, en particular la puesta en correspondencia de grafos (graph matching) juega un papel relevante en ello. Así, la detección de un objeto (o una parte) en una imagen se puede formular como un emparejamiento de subgrafos en términos de características estructurals. El matching de subgrafos es una tarea difícil. Especialmente debido a la presencia de valores atípicos, muchos de los algoritmos existentes para el matching de grafos tienen dificultades en el escenario de matching de subgrafos. Además, el apareamiento de subgrafos de manera exacta ha demostrado ser una problema NP-completo . Así que hay una actividad intensa en la comunidad científica para proporcionar algoritmos eficaces para abordar el problema de manera suboptimal. La mayoría de ellos trabajan con algoritmos aproximados que tratan de obtener una solución inexacta en forma aproximada. Además, el reconocimiento habitualmente debe hacer frente a la distorsión. El emparejamiento de subgrafos de manera inexacta consiste en encontrar el mejor isomorfismo bajo una medida de similitud. Desde el punto de vista teórico, esta tesis propone algoritmos para la solución al problema del emparejamiento de subgrafos de manera aproximada e inexacta. Desde un punto de vista aplicado, esta tesis trata el problema de la detección de símbolos en imágenes de documentos gráficos o dibujos lineales (symbol spotting). Este es un problema conocido en la comunidad de reconocimiento de gráficos. Se puede aplicar para la indexación y clasificación de documentos sobre la base de sus contenidos. El carácter estructural de este tipo de documentos motiva de forma natural la utilización de una representación de grafos. Así el problema de detectar símbolos en documentos gráficos puede ser considerado como un problema de apareamiento de subgrafos. Los principales desafiós en este dominio de aplicación son el ruido y las distorsiones que provienen del uso, la digitalización y la conversión de raster a vectores de estos documentos. Aparte de que la visión por computador en la actualidad no limita las aplicaciones a un número limitado de imágenes. Así que el paso a la escala y tratar un gran número de imágenes en el reconocimiento de documentos gráficos es otro desafió. En esta tesis, por una parte, hemos trabajado en representaciones de grafos efi- cientes y robustas para solucionar el ruido y las distorsiones de los documentos. Por otra parte, hemos trabajado en diferentes métodos de matching de grafos para resolver el problema del emparejamiento inexacto de subgrafos, que también sea escalable ante un considerable número de imágenes. En primer lugar, se propone un método para de tectar símbolos mediante funciones de hash de subgrafos serializados. La organización del grafo una vez factorizado en subestructuras comunes, que se pueden organizar en tablas hash en función de las similitudes estructurales, y la serialización de las mismas en estructuras unidimensionales como caminos, son dos aportaciones de esta parte de la tesis. El uso de las técnicas de hashing ayuda a reducir sustancialmente el espacio de búsqueda y acelera el procedimiento de la detección. En segundo lugar, presentamos mecanismos de similitud contextual basadas en la propagación basada en caminos (walks) sobre el grafo producto (tensor product graph). Estas similitudes contextuales implican más información de orden superior y más áble que las similitudes locales. Utilizamos estas similitudes de orden superior para formular el apareamiento de subgrafos como una problema de selección de nodos y aristas al grafo producto. En tercer lugar, proponemos agrupamiento perceptual basado en convexidades para formar regiones casi convexas que elimina las limitaciones de la representación tradicional de los grafos de regiones para el reconocimiento gráfico. En cuarto lugar, se propone una representación de grafo jerárquico mediante la simplificación/corrección de los errores estructurales para crear un grafo jerárquico del grafo de base. Estos estructuras de grafos jerárquicos integran en métodos de emparejamiento de grafos. Aparte de esto, en esta tesis hemos proporcionado una comparación experimental general de todos los métodos y algunos de los métodos del estado del arte. Además, también se han proporcionado bases de datos de experimentación. / There is a resurgence in the use of structural approaches in the usual object recognition and retrieval problem. Graph theory, in particular, graph matching plays a relevant role in that. Specifically, the detection of an object (or a part of that) in an image in terms of structural features can be formulated as a subgraph matching. Subgraph matching is a challenging task. Specially due to the presence of outliers most of the graph matching algorithms do not perform well in subgraph matching scenario. Also exact subgraph isomorphism has proven to be an NP-complete problem. So naturally, in graph matching community, there are lot of efiorts addressing the problem of subgraph matching within suboptimal bound. Most of them work with approximate algorithms that try to get an inexact solution in approximate way. In addition, usual recognition must cope with distortion. Inexact graph matching consists in finding the best isomorphism under a similarity measure. Theoretically this thesis proposes algorithms for solving subgraph matching in an approximate and inexact way. We consider the symbol spotting problem on graphical documents or line drawings from application point of view. This is a well known problem in the graphics recognition community. It can be further applied for indexing and classification of documents based on their contents. The structural nature of this kind of documents easily motivates one for giving a graph based representation. So the symbol spotting problem on graphical documents can be considered as a subgraph matching problem. The main challenges in this application domain is the noise and distortions that might come during the usage, digitalization and raster to vector conversion of those documents. Apart from that computer vision nowadays is not any more confined within a limited number of images. So dealing a huge number of images with graph based method is a further challenge. In this thesis, on one hand, we have worked on eficient and robust graph representation to cope with the noise and distortions coming from documents. On the other hand, we have worked on difierent graph based methods and framework to solve the subgraph matching problem in a better approximated way, which can also deal with considerable number of images. Firstly, we propose a symbol spotting method by hashing serialized subgraphs. Graph serialization allows to create factorized substructures such as graph paths, which can be organized in hash tables depending on the structural similarities of the serialized subgraphs. The involvement of hashing techniques helps to reduce the search space substantially and speeds up the spotting procedure. Secondly, we introduce contextual similarities based on the walk based propagation on tensor product graph. These contextual similarities involve higher order information and more reliable than pairwise similarities. We use these higher order similarities to formulate subgraph matching as a node and edge selection problem in the tensor product graph. Thirdly, we propose near convex grouping to form near convex region adjacency graph which eliminates the limitations of traditional region adjacency graph representation for graphic recognition. Fourthly, we propose a hierarchical graph representation by simplifying/correcting the structural errors to create a hierarchical graph of the base graph. Later these hierarchical graph structures are matched with some graph matching methods. Apart from that, in this thesis we have provided an overall experimental comparison of all the methods and some of the state-of-the-art methods. Furthermore, some dataset models have also been proposed.
139

Deterministically assessing the robustness against transient faults of programs

Dias Lima Gramacho, João Artur 17 July 2014 (has links)
Los procesadores están evolucionando para obtener más rendimiento, utilizando más transistores y siendo cada vez más densos y más complejos. Un efecto secundario de este escenario es que los procesadores son cada vez menos robustos frente a fallos transitorios. Como las soluciones integradas en los propios procesadores son caras o tienden a degradar el rendimiento del procesador, estas soluciones para hacer frente a estos fallos transitorios se complementan con propuestas en las capas superiores, como en el sistema operativo, o incluso en los programas. Las propuestas de tolerancia a fallos para tratar fallos transitorios integrados en la capa de aplicación, para su validación y evaluación usan frecuentemente experimentos de inyección de fallos, de este modo pueden evaluar el comportamiento de los programas con y sin sus propuestas de detección de fallas. Utilizar experimentos de inyección de fallos para evaluar el comportamiento de los programas en presencia de fallos transitorios, requiere ejecutar el programa evaluado, haciendo la inyección de un fallo (por lo general cambiando un solo bit en un registro del procesador) una cantidad significativa de veces, siempre observando el comportamiento del programa y si este ha finalizado presentando el resultado esperado. Un problema con esta estrategia es que el espacio de inyección de fallos es proporcional a la cantidad de instrucciones ejecutadas multiplicado por la cantidad de bits en el archivo de registros de la arquitectura del procesador. En lugar de ser exhaustivos (que sería inviable), este método consume mucho tiempo de CPU ejecutando o simulando el programa que se está evaluando tantas veces como sea necesario para obtener una aproximación estadística válida razonable (por lo general sólo unos pocos miles de veces). Así, el tiempo requerido para evaluar cómo se comportaría un solo programa en presencia de fallos transitorios podría ser proporcional al tiempo necesario para ejecutar el programa cerca de cinco mil veces. En este trabajo se presenta el concepto de robustez de un programa frente a fallos transitorios y también presenta una metodología llamada ARTFUL diseñada para, en lugar de utilizar las ejecuciones con inyecciones de fallos, hacer el cálculo de la robustez de forma determinística, basada en una traza de ejecución del programa y en la información sobre la arquitectura utilizada. Nuestro método fue evaluado calculando la robustez precisa de conocidos benchmarks reduciendo significativamente el tiempo necesario para realizar la evaluación. / Computer chips are evolving to obtain more performance, using more transistors and becoming denser and more complex. One side effect of such a scenario is that processors are becoming less robust than ever against transient faults. As on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels, such as the operating system or even by the programs, are increasing. Software based fault tolerance approaches to deal with transient faults often use fault injection experiments to evaluate the behavior of programs with and without their fault detection proposals. Using fault injection experiments to evaluate programs behavior in presence of transient faults require running the program under evaluation and injecting a fault (usually by flipping a single bit in a processor register) for a sufficient amount of times, always observing the program behavior and if it ended presenting the expected result. One problem with this strategy is that the fault injection space is proportional to the amount of instructions executed multiplied by the amount of bits in the processor architecture register file. Instead of being exhaustive (it would be unfeasible), this approach consumes lots of CPU time by running or simulating the program being evaluated as many times as necessary to obtain a reasonable valid statistical approximation (usually just a few thousand times). So, the time required to evaluate how a single program would behave in presence of transient faults might be proportional to the time needed to run the program for five thousand times. In this work we present the concept of a program's robustness against transient faults and also present a methodology named ARTFUL (from Assessing the Robustness against Transient Faults) designed to, instead of using executions with fault injections, deterministically calculate this robustness based on program’s execution trace over an given processor architecture and on information about the used architecture. Our approach was able to calculate the precise robustness of some benchmarks using just the time need to run the evaluated program for tents of times in the best cases.
140

Interactive transmission and visually lossless strategies for JPEG2000 imagery

Jiménez Rodríguez, Leandro 30 May 2014 (has links)
Cada dia, vídeos i imatges es transmeten per Internet. La compressió d’imatges permet reduir la quantitat total de dades transmeses i accelera la seva entrega. En escenaris de vídeo-sota-demanda, el vídeo s’ha de transmetre el més ràpid possible utilitzant la capacitat disponible del canal. En aquests escenaris, la compressió d’imatges es mandatària per transmetre el més ràpid possible. Comunament, els vídeos són codificats permeten pèrdua de qualitat en els fotogrames, el que es coneix com ha compressió amb pèrdua. Els mètodes de compressió amb pèrdua són els més utilitzats per transmetre per Internet degut als seus elevats factors de compressió. Un altre característica clau en els escenaris de vídeo-sota-demanda és la capacitat del canal. Dependent de la capacitat, un mètode de assignació de rati assigna la quantitat de dades que es deu transmetre per cada fotograma. La majoria d’aquests mètodes tenen com a objectiu aconseguir la millor qualitat possible donat un ample de banda. A la pràctica, l’ample de banda del canal pot sofrir variacions en la seva capacitat degut a la congestió en el canal o problemes en la seva infraestructura. Aquestes variacions poden causar el desbordament o buidament del buffer del client, provocant pauses en la reproducció del vídeo. La primera contribució d’aquesta tesis es un mètode d’assignació de rati basat en JPEG2000 per a canals variants en el temps. La seva principal avantatja és el ràpid processament aconseguint una qualitat quasi òptima en la transmissió. Encara que la compressió amb pèrdua sigui la més usada per la transmissió d’imatges i vídeo per Internet, hi ha situacions on la pèrdua de qualitat no està permesa, en aquests casos la compressió sense pèrdua ha de ser utilitzada. La compressió sense pèrdua pot no ser viable en alguns escenaris degut als seus baixos factors de compressió. Per superar aquest inconvenient, la compressió visualment sense pèrdua pot ser utilitzada. La compressió visualment sense pèrdua és una tècnica basada en el sistema de visió humana per codificar només les dades visualment rellevants. Això permet factors de compressió majors que els de la compressió sense pèrdua, aconseguint pèrdues no perceptibles a l’ull humà. La segona contribució d’aquesta tesis és un sistema de codificació visualment sense pèrdua per a imatges JPEG2000 prèviament codificades. El propòsit d’aquest mètode es permetre la descodificació i/o transmissió de imatges dins en un règim visualment sense pèrdua. / Cada día, vídeos e imágenes se transmiten por Internet. La compresión de imágenes permite reducir la cantidad total de datos transmitidos y acelera su entrega. En escenarios de vídeo-bajodemanda, el vídeo debe transmitirse lo más rápido posible usando la capacidad disponible del canal. En éstos escenarios, la compresión de imágenes es mandataria para transmitir lo más rápido posible. Comúnmente, los videos son codificados permitiendo pérdida de calidad en los fotogramas, lo que se conoce como compresión con pérdida. Los métodos de compresión con pérdida son los más usados para transmitir por Internet dados sus elevados factores de compresión. Otra característica clave en escenarios de video-bajo-demanda es la capacidad del canal. Dependiendo de la capacidad, un método de asignación de ratio asigna la cantidad de datos que deben ser transmitidos por cada fotograma. La mayoría de estos métodos tienen como objetivo conseguir la mejor calidad posible dado un ancho de banda. A la práctica, el ancho de banda del canal puede sufrir variaciones en su capacidad debido a congestión en el canal o problemas en su infraestructura. Estas variaciones pueden causar el desbordamiento o vaciado del buffer del cliente, provocando pausas en la reproducción del vídeo. La primera contribución de esta tesis es un método de asignación de ratio basado en JPEG2000 para canales variantes en el tiempo. Su principal ventaja es el procesado rápido consiguiendo una calidad casi óptima en la transmisión. Aunque la compresión con pérdida sea la más usada para la transmisión de imágenes y vídeos por Internet, hay situaciones donde la pérdida de calidad no está permitida, en éstos casos la compresión sin pérdida debe ser usada. La compresión sin pérdida puede no ser viable en escenarios debido sus bajos factores de compresión. Para superar este inconveniente, la compresión visualmente sin pérdida puede ser usada. La compresión visualmente sin pérdida es una técnica que está basada en el sistema de visión humano para codificar sólo los datos de una imagen que son visualmente relevantes. Esto permite mayores factores de compresión que en la compresión sin pérdida, consiguiendo pérdidas no perceptibles al ojo humano. La segunda contribución de esta tesis es un sistema de codificación visualmente sin pérdida para imágenes JPEG2000 que ya han sido codificadas previamente. El propósito de este método es permitir la decodificación y/o transmisión de imágenes en un régimen visualmente sin pérdida. / Every day, videos and images are transmitted over the Internet. Image compression allows to reduce the total amount of data transmitted and accelerates the delivery of such data. In video-on-demand scenarios, the video has to be transmitted as fast as possible employing the available channel capacity. In such scenarios, image compression is mandatory for faster transmission. Commonly, videos are coded allowing quality loss in every frame, which is referred to as lossy compression. Lossy coding schemes are the most used for Internet transmission due its high compression ratios. Another key feature in video-on-demand scenarios is the channel capacity. Depending on the capacity a rate allocation method decides the amount of data that is transmitted for every frame. Most rate allocation methods aim at achieving the best quality for a given channel capacity. In practice, the channel bandwidth may suffer variations on its capacity due traffic congestion or problems in its infrastructure. This variations may cause buffer under-/over-flows in the client that causes pauses while playing a video. The first contribution of this thesis is a JPEG2000 rate allocation method for time-varying channels. Its main advantage is that allows fast processing achieving transmission quality close to the optimal. Although lossy compression is the most used to transmit images and videos in Internet, when image quality loss is not allowed, lossless compression schemes must be used. Lossless compression may not be suitable in scenarios due its lower compression ratios. To overcome this drawback, visually lossless coding regimes can be used. Visually lossless compression is a technique based in the human visual system to encode only the visually relevant data of an image. It allows higher compression ratios than lossless compression achieving losses that are not perceptible to the human eye. The second contribution of this thesis is a visually lossless coding scheme aimed at JPEG2000 imagery that is already coded. The proposed method permits the decoding and/or transmission of images in a visually lossless regime.

Page generated in 0.0784 seconds