Spelling suggestions: "subject:"informàtica"" "subject:"informàticad""
311 |
Off-line and in-operation optical core networks planningCastro, Alberto 10 October 2014 (has links)
The ever increasing IP traffic volume has finally brought to light the high inefficiency of current wavelength-routed over rigid-grid optical networks in matching the client layer requirements. Such an issue results in the deployment of large-size, expensive and power-consuming Multiprotocol Label Switching (MPLS) layers to perform the required grooming/aggregation functionality. To deal with this problem, the emerging flexgrid technology, allowing for reduced size frequency grids, is being standardized.
Flexgrid optical networks divide the spectrum into frequency slots providing finer granularity than rigid networks based on Dense Wavelength Division Multiplexing (DWDM). To find a feasible allocation, new Routing and Spectrum Allocation (RSA) algorithms for flexgrid optical networks need to be designed and evaluated. Furthermore, due to the flexibility of flexible optical networks, the aggregation functions and statistical multiplexing can be partially located in the optical layer. In addition, given the special characteristics of flexible optical networks, the traditional mechanisms for protection and recovery must be reformulated.
Optical transport platforms are designed to facilitate the setting up and tearing down of optical connections (lightpaths). Combining remotely configurable optical cross-connects (OXCs) with a control plane provides the capability of automated lightpath set-up for regular provisioning, and real-time reaction to the failures, being thus able to reduce Operational Expenditures (OPEX). However, to exploit existing capacity, increase dynamicity, and provide automation in future networks, current management architectures, utilizing legacy Network Management Systems (NMS) need to be radically transformed.
This thesis is devoted to design optical networks and to devise algorithms to operate them.
Network design objective consists of:
i. Analyzing the cost implications that a set of frequency slot widths have on the Capital Expenditures (CAPEX) investments required to deploy MPLS-over-flexgrid networks;
ii. Studying recovery schemes, where a new recovery scheme specifically designed for flexgrid-based optical networks is proposed.
As for network operation, we focus on:
i. Studying provisioning, where two provisioning algorithms are proposed: the first one targets at solving the RSA problem in flexgrid networks, whereas the second one studies provisioning considering optical impairments in translucent DWDM networks;
ii. Getting back to the recovery problem, we focus on algorithms to cope with restoration in dynamic scenarios. Several algorithms are proposed for both single layer and multilayer networks to be deployed in the centralized Path Computation Element (PCE);
iii. One of the main problems in flexgrid networks is spectrum defragmentation. In view of that, we propose an algorithm to reallocate already established optical connections so as to make room for incoming requests. This algorithm is extended with elasticity to deal with time-varying traffic.
The above algorithms are firstly implemented and validated by using simulation, and finally experimentally assessed in real test-beds. In view of PCE architectures do not facilitate network reconfiguration, we propose a control and management architecture to allow the network to be dynamically operated; network resources can be made available by reconfiguring and/or re-optimizing the network on demand and in real-time. We call that as in-operation network planning.
It shall be mentioned that part of the work reported in this thesis has been done within the framework of several European and National projects, namely STRONGEST (FP7-247674), IDEALIST (FP7-ICT-2011-8), and GEANT (FP7-238875) funded by the European Commission, and ENGINE (TEC2008-02634) and ELASTIC (TEC2011-27310) funded by the Spanish Science Ministry. / El volumen creciente del tráfico IP, finalmente, ha puesto de manifiesto la alta ineficiencia de las redes ópticas actuales de grid rígido basadas en WDM en la adecuación a los requisitos de capa de cliente. Dicho problema genera que se deba desplegar una red con capas MPLS de gran tamaño, costosa y de alto consumo energético para poder realizar la funcionalidad de agregación requerida. Para hacer frente a este problema, la tecnología flexgrid emergente, que permite grids con frecuencias de menor tamaño, está siendo estandarizada. Las redes ópticas flexgrid dividen el espectro en slots de frecuencia, lo que proporciona una granularidad más fina en comparación a las redes rígidas basadas en WDM. Para encontrar una asignación factible, nuevos algoritmos de enrutamiento y asignación de espectro (RSA) para redes ópticas flexgrid deben ser diseñados y evaluados. Además, debido a la flexibilidad de las redes ópticas flexibles, las funciones de agregación y de multiplexación estadística pueden ser parcialmente situadas en la capa óptica. Asimismo, dadas las características especiales de las redes ópticas flexibles, los mecanismos tradicionales de protección y recuperación deben reformularse. Las plataformas de transporte ópticas están diseñadas para facilitar la creación y destrucción de conexiones ópticas. La combinación de OXCs configurables remotamente con un plano de control, proporciona la capacidad de crear conexiones automáticamente para el aprovisionamiento habitual, y la reacción en tiempo real a los fallos, para así poder reducir el OPEX. Sin embargo, para aprovechar la capacidad existente, aumentar la dinamicidad y proporcionar automatización a las redes del futuro, las arquitecturas actuales de gestión, que utilizan sistemas legados de NMS, necesitan ser transformadas de manera radical. Esta tesis está dedicada al diseño de redes ópticas y a la creación de algoritmos para operarlas. El objetivo de diseño de red se compone de: 1. El análisis de las implicancias en el costo que tiene un conjunto de slots de frecuencia en el CAPEX necesario para implementar redes MPLS-over-flexgrid; 2. El estudio de esquemas de recuperación, donde se propone un nuevo esquema de recuperación diseñado específicamente para las redes ópticas basadas en flexgrid. En cuanto a la operación de la red: 1. El estudio de aprovisionamiento, donde se proponen dos algoritmos de aprovisionamiento: el primero de ellos tiene como objetivo solucionar el problema de RSA en redes flexgrid, mientras que el segundo estudia aprovisionamiento considerando la degradación óptica en redes WDM translúcidas; 2. Volviendo al problema de la recuperación, nos centramos en algoritmos de restauración para escenarios dinámicos. Se proponen varios algoritmos, tanto para redes mono-capa como multi-capa, que serán desplegados en un PCE centralizado; 3. Uno de los principales problemas en las redes flexgrid es la desfragmentación del espectro. Para ello, se propone un algoritmo para reasignar las conexiones ópticas ya establecidas con el fin de hacer espacio a las entrantes. Este algoritmo se extiende con elasticidad para ser utilizado en escenarios con tráfico variable en el tiempo. Los algoritmos anteriores son primero implementados y validados utilizando simulación, y finalmente son evaluados experimentalmente en testbeds reales. En vista de que las arquitecturas de PCE no facilitan la reconfiguración de la red, proponemos una arquitectura de control y gestión para permitir que la red pueda ser operada de forma dinámica; hacer que los recursos de la red estén disponibles mediante reconfiguración y/o re-optimización de la red bajo demanda y en tiempo real. A eso lo llamamos planificación en operación de la red. El trabajo presentado en esta tesis se ha realizado en el marco de proyectos europeos y nacionales: STRONGEST (FP7-247674), IDEALIST (FP7-2011-8), y GEANT (FP7-238875) financiados por la CE, y ENGINE (TEC2008-02634) y ELASTIC (TEC2011-27310) financiados por el MINECO
|
312 |
Monocular depth estimation in images and sequences using occlusion cuesPalou Visa, Guillem 21 February 2014 (has links)
When humans observe a scene, they are able to perfectly distinguish the different parts composing it. Moreover, humans can easily reconstruct the spatial position of these parts and conceive a consistent structure. The mechanisms involving visual perception have been studied since the beginning of neuroscience but, still today, not all the processes composing it are known.
In usual situations, humans can make use of three different methods to estimate the scene structure. The first one is the so called divergence and it makes use of both eyes. When objects lie in front of the observed at a distance up to hundred meters, subtle differences in the image formation in each eye can be used to determine depth. When objects are not in the field of view of both eyes, other mechanisms should be used. In these cases, both visual cues and prior learned information can be used to determine depth. Even if these mechanisms are less accurate than divergence, humans can almost always infer the correct depth structure when using them. As an example of visual cues, occlusion, perspective or object size provide a lot of information about the structure of the scene. A priori information depends on each observer, but it is normally used subconsciously by humans to detect commonly known regions such as the sky, the ground or different types of objects.
In the last years, since technology has been able to handle the processing burden of vision systems, there has been lots of efforts devoted to design automated scene interpreting systems. In this thesis we address the problem of depth estimation using only one point of view and using only occlusion depth cues. The thesis objective is to detect occlusions present in the scene and combine them with a segmentation system so as to generate a relative depth order depth map for a scene. We explore both static and dynamic situations such as single images, frame inside sequences or full video sequences. In the case where a full image sequence is available, a system exploiting motion information to recover depth structure is also designed. Results are promising and competitive with respect to the state of the art literature, but there is still much room for improvement when compared to human depth perception performance. / Quan els humans observen una escena, son capaços de distingir perfectament les parts que la composen i organitzar-les espacialment per tal de poder-se orientar. Els mecanismes que governen la percepció visual han estat estudiats des dels principis de la neurociència, però encara no es coneixen tots els processos biològic que hi prenen part. En situacions normals, els humans poden fer servir tres eines per estimar l’estructura de l’escena.
La primera és l’anomenada divergència. Aprofita l’ús de dos punts de vista (els dos ulls) i és capaç¸ de determinar molt acuradament la posició dels objectes ,que a una distància de fins a cent metres, romanen enfront de l’observador. A mesura que augmenta la distància o els objectes no es troben en el camp de visió dels dos ulls, altres mecanismes s’han d’utilitzar. Tant l’experiència anterior com certs indicis visuals s’utilitzen en aquests casos i, encara que la seva precisió és menor, els humans aconsegueixen quasi bé sempre interpretar bé el seu entorn. Els indicis visuals que aporten informació de profunditat més coneguts i utilitzats són per exemple, la perspectiva, les oclusions o el tamany de certs objectes. L’experiència anterior permet resoldre situacions vistes anteriorment com ara saber quins regions corresponen al terra, al cel o a objectes.
Durant els últims anys, quan la tecnologia ho ha permès, s’han intentat dissenyar sistemes que interpretessin automàticament diferents tipus d’escena. En aquesta tesi s’aborda el tema de l’estimació de la profunditat utilitzant només un punt de vista i indicis visuals d’oclusió. L’objectiu del treball es la detecció d’aquests indicis i combinar-los amb un sistema de segmentació per tal de generar automàticament els diferents plans de profunditat presents a una escena. La tesi explora tant situacions estàtiques (imatges fixes) com situacions dinàmiques, com ara trames dins de seqüències de vídeo o seqüències completes. En el cas de seqüències completes, també es proposa un sistema automàtic per reconstruir l’estructura de l’escena només amb informació de moviment. Els resultats del treball son prometedors i competitius amb la literatura del moment, però mostren encara que la visió per computador té molt marge de millora respecte la precisió dels humans.
|
313 |
User experience methodology for the design and evaluation of interactive systemsMasip Ardévol, Llúcia 13 December 2013 (has links)
L’avaluació heurística és una de les metodologies d’avaluació de la usabilitat més barates i
utilitzades. Tot i així, algunes de les fases de la metodologia poden ser semi-automatitzades per
tal de disminuir encara més el temps necessari per executar la metodologia i, en conseqüència,
disminuir també el pressupost invertit en el procés de desenvolupament del sistema interactiu.
A més, en termes generals, la qualitat d’un producte ha evolucionat de la usabilitat cap a
l’experiència d’usuari. Per tant, d’acord amb les fases manuals de l’avaluació heurística i
l’evolució cap a l’experiència d’usuari, es proposa una nova metodologia basada en heurístiques
que considera l’experiència d’usuari en les fases de disseny i avaluació del procés de
desenvolupament d’un sistema interactiu.
Aquesta nova metodologia basada en heurístiques semi-automatitza l’elecció de les millors
heurístiques per un sistema interactiu específic. També suporta el procés de l’avaluació heurística
en sí i, finalment proporciona resultats quantitatius, qualitatius, formatius i summatius a través de
l’estàndard ISO/IEC 25062:2006 standard for software engineering. Software product Quality
Requirements and Evaluation (SQuaRE). Common Industry Format (CIF).
Finalment, aquesta metodologia s’implementa en el recurs anomenat Open-HEREDEUX: Open
HEurisitc Resource for Designin and Evaluation User eXperience. / La evaluación heurística es una de las metodologías de evaluación de la usabilidad más baratas y
utilizadas. Sin embargo, algunas de las fases de la metodología pueden ser semi-automatizadas
para disminuir aún más el tiempo necesario para ejecutar la metodología y, en consecuencia,
disminuir también el presupuesto invertido en el proceso de desarrollo de un sistema interactivo.
Además, en términos generales, la calidad de un producto ha evolucionado de la usabilidad hacia
la experiencia de usuario. Por lo tanto, de acuerdo con las fases manuales de la evaluación
heurística y la evolución hacia la experiencia de usuario, se propone una nueva metodología
basada en heurísticas que considera la experiencia de usuario en las fases de diseño y evaluación
del proceso de desarrollo de un sistema interactivo.
Esta nueva metodología basada en heurísticas semi-automatiza la selección de las mejores
heurísticas para un sistema interactivo específico. También da soporte en el proceso de la
evaluación heurística en sí y, finalmente, proporciona resultados cuantitativos, cualitativos,
formativos y summativos a través del estándar ISO/IEC 25062:2006 standard for software
engineering. Software product Quality Requirements and Evaluation (SQuaRE). Common
Industry Format (CIF).
Finalmente, esta metodología es implementada mediante el recurso Open-HEREDEUX: Open
HEurisitc Resource for Designin and Evaluation User eXperience. / Heuristic evaluation is one of the most used and discount usability evaluation methodologies.
However, it has some manual steps that could be semi-automated to decrease the time spent to
carry out the methodology and, in consequence, the budget invested in the development process
of an interactive system.
In addition, the quality of a product has evolved, in general terms, from the usability to the user
experience. Therefore, according to both aspects, manual steps of the heuristic evaluation and
evolution towards user experience, a new methodology based on heuristics is proposed for
considering user experience in the design and evaluation steps of the development process of an
interactive system.
This methodology semi-automates the selection of the best heuristics for a specific interactive
system, it supports heuristic evaluation per se and, finally, it provides quantitative, qualitative,
summative and formative results through the ISO/IEC 25062:2006 standard for software
engineering. Software product Quality Requirements and Evaluation (SQuaRE). Common
Industry Format (CIF) for usability test reports.
Furthermore, this methodology is implemented in Open-HEREDEUX: Open HEuristic REsource
for Designing and Evaluating User eXperience.
|
314 |
Active traffic management in metropolitan freeways : modeling and assessing dynamic speed limit strategiesTorné Santos, Josep María 20 December 2013 (has links)
Traffic congestion is a major source of inefficiencies in metropolitan freeways (e.g. productivity loss, energy waste, pollutant emissions, among other externalities). Active traffic management (ATM) strategies are used in order to face the problem and alleviate its effects by managing recurrent and non-recurrent congestion with a combination of real-time and predictive operational strategies.
Dynamic speed limit management (DSL) is an ATM tool believed to bring some benefits to freeway traffic, like the increase in capacity and/or the vehicle' speed homogenization. Currently it is being implemented in many metropolitan freeways worldwide. This thesis is devoted to assess such conceptual benefits with empirical data and robust traffic flow models.
Empirical data are obtained from the C-32 freeway in Barcelona, the first DSL implementation in Spain. The detailed analysis of these data allows characterizing the effects of DSL management on traffic behavior. It is found that, under the right conditions, DSL can increase capacity due to a reduction in the speed dispersion across lanes. This finding allows defining new ATM policies.
A coordinated strategy for traffic management considering both ramp metering and DSL is proposed in order to reduce the capacity drop phenomenon in the vicinity of a freeway on-ramp. The effectiveness of this control method is tested using simulation with an extension of the traditional cell transmission model, which incorporates the ability to reproduce DSL, together with the capacity drop. Results show amelioration in the performance indicators of the system, highlighting the equity-friendly component of this coordinated strategy.
Finally, results from a cost-benefit assessment of DSL considering the main externalities suggest that the social profitability of DSL management in metropolitan freeways is limited when applied alone. The potential synergies of applying a ¿pack¿ of different ATM strategies in a coordinated way, define challenging issues for further research.
|
315 |
Radio and computing resource management in SDR cloudsGómez, Ismael 19 December 2013 (has links)
The aim of this thesis is defining and developing the concept of an efficient management of radio and computing resources in an SDR cloud. The SDR cloud breaks with today's cellular architecture. A set of distributed antennas are connected by optical fibre to data processing centres. The radio and computing infrastructure can be shared between different operators (virtualization), reducing costs and risks, while increasing the capacity and creating new business models and opportunities.
The data centre centralizes the management of all system resources: antennas, spectrum, computing, routing, etc. Specially relevant is the computing resource management (CRM), whose objective is dynamically providing sufficient computing resources for a real-time execution of signal processing algorithms. Current CRM techniques are not designed for wireless applications. We demonstrate that this imposes a limit on the wireless traffic a CRM entity is capable to support. Based on this, a distributed management is proposed, where multiple CRM entities manage a cluster of processors, whose optimal size is derived from the traffic density.
Radio resource management techniques (RRM) also need to be adapted to the characteristics of the new SDR cloud architecture. We introduce a linear cost model to measure the cost associated to the infrastructure resources consumed according to the pay-per-use model. Based on this model, we formulate the efficiency maximization power allocation problem (EMPA). The operational costs per transmitted bit achieved by EMPA are 6 times lower than with traditional power allocation methods. Analytical solutions are obtained for the single channel case, with and without channel state information at the transmitter. It is shown that the optimal transmission rate is an increasing function of the product of the channel gain with the operational costs divided by the power costs.
The EMPA solution for multiple channels has the form of water-filling, present in many power allocation problems. In order to be able to obtain insights about how the optimal solution behaves as a function of the problem parameters, a novel technique based on ordered statistics has been developed. This technique allows solving general water-filling problems based on the channel statistics rather than their realization. This approach has allowed designing a low complexity EMPA algorithm (2 to 4 orders of magnitude faster than state-of-the-art algorithms).
Using the ordered statistics technique, we have shown that the optimal transmission rate behaviour with respect to the average channel gains and cost parameters is equivalent to the single channel case and that the efficiency increases with the number of available channels. The results can be applied to design more efficient SDR clouds. As an example, we have derived the optimal ratio of number of antennas per user that maximizes the efficiency. As new users enter and leave the network, this ratio should be kept constant, enabling and disabling antennas dynamically. This approach exploits the dynamism and elasticity provided by the SDR cloud.
In summary, this dissertation aims at influencing towards a change in the communications system management model (typically RRM), considering the introduction of the new infrastructure model (SDR cloud), new business models (based on Cloud Computing) and a more conciliatory view of an efficient resource management, not only focused on the optimization of the spectrum usage. / El objetivo de esta tesis es de nir y desarrollar el concepto de gesti on e ciente de los recursos de radio y computaci on en un SDR cloud. El SDR cloud rompe con la estructura del sistema celular actual. Un conjunto de antenas distribuidas se conectan a centros de procesamiento mediante enlaces de comunicaci on de bra optica. La infraestructura de radio y procesamiento puede ser compartida entre distintos operadores (virtualizacion), disminuyendo costes y riesgos, aumentando la capacidad y abriendo nuevos modelos y oportunidades
de negocio.
La centralizaci on de la gesti on del sistema viene soportada por el centro de procesamiento, donde se realiza una gesti on de todos los recursos del sistema: antenas, espectro, computaci on, enrutado, etc. Resulta de especial relevancia la gesti on de los recursos de computaci on (CRM) cuyo objetivo es el de proveer, din amicamente, de su cientes recursos de computaci on para la ejecuci on en tiempo real de algoritmos de procesado del señal. Las t ecnicas actuales de CRM no han sido diseñadas para aplicaciones de comunicaciones. Demostramos que esta caracter stica impone un l ímite en el tr áfi co que un gestor CRM puede soportar. En base a ello, proponemos una gesti on distribuida donde m ultiples entidades CRM gestionan grupos de procesadores, cuyo tamaño optimo se deriva de la densidad de tr áfi co.
Las t ecnicas actuales de gesti on de recursos radio (RRM) tambi en deben ser adaptadas a las caracter sticas de la nueva arquitectura SDR cloud. Introducimos un modelo de coste lineal que caracteriza los costes asociados al consumo de recursos de la infraestructura seg un el modelo de pago-por-uso. A partir de este modelo, formulamos el problema de asignaci on de potencia de m axima e ciencia (EMPA). Mediante una asignaci on EMPA, los costes de operaci on por bit transmitido son del orden de 6 veces menores que con los m etodos tradicionales.
Se han obtenido soluciones anal ticas para el caso de un solo canal, con y sin informacion del canal disponible en el transmisor, y se ha demostrado que la velocidad optima de transmisi on es una funci on creciente del producto de la ganancia del canal por los costes operativos dividido entre los costes de potencia.
La soluci on EMPA para varios canales satisface el modelo "water- lling", presente en muchos tipos de optimizaci on de potencia. Con el objetivo de conocer c omo esta se comporta en funci on de los par ametros del sistema, se ha desarrollado una t ecnica nueva basada en estadí sticas ordenadas. Esta t ecnica permite solucionar el problema del water- lling bas andose en la estadí stica del canal en vez de en su realizaci on. Este planteamiento, despu es de profundos an alisis matem aticos, ha permitido desarrollar un algoritmo de asignaci on de potencia de baja complejidad (2 a 4 ordenes de magnitud m as r apido que el estado del arte).
Mediante esta t ecnica, se ha demostrado que la velocidad optima de transmisi on se comporta de forma equivalente al caso de un solo canal y que la e ciencia incrementa a medida que aumentan el numero de canales disponibles. Estos resultados pueden aplicarse a diseñar un SDR cloud de forma m as e ciente. A modo de ejemplo, hemos obtenido el ratio optimo de n umero de antenas por usuario que maximiza la e ciencia. A medida que los usuarios entran y salen de la red, este ratio debe mantenerse constante, a fin de mantener una efi ciencia lo m as alta posible, activando o desactivando antenas din amicamente. De esta forma se explota completamente el dinamismo ofrecido por una arquitectura el astica como el SDR cloud.
En de nitiva, este trabajo pretende incidir en un cambio del modelo de gesti on de un sistema de comunicaciones (t ípicamente RRM) habida cuenta de la introducci on de una nueva infraestructura (SDR cloud), nuevos modelos de negocio (basados en Cloud Computing) y una visi on m as integradora de la gesti on e ciente de los recursos del sistema, no solo centrada en la optimizaci on del uso del espectro.
|
316 |
Acoustic event detection and localization using distributed microphone arraysChakraborty, Rupayan 18 December 2013 (has links)
Automatic acoustic scene analysis is a complex task that involves several functionalities: detection (time), localization (space), separation, recognition, etc. This thesis focuses on both acoustic event detection (AED) and acoustic source localization (ASL), when several sources may be simultaneously present in a room. In particular, the experimentation work is carried out with a meeting-room scenario. Unlike previous works that either employed models of all possible sound combinations or additionally used video signals, in this thesis, the time overlapping sound problem is tackled by exploiting the signal diversity that results from the usage of multiple microphone array beamformers.
The core of this thesis work is a rather computationally efficient approach that consists of three processing stages. In the first, a set of (null) steering beamformers is used to carry out diverse partial signal separations, by using multiple arbitrarily located linear microphone arrays, each of them composed of a small number of microphones. In the second stage, each of the beamformer output goes through a classification step, which uses models for all the targeted sound classes (HMM-GMM, in the experiments). Then, in a third stage, the classifier scores, either being intra- or inter-array, are combined using a probabilistic criterion (like MAP) or a machine learning fusion technique (fuzzy integral (FI), in the experiments).
The above-mentioned processing scheme is applied in this thesis to a set of complexity-increasing problems, which are defined by the assumptions made regarding identities (plus time endpoints) and/or positions of sounds. In fact, the thesis report starts with the problem of unambiguously mapping the identities to the positions, continues with AED (positions assumed) and ASL (identities assumed), and ends with the integration of AED and ASL in a single system, which does not need any assumption about identities or positions.
The evaluation experiments are carried out in a meeting-room scenario, where two sources are temporally overlapped; one of them is always speech and the other is an acoustic event from a pre-defined set. Two different databases are used, one that is produced by merging signals actually recorded in the UPC¿s department smart-room, and the other consists of overlapping sound signals directly recorded in the same room and in a rather spontaneous way. From the experimental results with a single array, it can be observed that the proposed detection system performs better than either the model based system or a blind source separation based system. Moreover, the product rule based combination and the FI based fusion of the scores resulting from the multiple arrays improve the accuracies further. On the other hand, the posterior position assignment is performed with a very small error rate.
Regarding ASL and assuming an accurate AED system output, the 1-source localization performance of the proposed system is slightly better than that of the widely-used SRP-PHAT system, working in an event-based mode, and it even performs significantly better than the latter one in the more complex 2-source scenario. Finally, though the joint system suffers from a slight degradation in terms of classification accuracy with respect to the case where the source positions are known, it shows the advantage of carrying out the two tasks, recognition and localization, with a single system, and it allows the inclusion of information about the prior probabilities of the source positions. It is worth noticing also that, although the acoustic scenario used for experimentation is rather limited, the approach and its formalism were developed for a general case, where the number and identities of sources are not constrained.
|
317 |
Gràfic de control T2 de Hotelling per a dades composicionalsVives Mestres, Marina 28 November 2014 (has links)
Compositional data are defined as vectors of components that represent parts of a whole and contain relative information (e.g. %, ppm, mg/l...). CoDa are widely found in chemical, pharmaceutical and food industries among others. This thesis proposes a control chart based on the T2 statistic to monitor processes in which the quality characteristic is a composition. The thesis shows how traditional approaches are not consistent with this type of data, i.e. do not follow the principle of subcompositional coherence and result in control regions outside the restricted sample space. We propose a new control chart (compositional T2, T2C) based on a representation of CoDa into coordinates on real space by the use of log ratios of components. The thesis also proposes an algorithm to identify the components that are responsible of the anomaly. We have applied the T2C to a grit manufacturing process and to control the impurity profile of a drug substance / Les dades composicionals (CoDa) es defineixen com a vectors de components que representen parts d’un tot i que contenen informació relativa (e.g. %, ppm, mg/l...). Les CoDa es troben a la indústria química, farmacèutica i alimentària en altres. La tesi proposa un gràfic de control basat en l'estadístic T2 per a controlar processos en els que la característica de qualitat és una composició. Es mostra com els enfocs tradicionals proposats fins al moment no són consistents: incompleixen el principi de coherència subcomposicional i proporcionen regions de control fora de l'espai restringit. La tesi introdueix un nou gràfic de control (T2 composicional, T2C) que es basa en una representació de les CoDa en coordenades a l'espai real mitjançant expressions logràtio dels components. També es proposa un algorisme que permet identificar les components responsables de l’anomalia. S’ha aplicat el T2C al control de producció de grava i al control d'impureses d'un medicament
|
318 |
Algorithms and efficient encodings for argumentation frameworks and arithmetic problemsGuitart Bravo, Francesc 07 July 2014 (has links)
In this thesis we focus on the design and implementation of a particular framework of Possibilistic Defeasible Logic Programming (RP-DeLP). This framework is based on a general notion of collective (non-binary) conflict among arguments allowing to ensure direct and indirect consistency properties with respect to the strict knowledge. An output of an RP-DeLP program is a pair of sets of warranted and blocked conclusions (literals), all of them recursively based on warranted conclusions but, while warranted conclusions do not generate any conflict, blocked conclusions do. An RP-DeLP program may have multiple outputs in case of circular definitions of conflicts among arguments.
We introduce two semantics, the first one where all possible outputs are computed and the second one which is a characterization of an unique output property. The computation of the outputs for both semantics relies on two main problems: the problem of finding a collective conflict among a set of arguments and the problem of finding almost valid arguments for a conclusion. Both problems are combinatorial problems, so we propose two resolution approaches: a first one based on SAT techniques and a second one based on Answer Set Programming techniques. We propose an implementation and we empirically test our algorithms. We provide an analysis on the performance of the implementation of the algorithms, and we explain the results on the resolution of some randomly generated problems.
In this thesis we also focus on the resolution of some combinatorial problems. We analyze, design and implement some resolution tools for arithmetic problems, modular constraints and networking problems. We studied empirically how our approaches perform and we compared them to other solving techniques known as best proposals in the literature. / Esta tesis se centra en el diseño e implementación de un framework particular para Possibilistic Defeasible Logic Programming (RP-DeLP).
Este framework está basado en la noción general de conflicto colectivo entre argumentos (no binario) que permite asegurar las propiedades de consistencia directa e indirecta respecto al conocimiento estricto.
Una salida de un programa RP-DeLP es una tupla de conjuntos de conclusiones (literales) garantizadas y bloqueadas, todas ellas basadas recursivamente sobre conclusiones garantizadas con la particularidad de que mientras las conclusiones garantizadas no generan ningún conflicto, las conclusiones bloqueadas sí lo hacen.
Un programa RP-DeLP puede tener múltiples salidas en el caso de que existan definiciones circulares de conflictos entre los argumentos.
Se introducen dos semánticas, la primera donde se computan todas las posibles salidas del programa y una segunda que nace de la caracterización de la propiedad de la salida única. El cómputo de las salidas para ambas semánticas se basa en la solución de dos problemas principales: el problema de la búsqueda de argumentos almost valid para una conclusión y la búsqueda de conflictos colectivos entre un conjunto de argumentos.
Ambos problemas son problemas combinatorios y se proponen dos aproximaciones de resolución diferentes: una primera aproximación basada en técnicas SAT y otra segunda aproximación basada en técnicas de Answer Set Programming. Se propone una implementación y también se prueba empíricamente el comportamiento de los algoritmos propuestos.
A través de un análisis sobre el comportamiento de la implementación se explican los resultados obtenidos. Para ello se generan problemas aleatorios donde algunas propiedades pueden ser controladas mediante la configuración de parámetros de entrada.
Adicionalmente esta tesis también se centra en la resolución de otros problemas combinatorios. Se analizan e implementan herramientas para la resolución de problemas aritméticos, restricciones modulares y problemas de redes de comunicaciones. Se propone un estudio empírico de las propuestas y se comparan con las aproximaciones, conocidas como más eficientes hasta el momento, de la literatura. / Aquesta tesi doctoral se centra en el disseny i implementació d'un framework particular per Possibilistic Defeasible Logic Programming (RP-DeLP). Aquest framework es basa en una noció de conflicte col·lectiu (no binària) entre arguments que permet assegurar les propietats de consistència directa i indirecta respecte del coneixement estricte. Una sortida d'un programa RP-DeLP és una parella de conjunts de conclusions garantides i bloquejades (literals), totes elles basades recursivament en conclusions prèviament garantides. La diferència radica en què mentre les conclusions garantides no generen cap conflicte, les conclusions bloquejades sí que ho fan. Un programa RP-DeLP pot tenir múltiples sortides en el cas de definicions circulars de conflictes entre arguments.
S'introdueixen dues semàntiques pel sistema d'argumentació presentat. La primera d'elles pren en consideració totes les possibles sortides que poden ser obtingudes d'un programa RP-DeLP tenint en compte les diferents maneres de resoldre els conflictes circulars que poden sorgir. La segona semàntica se centra en el còmput d'una única sortida que està basada en la caracterització del que anomenem maximal ideal output. Aquesta sortida conté un nombre maximal de literals garantits, però que inclou només literals els arguments dels quals tenen els seus suports inclosos en la sortida.
El comput de les sortides per ambdues semàntiques es basa en la resolució de dos problemes principals: el problema de trobar conflictes col·lectius entre un conjunt d'arguments i el problema de trobar arguments almost valid per una conclusió. Ambdós problemes són considerats problemes combinatoris i es proposen dues aproximacions per a la resolució: una primera aproximació basada en tècniques SAT i una segona basada en Answer Set Programming. Es proposa una implementació i una anàlisi empírica dels algorismes implementats. Aquests algorismes es proven sobre un conjunt de problemes generats aleatòriament mitjançant un generador que permet la configuració dels diferents paràmetres dels problemes generats. Un cop obtinguts els resultats, s'estudia quina afectació han tingut els diferents paràmetres observant el temps de resolució i la informació obtinguda.
En aquesta tesi també s'estudien diferents tècniques de resolució per a altres problemes combinatoris. S'analitzen, dissenyen i implementen algunes eines de resolució per a problemes aritmètics, restriccions modulars i problemes de xarxes de comunicacions. S'ha estudiat com les aproximacions proposades es comporten en comparació amb altres tècniques proposades a la literatura considerades com les més eficients fins al moment.
|
319 |
Magnetic diagnostics algorithms for LISA Pathfinder: system identification and data analysisDíaz Aguiló, Marc 27 October 2011 (has links)
LISA (Laser Interferometer Space Antenna) is a joint mission of ESA and NASA, which aims to be the first space-borne gravitational wave observatory. LISA will consist in a constellation of three spacecraft at the vertexes of an equilateral triangle of side 5 million kilometers. The constellation will orbit around the Sun trailing the Earth by some 20 degrees. Each of the spacecraft harbors two proof masses, carefully protected against external disturbances such as solar radiation pressure and charged particles, which ensures they are in nominal free-fall in the interplanetary gravitational field. Gravitational waves will show as differential accelerations between pairs of proof masses, and the main aim of LISA is to measure such acceleration
using laser interferometry. The technologies required for the LISA mission are many and challenging. This, coupled with the fact that some flight hardware cannot be tested on ground, led ESA to define a technology demonstrator to test in flight the required critical technologies. This precursor mission is called LISA Pathfinder (LPF). The payload of LISA Pathfinder is the LISA Technology Package (LTP), and will be the highest sensitivity geodesic explorer flown to date. The LISA Technology Package is designed to measure relative accelerations between two test masses in nominal free fall placed in a single
spacecraft, since one LISA arm is squeezed from 5 million kilometer to 35 cm. Its success will prove the maturity of the necessary technologies for LISA such as the Optical Metrology System and the Drag Free concept. The differential acceleration reading will be perturbed by identified disturbances, such as thermal fluctuations or magnetic effects. These disturbances are monitored by the Diagnostics Subsystem. The Magnetic Diagnostics System is one of its modules and is a critical subsystem, since magnetic noise is apportioned to 40% of the total noise budget. In this respect, to estimate the magnetic noise contribution, the Magnetic Diagnostics Subsystem will have two main tasks: (1) estimate the magnetic properties of the test masses, i.e., their remanent magnetic moment and susceptibility, and (2) infer the magnetic field and its gradient at the location of the test masses. To this end, the Magnetic Diagnostics Subsystem includes two coils which generate controlled magnetic fields at the locations of the test masses. These magnetic fields will excite the dynamical response of both test masses. Thus, by adequate processing of the kinematic excursions delivered by the interferometer, the magnetic characteristics of the test masses can be estimated within 1% accuracy level. Additionally, the Magnetic Diagnostic Subsystem includes a set of four tri-axial fluxgate magnetometers. However, the magnetic field and its gradient need to be measured at the positions of the test masses and the readouts of the magnetometers do not provide a direct measurement of the magnetic field at these positions. Thus, an interpolation method must be implemented to calculate them. This is a difficult problem, mostly because the magnetometers are too distant from the locations of the test masses (more than 20 cm
away) and because there are not sufficient magnetic channels to go beyond a classical linear interpolation method, which yields extremely poor interpolation results. Consequently, in this thesis we present and validate an alternative interpolation method based on neural networks. We put forward its robustness and accuracy in several mission scenarios and we stress the importance of an extensive magnetic testing campaign. Under these assumptions, we deliver magnetic field and gradient estimates with 10% accuracy. Finally, the estimate of the magnetic noise contribution to the total acceleration between the two LPF’s test masses is determined with an accuracy of 15%. This result represents an enhancement of the estimation
quality in one order of magnitude with respect to former studies. / LISA (Laser Interferometer Space Antenna) és un missió espacial conjunta de l’ESA i la NASA, que serà el primer detector d’ones gravitacionals a l’espai. LISA consisteix en una constel·lació de tres satèl·lits situats als vèrtexs d’un triangle equilàter de 5 milions de quilòmetres de costat. La constel·lació orbitarà al voltant del Sol seguint la Terra a uns 20 graus. Cada un dels satèl·lits contindrà dues masses de prova, curosament protegides de pertorbacions externes com la pressió de la radiació solar, assegurant que estiguin en una caiguda lliure nominal en el camp gravitacional interplanetari. Les ones gravitacionals creen acceleracions diferencials entre el parell de masses de prova. Així doncs el principal objectiu de LISA és mesurar l’esmentada acceleració utilitzant interferometria làser. Les tecnologies necessàries per LISA són molt exigents. A més, la majoria d’elles no poden ser testejades a la Terra. Per tant, l’ESA va determinar la necessitat de llançar una missió precursora que actués com a demostrador tecnològic, aquesta missió és LISA Pathfinder (LPF). La seva càrrega útil és el LISA Technology Package (LTP) i serà el sensor geodèsic de més alta sensitivitat a l’espai. El LISA Technology Package està dissenyat per mesurar acceleracions diferencials entre dues masses de prova en caiguda lliure situades en un sol satèl·lit, reduint un dels braços de LISA des de 5 milions de quilòmetres fins a 35 cm. L’èxit de la missió suposaria la demostració de la maduresa de les tecnologies necessàries per LISA, com són el Optical Metrology System i el concepte Drag Free. La mesura de l’acceleració diferencial estarà afectada per certes pertorbacions com podrien ser les fluctuacions tèrmiques o els efectes magnètics a l’interior del satèl·lit. Aquestes pertorbacions són monitoritzades pel Subsistema de Diagnòstic. El Subsistema de Diagnòstic Magnètic és un dels seus mòduls i és un sistema crític, perquè el soroll magnètic representa un 40% del soroll total. Amb la finalitat d’estimar la contribució del soroll magnètic, el Subsistema de Diagnostic Magnètic ha de (1) estimar les propietats magnètiques de les masses de prova, i.e., el seu moment magnètic remanent i la seva susceptibilitat, i (2) estimar el camp magnètic i el seu gradient a la posició de les masses de prova. Així doncs, aquest subsistema integra dues bobines per generar camps magnètics a la posició de les masses. Aquests camps magnètics exciten la resposta dinàmica de les dues masses. Finalment, amb el processament de les excursions cinemàtiques
proporcionades per l’interferòmetre podem estimar les característiques magnètiques amb una precisió de l’1%. D’altra banda, el Subsistema de Diagnòstic Magnètic també integra 4 magnetòmetres triaxials. No obstant, el camp magnètic i el seu gradient ha de ser mesurat a la posició de les masses de prova i les lectures dels magnetòmetres no estan situades en aquestes posicions. Per tant, cal implementar un sistema d’interpolació. Aquest problema presenta una dificultat especial perquè els magnetòmetres estan situats lluny de les masses de prova (més de 20 cm) i perquè només hi ha mesures magnètiques per realitzar una interpolació de primer ordre. Aquest mètode dóna resultats inacceptables, per tant en aquesta tesi presentem i validem un mètode d’interpolació alternatiu basat en xarxes neuronals. En demostrem la seva robustesa i exactitud en diferents casos i remarquem la importància de disposar d’una extensa campanya de tests magnètics. Sota aquests supòsits, estimem el camp magnètic i el seu gradient amb un error inferior al 10%. Finalment, l’estimat de la contribució del soroll magnètic en la mesura de l’acceleració diferencial de les dues masses de prova es pot determinar amb una exactitud del 15%. Aquest resultat suposa una millora de la qualitat d’estimació en un ordre de magnitud en comparació a estudis previs.
|
320 |
Parametric region-based foreround segmentation in planar and multi-view sequencesGallego Vila, Jaime 14 October 2013 (has links)
Foreground segmentation in video sequences is an important area of the image processing that attracts great interest among the scientist community, since it makes possible the detection of the objects that appear in the sequences under analysis, and allows us to achieve a correct performance of high level applications which use foreground segmentation as an initial step.
The current Ph.D. thesis entitled Parametric Region-Based Foreground Segmentation in Planar and Multi-View Sequences details, in the following pages, the research work carried out within this eld. In this investigation, we propose to use parametric probabilistic models at pixel-wise and region level in order to model the di erent classes that are involved in the classi cation process of the di erent regions of the image: foreground, background and, in some sequences, shadow. The development is presented in the following chapters as a generalization of the techniques proposed for objects segmentation in 2D planar sequences to 3D multi-view environment, where we establish a cooperative relationship between all the sensors that are recording the scene.
Hence, di erent scenarios have been analyzed in this thesis in order to improve the foreground segmentation techniques:
In the first part of this research, we present segmentation methods appropriate for 2D planar scenarios. We start dealing with foreground segmentation in static camera sequences, where a system that combines pixel-wise background model with region-based foreground and shadow models is proposed in a Bayesian classi cation framework. The research continues with the application of this method to moving camera scenarios, where the Bayesian framework is developed between foreground and background classes, both characterized with region-based models, in order to obtain a robust foreground segmentation for this kind of sequences.
The second stage of the research is devoted to apply these 2D techniques to multi-view acquisition setups, where several cameras are recording the scene at the same time. At the beginning of this section, we propose a foreground segmentation system for sequences recorded by means of color and depth sensors, which combines di erent probabilistic models created for the background and foreground classes in each one of the views, by taking into account the reliability that each sensor presents. The investigation goes ahead by proposing foreground segregation methods for multi-view smart room scenarios. In these sections, we design two systems where foreground segmentation and 3D reconstruction are combined in order to improve the results of each process. The proposals end with the presentation of a multi-view segmentation system where a foreground probabilistic model is proposed in the 3D space to gather all the object information that appears in the views.
The results presented in each one of the proposals show that the foreground segmentation and also the 3D reconstruction can be improved, in these scenarios, by using parametric probabilistic models for modeling the objects to segment, thus introducing the information of the object in a Bayesian classi cation framework. / La segmentaci on de objetos de primer plano en secuencias de v deo es una importante area del procesado de imagen que despierta gran inter es por parte de la comunidad cient ca, ya que posibilita la detecci on de objetos que aparecen en las diferentes secuencias en an alisis, y permite el buen funcionamiento de aplicaciones de alto nivel que utilizan esta segmentaci on obtenida como par ametro de entrada.
La presente tesis doctoral titulada Parametric Region-Based Foreground Segmentation in Planar and Multi-View Sequences detalla, en las p aginas que siguen, el trabajo de investigaci on desarrollado en este campo. En esta investigaci on se propone utilizar modelos probabil sticos param etricos a nivel de p xel y a nivel de regi on para modelar las diferentes clases que participan en la clasi caci on de las regiones de la imagen: primer plano, fondo y en seg un que secuencias, las regiones de sombra. El desarrollo se presenta en los cap tulos que siguen como una generalizaci on de t ecnicas propuestas para la segmentaci on de objetos en secuencias 2D mono-c amara, al entorno 3D multi-c amara, donde se establece la cooperaci on de los diferentes sensores que participan en la grabaci on de la escena.
De esta manera, diferentes escenarios han sido estudiados con el objetivo de mejorar las t ecnicas de segmentaci on para cada uno de ellos: En la primera parte de la investigaci on, se presentan m etodos de segmentaci on para escenarios monoc amara. Concretamente, se comienza tratando la segmentaci on de primer plano para c amara est atica, donde se propone un sistema completo basado en la clasi caci on Bayesiana entre el modelo a nivel de p xel de nido para modelar el fondo, y los modelos a nivel de regi on creados para modelar los objetos de primer plano y la sombra que cada uno de ellos proyecta. La investigaci on prosigue con la aplicaci on de este m etodo a secuencias grabadas mediante c amara en movimiento, donde la clasi caci on Bayesiana se plantea entre las clases de fondo y primer plano, ambas caracterizadas con modelos a nivel de regi on, con el objetivo de obtener una segmentaci on robusta para este tipo de secuencias.
La segunda parte de la investigaci on, se centra en la aplicaci on de estas t ecnicas mono-c amara a entornos multi-vista, donde varias c amaras graban conjuntamente la misma escena. Al inicio de dicho apartado, se propone una segmentaci on de primer plano en secuencias donde se combina una c amara de color con una c amara de profundidad en una clasi caci on que combina los diferentes modelos probabil sticos creados para el fondo y el primer plano en cada c amara, a partir de la fi abilidad que presenta cada sensor. La investigaci on prosigue proponiendo m etodos de segmentaci on de primer plano para entornos multi-vista en salas inteligentes. En estos apartados se diseñan dos sistemas donde la segmentaci on de primer plano y la reconstrucci on 3D se combinan para mejorar los resultados de cada uno de estos procesos.
Las propuestas fi nalizan con la presentaci on de un sistema de segmentaci on multi-c amara donde se centraliza la informaci on del objeto a segmentar mediante el diseño de un modelo probabil stico 3D.
Los resultados presentados en cada uno de los sistemas, demuestran que la segmentacion de primer plano y la reconstrucci on 3D pueden verse mejorados en estos escenarios mediante el uso de modelos probabilisticos param etricos para modelar los objetos a segmentar, introduciendo as la informaci on disponible del objeto en un marco de clasi caci on Bayesiano.
|
Page generated in 0.0749 seconds