Spelling suggestions: "subject:"cibernética""
81 |
Ultrastructural analysis of odontocete cochleaMorell Ybarz, Maria 04 May 2012 (has links)
The morphological study of the Odontocete organ of Corti including possible pathological features resulting from sound over-exposure, represent a key conservation issue to assess the effects of acoustic pollution on marine ecosystems. Through the collaboration with stranding networks belonging to 26 countries, 150 ears from 13 species of Odontocetes were processed. In this dissertation, we present a standard protocol to 1) compare the ultrastructure of the cochlea in several Odontocete species and 2) investigate possible damage as a consequence of sound exposure, using scanning (SEM) and transmission (TEM) electron microscopy, and immunohistochemistry.
In a preliminary study, computerized tomography scans were performed before decalcification with ears of 15 odontocete species, proposing a set of standard measurements which classified very well the species. In addition, the constant ratio between measurements of inner and middle ear structures contributed to confirm the active role of the odontocete middle ear in sound reception mechanism.
We established a decalcification protocol using the fast commercial decalcifier RDO® and EDTA (Ethylendiaminetetraacetic acid). Although further experiments should be conducted to assess the suitability of using one or the other method (because the number of samples treated with EDTA was comparatively small), RDO® at specific dilutions decreased the decalcification time of cetacean ear bones with control of the decalcification endpoint, helping a faster access to inner structures.
The complementary use of electron microscopy and immunofluorescence allowed the description in odontocetes of new morphological features of tectorial membrane, spiral limbus, spiral ligament, stria vascularis, hair cells and their innervation. Furthermore, this study revealed qualitative and quantitative morphological characteristics of the organ of Corti in high-frequency hearing species, including 1) an outer hair cell (OHC) small length, 2) a thick cuticular plate in OHC, and a thick reticular lamina, 3) robust cup formation of the Deiters cell body, 4) the high development of cytoskeleton in Deiters and pillar cells and 5) the basilar membrane high stiffness. Interestingly, all these features, including a common molecular design of prestin, are also shared by echolocating bats, suggesting a convergent evolution in echolocating species.
The presence of scars among hair cell rows, the pattern of stereocilia imprints in the tectorial membrane and the condition of fibrocytes II and IV were criteria suitable to determine or discard possible acoustic trauma, despite the numerous artefacts that rapidly develop as a consequence of tissue autolysis.
Consequently, matching the preliminary approximation of the cochlear frequency map with the damaged region would bring information on the sound source that would have triggered a possible lesion.
|
82 |
Voice Processing and synthesis by performance sampling and spectral modelsBonada, Jordi, 1973- 13 February 2009 (has links)
La veu cantada és probablement l'instrument musical més complex i més ric en matisos expressius. Al llarg de varies dècades s'ha dedicat molt d'esforç a investigar i estudiar les seves propietats acústiques i a entendre els mecanismes involucrats en la producció de veu cantada, posant especial èmfasis en les seves particularitats i comparant-les amb les de la parla. A més, des de l'aparició de les primeres tècniques de síntesi de so, s'ha intentat imitar i sintetitzar per mitjà de tècniques de processament del senyal. El principal objectiu d'aquesta recerca doctoral és construir un sintetitzador de veu cantada capaç de reproduir la veu d'un cantant determinat, que tingui la seva mateixa expressió i timbre, que soni natural, i que tingui com a entrades només la partitura i la lletra de una cançó. Aquest és un objectiu molt ambiciós, i en aquesta tesi discutim els principals aspectes de la nostra proposta i identifiquem les qüestions que encara queden obertes. / La voz cantada es probablemente el instrumento musical más complejo y el más rico en matices expresivos. A lo largo de varias décadas se ha dedicado mucho esfuerzo de investigación a estudiar sus propiedades acústicas y a entender los mecanismos involucrados en la producción de voz cantada, poniendo especial énfasis en sus particularidades y comparándolas con el habla. Desde la aparición de las primeras técnicas de síntesis de sonido, se ha intentado imitar dichos mecanismos y encontrar maneras de reproducirlos por medio de técnicas de procesado de señal. El principal objetivo de esta investigación doctoral es construir un sintetizador de voz cantada capaz de reproducir la voz de un cantante determinado, que tenga su misma expresión y timbre, que suene natural, y cuyas entradas sean solamente la partitura y la letra de una canción. Éste es un objetivo muy ambicioso, y en esta tesis discutimos los principales aspectos de nuestra propuesta e identificamos las cuestiones aún sin resolver. / Singing voice is one of the most challenging musical instruments to model and imitate. Along several decades much research has been carried out to understand the mechanisms involved in singing voice production. In addition, from the very beginning of the sound synthesis techniques, singing has been one of the main targets to imitate and synthesize, and a large number of synthesizers have been created with that aim. The final goal of this thesis is to build a singing voice synthesizer capable of reproducing the voice of a given singer, both in terms of expression and timbre, sounding natural and realistic, and whose inputs would be just the score and the lyrics of a song. This is a very difficult goal, and in this dissertation we discuss the key aspects of our proposed approach and identify the open issues that still need to be tackled.
|
83 |
Dynamic Tuning for Large-Scale Parallel ApplicationsMartínez Trujillo, Andrea 30 September 2013 (has links)
La era actual de computación a gran escala se caracteriza por el uso de aplicaciones paralelas ejecutadas en miles de cores. Sin embargo, el rendimiento obtenido al ejecutar estas aplicaciones no siempre es el esperado. La sintonización dinámica es una potente técnica que puede ser usada para reducir la diferencia entre el rendimiento real y el esperado en aplicaciones paralelas. Actualmente, la mayoría de las aproximaciones que ofrecen sintonización dinámica siguen una estructura centralizada, donde un único módulo de análisis, responsable de controlar toda la aplicación paralela, puede convertirse en un cuello de botella en entornos a gran escala.
La principal contribución de esta tesis es la creación de un modelo novedoso que permite la sintonización dinámica descentralizada de aplicaciones paralelas a gran escala. Dicho modelo se apoya en dos conceptos principales: la descomposición de la aplicación y un mecanismo de abstracción. Mediante la descomposición, la aplicación paralela es dividida en subconjuntos disjuntos de tareas, los cuales son analizados y sintonizados separadamente. Mientras que el mecanismo de abstracción permite que estos subconjuntos sean vistos como una única aplicación virtual y, de esta manera, se puedan conseguir mejoras de rendimiento globales.
Este modelo se diseña como una red jerárquica de sintonización formada por módulos de análisis distribuidos. La topología de la red de sintonización se puede configurar para acomodarse al tamaño de la aplicación paralela y la complejidad de la estrategia de sintonización empleada. De esta adaptabilidad surge la escalabilidad del modelo. Para aprovechar la adaptabilidad de la topología, en este trabajo se propone un método que calcula topologías de redes de sintonización compuestas por el mínimo número de módulos de análisis necesarios para proporcionar sintonización dinámica de forma efectiva.
El modelo propuesto ha sido implementado como una herramienta para sintonización dinámica a gran escala llamada ELASTIC. Esta herramienta presenta una arquitectura basada en plugins y permite aplicar distintas técnicas de análisis y sintonización. Empleando ELASTIC, se ha llevado a cabo una evaluación experimental sobre una aplicación sintética y una aplicación real. Los resultados muestran que el modelo propuesto, implementado en ELASTIC, es capaz de escalar para cumplir los requerimientos de sintonizar dinámicamente miles de procesos y, además, mejorar el rendimiento de esas aplicaciones. / The current large-scale computing era is characterised by parallel applications running on many thousands of cores. However, the performance obtained when executing these applications is not always what it is expected. Dynamic tuning is a powerful technique which can be used to reduce the gap between real and expected performance of parallel applications. Currently, the majority of the approaches that offer dynamic tuning follow a centralised scheme, where a single analysis module, responsible for controlling the entire parallel application, can become a bottleneck in large-scale contexts.
The main contribution of this thesis is a novel model that enables decentralised dynamic tuning of large-scale parallel applications. Application decomposition and an abstraction mechanism are the two key concepts which support this model. The decomposition allows a parallel application to be divided into disjoint subsets of tasks which are analysed and tuned separately. Meanwhile, the abstraction mechanism permits these subsets to be viewed as a single virtual application so that global performance improvements can be achieved.
A hierarchical tuning network of distributed analysis modules fits the design of this model. The topology of this tuning network can be configured to accommodate the size of the parallel application and the complexity of the tuning strategy being employed. It is from this adaptability that the model's scalability arises. To fully exploit this adaptable topology, in this work a method is proposed which calculates tuning network topologies composed of the minimum number of analysis modules required to provide effective dynamic tuning.
The proposed model has been implemented in the form of ELASTIC, an environment for large-scale dynamic tuning. ELASTIC presents a plugin architecture, which allows different performance analysis and tuning strategies to be applied. Using ELASTIC, experimental evaluation has been carried out on a synthetic and a real parallel application. The results show that the proposed model, embodied in ELASTIC, is able to not only scale to meet the demands of dynamic tuning over thousands of processes, but is also able to effectively improve the performance of these applications.
|
84 |
Noves aproximacions per a l'estudi del sistema HLA: De la tipificació dels loci HLA basada en la PCR a temps real al desenvolupament de tetràmers de classe IIFaner Canet, Maria Rosa 23 May 2006 (has links)
El Complex Principal de Histocompatibilitat (MHC) és la regió gènica que conté els loci més polimòrfics del genoma. Aquests loci estan implicats en els mecanismes de presentació antigènica als limfòcits T, defineixen la resposta immunitària en general, incloent-hi la histocompatibilitat entre donant i receptor en els trasplantaments d'òrgans. Tot i que existeixen diverses tècniques aplicades a la tipificació dels polimorfismes del MHC i a l'anàlisi de la funcionalitat d'aquestes molècules, les més utilitzades en els laboratoris d'histocompatibilitat presenten encara limitacions i són millorables. En aquest sentit aquesta tesi doctoral descriu la utilització de la PCR a temps real amb sondes d'hibridació com a metodologia per a millorar la tipificació dels loci HLA. En primer lloc s'ha desenvolupat una tècnica de tipificació basada en la PCR a temps real per la família al·lèlica HLA-B27. L'aproximació desenvolupada es basa en tres reaccions amb sondes d'hibridació FRET que permeten donar una resolució mitja-alta dels al·lels HLA-B27 en la població caucàsica, alhora que discriminen els al·lels no associats amb la Espondilitis Anquilopoiètica. Després d'haver comprovat la validesa de la metodologia de tipificació per PCR a temps real amb sondes FRET en una família HLA de polimorfisme reduït, s'ha desenvolupat una aproximació per a la tipificació de baixa resolució del locus HLA-B, el més polimòrfic de tots els loci HLA, basada en la mateixa metodologia. En tercer lloc s'ha comparat la utilització de les sondes de tipus FRET en front a les sondes de tipus Taqman per a la tipificació HLA, i per això s'ha desenvolupat un sistema per a la tipificació del locus de classe II HLA-DR amb aquesta segona metodologia de sondes.Les metodologies de tipificació basades en la PCR a temps real que s'han desenvolupat comparades amb les tècniques de tipificació basades en el DNA tradicionals, comporten diverses avantatges, les principals són en quant a temps total necessari per a realitzar la tècnica i eliminació de passos de processat post PCR. D'altre banda, la comparació de les tres aproximacions de tipificació per PCR a temps real desenvolupades ha demostrat que per a la resolució del polimorfisme HLA són més valides les sondes FRET.Per a millorar les tècniques d'anàlisi de la funcionalitat de les molècules HLA, en la present tesi doctoral s'han elaborat tetràmers de classe II dels loci no clàssics de DRB, en concret dels dos al·lels més freqüents de DRB3. L'aplicació d'aquesta metodologia ha permès millorar les eines disponibles per a l'estudi de la funcionalitat dels denominats loci secundaris de DRB, alhora que també ha permès valorar la magnitud de la resposta cel·lular T CD4+ que reconeix antígens en el context d'aquestes molècules, posant de manifest la rellevància d'aquest locus en la presentació antigènica. / The Major Histocompatibility Complex (MHC) is the genetic region that contains the loci more polymorphic of the genome. These loci are involved in the antigenic presentation to the T lymphocytes, defining in general the immune response and specifically including the histocompatibility between donor and acceptor in organ transplantation. There are different techniques that are used for typing the polymorphism of the MHC and also for the analysis of the functionality of these molecules. But the main techniques used for typing in Histocompatibility laboratories have still some limitations that can be solved. In reference to this point this thesis describes the usage of real time PCR with hybridization probes as an assay to be used for HLA typing. As a first approach to prove the validity of the methodology, an HLA-B27 typing assay by real time PCR with FRET probes has been optimized. The described HLA-B27 typing protocol uses three reactions with FRET probes that can achieve a medium-high resolution of the alleles in the Caucasoid population, at the same time alleles non associated with Spondylarthropathies are differentiated. After proving the validity of the real time PCR with FRET probes for a reduced HLA polymorphism, an approach based in the same methodology for typing of the HLA-B locus with a low-medium resolution has been developed. In third place, for HLA typing resolution the usage of the FRET probes has been compared to the usage of Taqman probes. With this aim a typing approach for the HLA-DRB locus with Taqman probes has been developed. The typing methodologies based on real time PCR that have been developed show several advantages when compared to the traditional DNA based typing techniques, the main are on reference to the time required for the developing of the assays and to the elimination of all post-PCR steps. At the same time the evaluation of the three described typing techniques has shown that FRET probes work better to solve the HLA polymorphism. In this thesis MHC class II tetramers have been developed to improve the tools for the functional study of the non classical HLA-DRB loci, concretely of the more frequent alleles of DRB3. This methodology allowed the evaluation of the T CD4+ cell response that recognizes antigens in the context of these HLA molecules, showing the relevancy of this locus in the antigenic presentation.
|
85 |
Coscheduling Techniques for Non-Dedicated Cluster ComputingSolsona Tehàs, Francesc 24 July 2002 (has links)
Los esfuerzos de esta tesis se centran en onstruir una máquina virtual sobre un sistema Cluster que proporcione la doble funcionalidad de ejecutar eficientemente tanto trabajos tradicionales (o locales) de estaciones de trabajoasí como aplicaciones distribuidas. Para solucionar el problema, deben tenerse en cuenta dos importantes consideraciones: * Como compartir y planificar los recursos de las diferentes estaciones de trabajo (especialmente la CPU) entre las aplicaciones locales y distribuidas. * Como gestionar y controlar la totalidad del sistema para conseguir ejecuciones eficientes de ambos tipos de aplicaciones.Coscheduling es el principio básico usado para compartiry planificar la CPU. Cosche-duling se basa en la reduccióndel tiempo de espera de comunicación de aplicaciones distribuidas,planificando simultáneamente todas (o un subconjunto de)las tareas que la componen. Por lo tanto, mediante el usode técnicas de coscheduling, únicamente se puede incrementarel rendimiento de aplicaciones distribuidas con comunicaciónremota entre las tareas que la componen. Las técnicas de Coscheduling se clasifican en dos grandesgrupos: control-explícito y control-implícito. Esta clasificaciónse basa en la forma de coplanificar las tareas distribuidas.En control-explícito, la coplanificación es realizada porprocesos y (o) procesadores especializados. En cambio, encontrol-implícito, las técnicas de coscheduling se realizantomando decisiones de planificación localmente, dependiendode los eventos que ocurren en cada estación de trabajo. En este proyecto se presentan dos mecanismos de coscheduling,los cuales siguen las dos diferentes filosofías explicadasanteriormente, control-implícito y control-explí-cito. Tambiénproporcionan características adicionales incluyendo un buenrendimiento en la ejecución de aplicaciones distribuidas,ejecución simultánea de varias aplicaciones distribuidas,bajo overhead y también bajo impacto en el rendimiento dela carga local.También se presenta un modelo de coscheduling, el cual proporcionauna base teórica para el desarrollo de nuevas técnicas decontrol-implícito. La técnica de control-implícito propuestase basa en este modelo. El buen comportamiento de las técnicas de coscheduling presentadasen este trabajo se analiza en primer lugar por medio desimulación. También se ha realizado un gran esfuerzo enla implementación de estas técnicas de coscheduling en unCluster real. El estudio de los resultados obtenidos proporcionauna orientación importante para la investigación futuraen el campo de coscheduling. En la experimentación en el Cluster real, se han utilizadovarios benchmarks distribuidos con diversos patrones decomunicación de paso de mensajes: regulares e irregulares,anillos lógicos, todos-a-todos, etc. También se han utilizadobenchmarks que medían diferentes primitivas de comunicación,tales como barreras, enlaces uni y bidireccionales, etc.El uso de esta amplia gama de aplicaciones distribuidasha servido para demostrar la aplicabilidad de las técnicasde coscheduling en computación distribuida basados en Clusters. / Efforts of this Thesis are centered on constructing a VirtualMachine over a Cluster system that provides the double functionalityof executing traditional workstation jobs as well as distributedapplications efficiently.To solve the problem, two major considerations must be addressed:* How share and schedule the workstation resources (especially the CPU) between the local and distributed applications. * How to manage and control the overall system for the efficient execution of both application kinds. Coscheduling is the base principle used for the sharing andscheduling of the CPU. Coscheduling is based on reducingthe communication waiting time of distributed applicationsby scheduling their forming tasks, or a subset of them atthe same time. Consequently, non-communicating distributedapplications (CPU bound ones) will not be favored by theapplication of coscheduling. Only the performance of distributedapplications with remote communication can be increasedwith coscheduling.Coscheduling techniques follow two major trends: explicitand implicit control. This classification is based on theway the distributed tasks are managed and controlled. Basically,in explicit-control, such work is carried out by specializedprocesses and (or) processors. In contrast, in implicit-control,coscheduling is performed by making local scheduling decisionsdepending on the events occurring in each workstation.Two coscheduling mechanisms which follow the two differentcontrol trends are presented in this project. They alsoprovide additional features including usability, good performancein the execution of distributed applications, simultaneousexecution of distributed applications, low overhead andalso low impact on local workload performance. The designof the coscheduling techniques was mainly influenced bythe optimization of these features.An implicit-control coscheduling model is also presented.Some of the features it provides include collecting on-timeperformance statistics and the usefulness as a basic schemefor developing new coscheduling policies. The presentedimplicit-control mechanism is based on this model.The good scheduling behavior of the coscheduling models presentedis shown firstly by simulation, and their performance comparedwith other coscheduling techniques in the literature. Agreat effort is also made to implement the principal studiedcoscheduling techniques in a real Cluster system. Thus,it is possible to collect performance measurements of thedifferent coscheduling techniques and compare them in thesame environment. The study of the results obtained willprovide an important orientation for future research incoscheduling because, to our knowledge, no similar work(in the literature) has been done before. Measurements in the real Cluster system were made by usingvarious distributed benchmarks with different message patterns:regular and irregular communication patterns, token rings,all-to-all and so on. Also, communication primitives suchas barriers and basic sending and receiving using one andtwo directional links were separately measured. By usingthis broad range of distributed applications, an accurateanalysis of the usefulness and applicability of the presentedcoscheduling techniques in Cluster computing is performed.
|
86 |
Metodología para la evaluación de prestaciones del sistema de Entrada/Salida en computadores de altas prestacionesMéndez, Sandra Adriana 30 September 2013 (has links)
The increase in processing units, the advance in speed and compute power, and the
increasing complexity of scientific applications that use high performance computing
require more efficient Input/Output(I/O) Systems. The performance of many scientific
applications is inherently limited by the input/output subsystem. Due to the historical “gap“
between the computing and I/O performance, in many cases, the I/O system becomes the
bottleneck of parallel systems. Identification of I/O factors that influence on performance
can help us to hide this ”gap”.
This situation lead us to ask ourselves the next questions: Must adapt Scientific
applications to I/O configurations?, How do I/O factors influence on performance? How
do you configure the I/O system to adapt to the scientific application? Answering these
questions is not trivial. To use the I/O system efficiently it is necessary to know its
performance capacity to determine if it fulfills I/O requirements of application.
We present a methodology to performance evaluate of the I/O system on computer
clusters. We propose the I/O system evaluation by taking into account requirements of
the application and the I/O configuration. To do this we have defined a methodology with
three stages: characterization, analysis of I/O and evaluation.
Furthermore, we define a methodology to obtain the I/O model of parallel application
that has been utilized to compare different I/O subsystems. It allows us to determine
how much of the system’s capacity is being used taking into account the I/O phases
of application. The methodology can be used to select the configuration with less I/O
time from different I/O configurations. The I/O model of application is defined by three
characteristics: metadata, spatial global pattern and temporal global pattern. We have
evaluated the I/O system utilization of different configurations by considering the I/O
model of application. / El aumento del número de unidades de procesamiento en los clúster de computadores,
los avances tanto en velocidad como en potencia de los procesadores y las crecientes
demandas de las aplicaciones científicas que utilizan cómputo de altas prestaciones trae
mayores exigencias a los sistemas de Entrada/Salida (E/S) paralelos. El rendimiento de
muchas aplicaciones científicas está inherentemente limitado por el sistema de E/S.
Debido al histórico “gap” entre las prestaciones del cómputo y la E/S, en muchos
casos, el sistema de E/S se convierte en el cuello de botella de los sistemas paralelos. La
identificación de los factores de E/S que influyen en el rendimiento puede ayudar a ocultar
este “gap”. Esta situación lleva a hacer las siguientes preguntas: ¿Deben las aplicaciones
científicas adaptarse a la configuración de E/S, ¿Cómo los factores E/S influyen en el
rendimiento? ¿Cómo se configura el sistema de E/S para adaptarlo a la aplicación científica?
La respuesta a estas preguntas no es trivial. Para utilizar el sistema de E/S de manera
eficiente es necesario conocer su capacidad de rendimiento para determinar si cumple con
requisitos de aplicación.
En este trabajo se propone una metodología para evaluar las prestaciones de los
sistemas de E/S en clusters de computadores. La evaluación considera la configuración del
sistema de E/S y las características de E/S de la aplicación. Para ello se ha definido una
metodología de tres etapas: caracterización, análisis de E/S y evaluación. En la fase de
caracterización, se extrae las características de E/S de la aplicación y las características
prestacionales del sistema de E/S.
Se ha definido una metodología para obtener el modelo de E/S de la aplicación paralela
que se ha utilizado para comparar diferentes sistemas de E/S. El modelo de E/S de
aplicación está definido por tres características: metadatos, patrón global espacial y patrón
global temporal. Esto permite determinar cuanto de la capacidad del sistema se utiliza
teniendo en cuenta las fases de E/S de la aplicación. La metodología se puede utilizar
para seleccionar la configuración con menor tiempo de E/S de diferentes configuraciones de E/S.
|
87 |
Computer-aided lesion detection and segmentation on breast ultrasoundPons Rodríguez, Gerard 21 January 2014 (has links)
This thesis deals with the detection, segmentation and classification of lesions on sonography. The contribution of the thesis is the development of a new Computer-Aided Diagnosis (CAD) framework capable of detecting, segmenting, and classifying breast abnormalities on sonography automatically. Firstly, an adaption of a generic object detection method, Deformable Part Models (DPM), to detect lesions in sonography is proposed. The method uses a machine learning technique to learn a model based on Histogram of Oriented Gradients (HOG). This method is also used to detect cancer lesions directly, simplifying the traditional cancer detection pipeline. Secondly, different initialization proposals by means of reducing the human interaction in a lesion segmentation algorithm based on Markov Random Field (MRF)-Maximum A Posteriori (MAP) framework is presented. Furthermore, an analysis of the influence of lesion type in the segmentation results is performed. Finally, the inclusion of elastography information in this segmentation framework is proposed, by means of modifying the algorithm to incorporate a bivariant formulation. The proposed methods in the different stages of the CAD framework are assessed using different datasets, and comparing the results with the most relevant methods in the state-of-the-art / Aquesta tesi es centra en la detecció, segmentació i classificació de lesions en imatges d'ecografia. La contribució d'aquesta tesi és el desenvolupament d'una nova eina de Diagnòstic Assistit per Ordinador (DAO) capaç de detectar, segmentar i classificar automàticament lesions en imatges d'ecografia de mama. Inicialment, s'ha proposat l'adaptació del mètode genèric de detecció d'objectes Deformable Part Models (DPM) per detectar lesions en imatges d'ecografia. Aquest mètode utilitza tècniques d'aprenentatge automàtic per generar un model basat en l'Histograma de Gradients Orientats. Aquest mètode també és utilitzat per detectar lesions malignes directament, simplificant així l'estratègia tradicional. A continuació, s'han realitzat diferents propostes d'inicialització en un mètode de segmentació basat en Markov Random Field (MRF)-Maximum A Posteriori (MAP) per tal de reduir la interacció amb l'usuari. Per avaluar aquesta proposta, s'ha realitzat un estudi sobre la influència del tipus de lesió en els resultats aconseguits. Finalment, s'ha proposat la inclusió d'elastografia en aquesta estratègia de segmentació. Els mètodes proposats per a cada etapa de l'eina DAO han estat avaluats fent servir bases de dades diferents, comparant els resultats obtinguts amb els resultats dels mètodes més importants de l'estat de l'art
|
88 |
Face recognition by means of advanced contributions in machine learningEspinosa Duró, Virginia 14 June 2013 (has links)
Face recognition (FR) has been extensively studied, due to both scientific fundamental challenges and current and potential applications where human identification is needed. FR systems have the benefits of their non intrusiveness, low cost of equipments and no useragreement requirements when doing acquisition, among the most important ones.
Nevertheless, despite the progress made in last years and the different solutions proposed, FR performance is not yet satisfactory when more demanding conditions are required (different viewpoints, blocked effects, illumination changes, strong lighting states, etc). Particularly, the effect of such non-controlled lighting conditions on face images leads to one of the strongest distortions in facial appearance.
This dissertation addresses the problem of FR when dealing with less constrained illumination situations. In order to approach the problem, a new multi-session and multi-spectral face database has been acquired in visible, Near-infrared (NIR) and Thermal infrared (TIR) spectra,
under different lighting conditions.
A theoretical analysis using information theory to demonstrate the complementarities between different spectral bands have been firstly carried out. The optimal exploitation of the information provided by the set of multispectral images has been subsequently addressed by
using multimodal matching score fusion techniques that efficiently synthesize complementary meaningful information among different spectra.
Due to peculiarities in thermal images, a specific face segmentation algorithm has been required and developed. In the final proposed system, the Discrete Cosine Transform as dimensionality reduction tool and a fractional distance for matching were used, so that the cost in processing time and memory was significantly reduced. Prior to this classification task, a selection of the relevant frequency bands is proposed in order to optimize the overall system, based on identifying and maximizing independence relations by means of discriminability
criteria. The system has been extensively evaluated on the multispectral face database specifically performed for our purpose. On this regard, a new visualization procedure has been suggested in order to combine different bands for establishing valid comparisons and giving statistical information about the significance of the results. This experimental framework has more easily enabled the improvement of robustness against training and testing illumination mismatch. Additionally, focusing problem in thermal spectrum has been also addressed, firstly, for the more general case of the thermal images (or thermograms), and then for the case of facialthermograms from both theoretical and practical point of view. In order to analyze the quality of such facial thermograms degraded by blurring, an appropriate algorithm has been successfully developed.
Experimental results strongly support the proposed multispectral facial image fusion, achieving very high performance in several conditions. These results represent a new advance in providing a robust matching across changes in illumination, further inspiring highly accurate
FR approaches in practical scenarios. / El reconeixement facial (FR) ha estat àmpliament estudiat, degut tant als reptes fonamentals científics que suposa com a les aplicacions actuals i futures on requereix la identificació de les persones. Els sistemes de reconeixement facial tenen els avantatges de ser no intrusius,presentar un baix cost dels equips d’adquisició i no la no necessitat d’autorització per part de l’individu a l’hora de realitzar l'adquisició, entre les més importants. De totes maneres i malgrat els avenços aconseguits en els darrers anys i les diferents solucions proposades, el rendiment del FR encara no resulta satisfactori quan es requereixen condicions més exigents (diferents punts de vista,
efectes de bloqueig, canvis en la il·luminació, condicions de llum extremes, etc.). Concretament, l'efecte d'aquestes variacions no controlades en les condicions d'il·luminació sobre les imatges facials condueix a una de les distorsions més accentuades sobre l'aparença
facial.
Aquesta tesi aborda el problema del FR en condicions d'il·luminació menys restringides. Per tal d'abordar el problema, hem adquirit una nova base de dades de cara multisessió i multiespectral en l'espectre infraroig visible, infraroig proper (NIR) i tèrmic (TIR), sota diferents condicions d'il·luminació. En primer lloc s'ha dut a terme una anàlisi teòrica utilitzant la teoria de la informació per demostrar la complementarietat entre les diferents bandes espectrals objecte d’estudi. L'òptim aprofitament de la informació proporcionada pel conjunt d'imatges multiespectrals s'ha abordat posteriorment mitjançant l'ús de tècniques de fusió de puntuació multimodals, capaces de sintetitzar de manera eficient el conjunt d’informació significativa complementària entre els diferents espectres. A causa de les característiques particulars de les imatges tèrmiques, s’ha requerit del desenvolupament d’un algorisme específic per la segmentació de les mateixes. En el sistema proposat final, s’ha utilitzat com a eina de reducció de la dimensionalitat de les imatges, la Transformada del Cosinus Discreta i una distància fraccional per realitzar les tasques de classificació de manera que el cost en temps de processament i de memòria es va reduir de
forma significa. Prèviament a aquesta tasca de classificació, es proposa una selecció de les bandes de freqüències més rellevants, basat en la identificació i la maximització de les relacions d'independència per mitjà de criteris discriminabilitat, per tal d'optimitzar el conjunt del
sistema. El sistema ha estat àmpliament avaluat sobre la base de dades de cara multiespectral, desenvolupada pel nostre propòsit. En aquest sentit s'ha suggerit l’ús d’un nou procediment de visualització per combinar diferents bandes per poder establir comparacions vàlides i donar informació estadística sobre el significat dels resultats. Aquest marc experimental ha permès més fàcilment la millora de la robustesa quan les condicions d’il·luminació eren diferents entre els processos d’entrament i test.
De forma complementària, s’ha tractat la problemàtica de l’enfocament de les imatges en l'espectre tèrmic, en primer lloc, pel cas general de les imatges tèrmiques (o termogrames) i posteriorment pel cas concret dels termogrames facials, des dels punt de vista tant teòric com
pràctic. En aquest sentit i per tal d'analitzar la qualitat d’aquests termogrames facials degradats per efectes de desenfocament, s'ha desenvolupat un últim algorisme. Els resultats experimentals recolzen fermament que la fusió d'imatges facials multiespectrals proposada assoleix un rendiment molt alt en diverses condicions d’il·luminació. Aquests resultats representen un nou avenç en l’aportació de solucions robustes quan es contemplen canvis en la il·luminació, i esperen poder inspirar a futures implementacions de sistemes de reconeixement facial precisos en escenaris no controlats.
|
89 |
On model predictive control for economic and robust operation of generalised flow-based networksGrosso Pérez, Juan Manuel 26 March 2015 (has links)
This thesis is devoted to design Model Predictive Control (MPC) strategies aiming to enhance the management of constrained generalised flow-based networks, with special attention to the economic optimisation and robust performance of such systems.
Several control schemes are developed in this thesis to exploit the available economic information of the system operation and the disturbance information obtained from measurements and forecasting models. Dynamic network flows theory is used to develop control-oriented models that serve to design MPC controllers specialised for flow networks with additive disturbances and periodically time-varying dynamics and costs. The control strategies developed in this thesis can be classified in two categories: centralised MPC strategies and non-centralised MPC strategies. Such strategies are assessed through simulations of a real case study: the Barcelona drinking water network (DWN).
Regarding the centralised strategies, different economic MPC formulations are first studied to guarantee recursive feasibility and stability under nominal periodic flow demands and possibly time-varying economic parameters and multi-objective cost functions. Additionally, reliability-based MPC, chance-constrained MPC and tree-based MPC strategies are proposed to address the reliability of both the flow storage and the flow transportation tasks in the network. Such strategies allow to satisfy a customer service level under future flow demand uncertainty and to efficiently distribute overall control effort under the presence of actuators degradation. Moreover, soft-control techniques such as artificial neural networks and fuzzy logic are used to incorporate self-tuning capabilities to an economic certainty-equivalent MPC controller.
Since there are objections to the use of centralised controllers in large-scale networks, two non-centralised strategies are also proposed. First, a multi-layer distributed economic MPC strategy of low computational complexity is designed with a control topology structured in two layers. In a lower layer, a set of local MPC agents are in charge of controlling partitions of the overall network by exchanging limited information on shared resources and solving their local problems in a hierarchical-like fashion. Moreover, to counteract the loss of global economic information due to the decomposition of the overall control task, a coordination layer is designed to influence non-iteratively the decision of local controllers towards the improvement of the overall economic performance. Finally, a cooperative distributed economic MPC formulation based on a periodic terminal cost/region is proposed. Such strategy guarantees convergence to a Nash equilibrium without the need of a coordinator and relies on an iterative and global communication of local controllers, which optimise in parallel their control actions but using a centralised model of the network. / Esta tesis se enfoca en el diseño de estrategias de control predictivo basado en modelos (MPC, por sus siglas en inglés) con la meta de mejorar la gestión de sistemas que pueden ser descritos por redes generalizadas de flujo y que están sujetos a restricciones, enfatizando especialmente en la optimización económica y el desempeño robusto de tales sistemas. De esta manera, varios esquemas de control se desarrollan en esta tesis para explotar tanto la información económica disponible de la operación del sistema como la información de perturbaciones obtenida de datos medibles y de modelos de predicción. La teoría de redes dinámicas de flujo es utilizada en esta tesis para desarrollar modelos orientados a control que sirven para diseñar controladores MPC especializados para la gestión de redes de flujo que presentan tanto perturbaciones aditivas como dinámicas y costos periódicamente variables en el tiempo. Las estrategias de control propuestas en esta tesis se pueden clasificar en dos categorías: estrategias de control MPC centralizado y estrategias de control MPC no-centralizado. Dichas estrategias son evaluadas mediante simulaciones de un caso de estudio real: la red de transporte de agua potable de Barcelona en España. En cuanto a las estrategias de control MPC centralizado, diferentes formulaciones de controladores MPC económicos son primero estudiadas para garantizar factibilidad recursiva y estabilidad del sistema cuya operación responde a demandas nominales de flujo periódico, a parámetros económicos posiblemente variantes en el tiempo y a funciones de costo multi-objetivo. Adicionalmente, estrategias de control MPC basado en fiabilidad, MPC con restricciones probabilísticas y MPC basado en árboles de escenarios son propuestas para garantizar la fiabilidad tanto de tareas de almacenamiento como de transporte de flujo en la red. Tales estrategias permiten satisfacer un nivel de servicio al cliente bajo incertidumbre en la demanda futura, así como distribuir eficientemente el esfuerzo global de control bajo la presencia de degradación en los actuadores del sistema. Por otra parte, técnicas de computación suave como redes neuronales artificiales y lógica difusa se utilizan para incorporar capacidades de auto-sintonía en un controlador MPC económico de certeza-equivalente. Dado que hay objeciones al uso de control centralizado en redes de gran escala, dos estrategias de control no-centralizado son propuestas en esta tesis. Primero, un controlador MPC económico distribuido de baja complejidad computacional es diseñado con una topología estructurada en dos capas. En una capa inferior, un conjunto de controladores MPC locales se encargan de controlar particiones de la red mediante el intercambio de información limitada de los recursos físicos compartidos y resolviendo sus problemas locales de optimización de forma similar a una secuencia jerárquica de solución. Para contrarrestar la pérdida de información económica global que ocurra tras la descomposición de la tarea de control global, una capa de coordinación es diseñada para influenciar no-iterativamente la decisión de los controles locales con el fin de lograr una mejora global del desempeño económico. La segunda estrategia no-centralizada propuesta en esta tesis es una formulación de control MPC económico distribuido cooperativo basado en una restricción terminal periódica. Tal estrategia garantiza convergencia a un equilibrio de Nash sin la necesidad de una capa de coordinación pero requiere una comunicación iterativa de información global entre todos los controladores locales, los cuales optimizan en paralelo sus acciones de control utilizando un modelo centralizado de la red.
|
90 |
Monitoring the quality of service to support the service based system lifecycleOriol Hilari, Marc 19 March 2015 (has links)
Service Oriented Computing (SOC) has been established in the last recent years as a successful paradigm in Software Engineering. The systems built under this paradigm, known as Service Based System (SBS), are composed of several services, which are usually third-party software run by external service providers. SBS rely on these service providers to ensure that their services comply with the agreed Quality of Service (QoS). In contrast to
other systems, the dynamic behaviour of SBS requires up-to-date QoS information for its proper management in the different stages of its lifecycle, from their initial construction until their decommission.
Providing such QoS information has resulted in different technological solutions built around a monitor. Nonetheless, several research challenges in the field remain still open, ranging from theoretical aspects of quality assurance to architectonical challenges in decentralized monitoring.
Based on the current research challenges for service monitoring, the research gaps in which we aim to contribute are twofold:
- To investigate on the definition and structure of the different quality factors of services, and provide a framework of common understanding for the definition of what to monitor.
- To investigate on the different features required to support the activities of the whole SBS lifecycle (i.e. how to monitor), and develop a monitoring framework that accomplishes such features.
As a result of this thesis, we provide:
What to monitor
- A distribution of the quality models along the time dimension and the identification of their relationships.
- An analysis of the size and definition coverage of the proposed quality models.
- A quantified coverage of the different ISO/IEC 25010 quality factors given by the proposals.
- The identification of the most used quality factors, and provided the most consolidated definitions for them.
How to monitor
- The elicitation of the requirements of the different activities in the SBS lifecycle.
- The definition of the set of features that supports the elicited requirements.
- A modular service-oriented monitoring framework, named SALMon, implementing the defined features. SALMon has been validated by including it in several frameworks supporting the different activities of the SBS lifecycle. Finally, we have conducted a performance evaluation of SALMon over real web services. / La Computació Orientada a Serveis (SOC) ha esdevingut en els darrers anys un paradigma exitós en el camp de l'Enginyeria del Software. Els sistemes construïts sota aquest paradigma, coneguts com Sistemes Basats en Serveis (SBS), estan composats de diversos serveis, que són, usualment, programari de tercers executats per proveïdors de serveis externs. Els SBS depenen dels proveïdors dels serveis per garantir que els serveis compleixen amb la Qualitat del Servei (QoS) acordada. En contrast amb altres sistemes, el comportament dinàmic dels SBS requereix d'informació actualitzada del QoS per a la correcta administració de les diferents etapes del cicle de vida dels SBS: des de la seva construcció inicial fins a la seva clausura. Proveir d'aquesta informació de QoS ha resultat en diferents solucions tecnològiques construïdes al voltant d'un monitor. Malgrat això, diversos reptes de recerca en el camp encara romanen obertes, des d'aspectes teòrics de l'assegurança de qualitat, a reptes arquitectònics en la monitorització descentralitzada. Basat en els reptes de recerca actuals per a la monitorització de serveis, els forats de recerca en els que pretenem contribuir són dobles: - Investigar en la definició i estructura dels diferents factors de qualitat dels serveis, i proveir un marc de treball d'entesa comuna per a la definició de què monitoritzar. - Investigar en les diferents característiques requerides per donar suport a les activitats de tot el cicle de vida dels SBS (i.e. com monitoritzar), i desenvolupar una plataforma de monitorització que acompleixi aquestes característiques. Com a resultats de la tesis, proveïm: Què monitoritzar - Una distribució dels models de qualitat al llarg de la dimensió temporal i la identificació de les seves interrelacions. - Un anàlisi de la mida i definició de la cobertura dels models de qualitat proposats. - Una cobertura quantificada dels diferents factors de qualitat ISO/IEC 25010 donat en les diferents propostes. - La identificació dels factors de qualitat més utilitzats, i la definició dels termes més consolidats. Com monitoritzar - L'elicitació dels requeriments per a les diferents activitats en el cicle de vida dels SBS. - La definició del conjunt de característiques que donen suport als requeriments elicitats. - Una platforma modular orientada a serveis, anomenat SALMon, que implementa les característiques definides. SALMon ha estatvalidat incloent la plataforma en diversos marcs de treball donant suport a les diferents activitats
|
Page generated in 0.0838 seconds