• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 45
  • 19
  • Tagged with
  • 205
  • 202
  • 202
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 56
  • 50
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Noves aproximacions per a l'estudi del sistema HLA: De la tipificació dels loci HLA basada en la PCR a temps real al desenvolupament de tetràmers de classe II

Faner Canet, Maria Rosa 23 May 2006 (has links)
El Complex Principal de Histocompatibilitat (MHC) és la regió gènica que conté els loci més polimòrfics del genoma. Aquests loci estan implicats en els mecanismes de presentació antigènica als limfòcits T, defineixen la resposta immunitària en general, incloent-hi la histocompatibilitat entre donant i receptor en els trasplantaments d'òrgans. Tot i que existeixen diverses tècniques aplicades a la tipificació dels polimorfismes del MHC i a l'anàlisi de la funcionalitat d'aquestes molècules, les més utilitzades en els laboratoris d'histocompatibilitat presenten encara limitacions i són millorables. En aquest sentit aquesta tesi doctoral descriu la utilització de la PCR a temps real amb sondes d'hibridació com a metodologia per a millorar la tipificació dels loci HLA. En primer lloc s'ha desenvolupat una tècnica de tipificació basada en la PCR a temps real per la família al·lèlica HLA-B27. L'aproximació desenvolupada es basa en tres reaccions amb sondes d'hibridació FRET que permeten donar una resolució mitja-alta dels al·lels HLA-B27 en la població caucàsica, alhora que discriminen els al·lels no associats amb la Espondilitis Anquilopoiètica. Després d'haver comprovat la validesa de la metodologia de tipificació per PCR a temps real amb sondes FRET en una família HLA de polimorfisme reduït, s'ha desenvolupat una aproximació per a la tipificació de baixa resolució del locus HLA-B, el més polimòrfic de tots els loci HLA, basada en la mateixa metodologia. En tercer lloc s'ha comparat la utilització de les sondes de tipus FRET en front a les sondes de tipus Taqman per a la tipificació HLA, i per això s'ha desenvolupat un sistema per a la tipificació del locus de classe II HLA-DR amb aquesta segona metodologia de sondes.Les metodologies de tipificació basades en la PCR a temps real que s'han desenvolupat comparades amb les tècniques de tipificació basades en el DNA tradicionals, comporten diverses avantatges, les principals són en quant a temps total necessari per a realitzar la tècnica i eliminació de passos de processat post PCR. D'altre banda, la comparació de les tres aproximacions de tipificació per PCR a temps real desenvolupades ha demostrat que per a la resolució del polimorfisme HLA són més valides les sondes FRET.Per a millorar les tècniques d'anàlisi de la funcionalitat de les molècules HLA, en la present tesi doctoral s'han elaborat tetràmers de classe II dels loci no clàssics de DRB, en concret dels dos al·lels més freqüents de DRB3. L'aplicació d'aquesta metodologia ha permès millorar les eines disponibles per a l'estudi de la funcionalitat dels denominats loci secundaris de DRB, alhora que també ha permès valorar la magnitud de la resposta cel·lular T CD4+ que reconeix antígens en el context d'aquestes molècules, posant de manifest la rellevància d'aquest locus en la presentació antigènica. / The Major Histocompatibility Complex (MHC) is the genetic region that contains the loci more polymorphic of the genome. These loci are involved in the antigenic presentation to the T lymphocytes, defining in general the immune response and specifically including the histocompatibility between donor and acceptor in organ transplantation. There are different techniques that are used for typing the polymorphism of the MHC and also for the analysis of the functionality of these molecules. But the main techniques used for typing in Histocompatibility laboratories have still some limitations that can be solved. In reference to this point this thesis describes the usage of real time PCR with hybridization probes as an assay to be used for HLA typing. As a first approach to prove the validity of the methodology, an HLA-B27 typing assay by real time PCR with FRET probes has been optimized. The described HLA-B27 typing protocol uses three reactions with FRET probes that can achieve a medium-high resolution of the alleles in the Caucasoid population, at the same time alleles non associated with Spondylarthropathies are differentiated. After proving the validity of the real time PCR with FRET probes for a reduced HLA polymorphism, an approach based in the same methodology for typing of the HLA-B locus with a low-medium resolution has been developed. In third place, for HLA typing resolution the usage of the FRET probes has been compared to the usage of Taqman probes. With this aim a typing approach for the HLA-DRB locus with Taqman probes has been developed. The typing methodologies based on real time PCR that have been developed show several advantages when compared to the traditional DNA based typing techniques, the main are on reference to the time required for the developing of the assays and to the elimination of all post-PCR steps. At the same time the evaluation of the three described typing techniques has shown that FRET probes work better to solve the HLA polymorphism. In this thesis MHC class II tetramers have been developed to improve the tools for the functional study of the non classical HLA-DRB loci, concretely of the more frequent alleles of DRB3. This methodology allowed the evaluation of the T CD4+ cell response that recognizes antigens in the context of these HLA molecules, showing the relevancy of this locus in the antigenic presentation.
102

Coscheduling Techniques for Non-Dedicated Cluster Computing

Solsona Tehàs, Francesc 24 July 2002 (has links)
Los esfuerzos de esta tesis se centran en onstruir una máquina virtual sobre un sistema Cluster que proporcione la doble funcionalidad de ejecutar eficientemente tanto trabajos tradicionales (o locales) de estaciones de trabajoasí como aplicaciones distribuidas. Para solucionar el problema, deben tenerse en cuenta dos importantes consideraciones: * Como compartir y planificar los recursos de las diferentes estaciones de trabajo (especialmente la CPU) entre las aplicaciones locales y distribuidas. * Como gestionar y controlar la totalidad del sistema para conseguir ejecuciones eficientes de ambos tipos de aplicaciones.Coscheduling es el principio básico usado para compartiry planificar la CPU. Cosche-duling se basa en la reduccióndel tiempo de espera de comunicación de aplicaciones distribuidas,planificando simultáneamente todas (o un subconjunto de)las tareas que la componen. Por lo tanto, mediante el usode técnicas de coscheduling, únicamente se puede incrementarel rendimiento de aplicaciones distribuidas con comunicaciónremota entre las tareas que la componen. Las técnicas de Coscheduling se clasifican en dos grandesgrupos: control-explícito y control-implícito. Esta clasificaciónse basa en la forma de coplanificar las tareas distribuidas.En control-explícito, la coplanificación es realizada porprocesos y (o) procesadores especializados. En cambio, encontrol-implícito, las técnicas de coscheduling se realizantomando decisiones de planificación localmente, dependiendode los eventos que ocurren en cada estación de trabajo. En este proyecto se presentan dos mecanismos de coscheduling,los cuales siguen las dos diferentes filosofías explicadasanteriormente, control-implícito y control-explí-cito. Tambiénproporcionan características adicionales incluyendo un buenrendimiento en la ejecución de aplicaciones distribuidas,ejecución simultánea de varias aplicaciones distribuidas,bajo overhead y también bajo impacto en el rendimiento dela carga local.También se presenta un modelo de coscheduling, el cual proporcionauna base teórica para el desarrollo de nuevas técnicas decontrol-implícito. La técnica de control-implícito propuestase basa en este modelo. El buen comportamiento de las técnicas de coscheduling presentadasen este trabajo se analiza en primer lugar por medio desimulación. También se ha realizado un gran esfuerzo enla implementación de estas técnicas de coscheduling en unCluster real. El estudio de los resultados obtenidos proporcionauna orientación importante para la investigación futuraen el campo de coscheduling. En la experimentación en el Cluster real, se han utilizadovarios benchmarks distribuidos con diversos patrones decomunicación de paso de mensajes: regulares e irregulares,anillos lógicos, todos-a-todos, etc. También se han utilizadobenchmarks que medían diferentes primitivas de comunicación,tales como barreras, enlaces uni y bidireccionales, etc.El uso de esta amplia gama de aplicaciones distribuidasha servido para demostrar la aplicabilidad de las técnicasde coscheduling en computación distribuida basados en Clusters. / Efforts of this Thesis are centered on constructing a VirtualMachine over a Cluster system that provides the double functionalityof executing traditional workstation jobs as well as distributedapplications efficiently.To solve the problem, two major considerations must be addressed:* How share and schedule the workstation resources (especially the CPU) between the local and distributed applications. * How to manage and control the overall system for the efficient execution of both application kinds. Coscheduling is the base principle used for the sharing andscheduling of the CPU. Coscheduling is based on reducingthe communication waiting time of distributed applicationsby scheduling their forming tasks, or a subset of them atthe same time. Consequently, non-communicating distributedapplications (CPU bound ones) will not be favored by theapplication of coscheduling. Only the performance of distributedapplications with remote communication can be increasedwith coscheduling.Coscheduling techniques follow two major trends: explicitand implicit control. This classification is based on theway the distributed tasks are managed and controlled. Basically,in explicit-control, such work is carried out by specializedprocesses and (or) processors. In contrast, in implicit-control,coscheduling is performed by making local scheduling decisionsdepending on the events occurring in each workstation.Two coscheduling mechanisms which follow the two differentcontrol trends are presented in this project. They alsoprovide additional features including usability, good performancein the execution of distributed applications, simultaneousexecution of distributed applications, low overhead andalso low impact on local workload performance. The designof the coscheduling techniques was mainly influenced bythe optimization of these features.An implicit-control coscheduling model is also presented.Some of the features it provides include collecting on-timeperformance statistics and the usefulness as a basic schemefor developing new coscheduling policies. The presentedimplicit-control mechanism is based on this model.The good scheduling behavior of the coscheduling models presentedis shown firstly by simulation, and their performance comparedwith other coscheduling techniques in the literature. Agreat effort is also made to implement the principal studiedcoscheduling techniques in a real Cluster system. Thus,it is possible to collect performance measurements of thedifferent coscheduling techniques and compare them in thesame environment. The study of the results obtained willprovide an important orientation for future research incoscheduling because, to our knowledge, no similar work(in the literature) has been done before. Measurements in the real Cluster system were made by usingvarious distributed benchmarks with different message patterns:regular and irregular communication patterns, token rings,all-to-all and so on. Also, communication primitives suchas barriers and basic sending and receiving using one andtwo directional links were separately measured. By usingthis broad range of distributed applications, an accurateanalysis of the usefulness and applicability of the presentedcoscheduling techniques in Cluster computing is performed.
103

Metodología para la evaluación de prestaciones del sistema de Entrada/Salida en computadores de altas prestaciones

Méndez, Sandra Adriana 30 September 2013 (has links)
The increase in processing units, the advance in speed and compute power, and the increasing complexity of scientific applications that use high performance computing require more efficient Input/Output(I/O) Systems. The performance of many scientific applications is inherently limited by the input/output subsystem. Due to the historical “gap“ between the computing and I/O performance, in many cases, the I/O system becomes the bottleneck of parallel systems. Identification of I/O factors that influence on performance can help us to hide this ”gap”. This situation lead us to ask ourselves the next questions: Must adapt Scientific applications to I/O configurations?, How do I/O factors influence on performance? How do you configure the I/O system to adapt to the scientific application? Answering these questions is not trivial. To use the I/O system efficiently it is necessary to know its performance capacity to determine if it fulfills I/O requirements of application. We present a methodology to performance evaluate of the I/O system on computer clusters. We propose the I/O system evaluation by taking into account requirements of the application and the I/O configuration. To do this we have defined a methodology with three stages: characterization, analysis of I/O and evaluation. Furthermore, we define a methodology to obtain the I/O model of parallel application that has been utilized to compare different I/O subsystems. It allows us to determine how much of the system’s capacity is being used taking into account the I/O phases of application. The methodology can be used to select the configuration with less I/O time from different I/O configurations. The I/O model of application is defined by three characteristics: metadata, spatial global pattern and temporal global pattern. We have evaluated the I/O system utilization of different configurations by considering the I/O model of application. / El aumento del número de unidades de procesamiento en los clúster de computadores, los avances tanto en velocidad como en potencia de los procesadores y las crecientes demandas de las aplicaciones científicas que utilizan cómputo de altas prestaciones trae mayores exigencias a los sistemas de Entrada/Salida (E/S) paralelos. El rendimiento de muchas aplicaciones científicas está inherentemente limitado por el sistema de E/S. Debido al histórico “gap” entre las prestaciones del cómputo y la E/S, en muchos casos, el sistema de E/S se convierte en el cuello de botella de los sistemas paralelos. La identificación de los factores de E/S que influyen en el rendimiento puede ayudar a ocultar este “gap”. Esta situación lleva a hacer las siguientes preguntas: ¿Deben las aplicaciones científicas adaptarse a la configuración de E/S, ¿Cómo los factores E/S influyen en el rendimiento? ¿Cómo se configura el sistema de E/S para adaptarlo a la aplicación científica? La respuesta a estas preguntas no es trivial. Para utilizar el sistema de E/S de manera eficiente es necesario conocer su capacidad de rendimiento para determinar si cumple con requisitos de aplicación. En este trabajo se propone una metodología para evaluar las prestaciones de los sistemas de E/S en clusters de computadores. La evaluación considera la configuración del sistema de E/S y las características de E/S de la aplicación. Para ello se ha definido una metodología de tres etapas: caracterización, análisis de E/S y evaluación. En la fase de caracterización, se extrae las características de E/S de la aplicación y las características prestacionales del sistema de E/S. Se ha definido una metodología para obtener el modelo de E/S de la aplicación paralela que se ha utilizado para comparar diferentes sistemas de E/S. El modelo de E/S de aplicación está definido por tres características: metadatos, patrón global espacial y patrón global temporal. Esto permite determinar cuanto de la capacidad del sistema se utiliza teniendo en cuenta las fases de E/S de la aplicación. La metodología se puede utilizar para seleccionar la configuración con menor tiempo de E/S de diferentes configuraciones de E/S.
104

Computer-aided lesion detection and segmentation on breast ultrasound

Pons Rodríguez, Gerard 21 January 2014 (has links)
This thesis deals with the detection, segmentation and classification of lesions on sonography. The contribution of the thesis is the development of a new Computer-Aided Diagnosis (CAD) framework capable of detecting, segmenting, and classifying breast abnormalities on sonography automatically. Firstly, an adaption of a generic object detection method, Deformable Part Models (DPM), to detect lesions in sonography is proposed. The method uses a machine learning technique to learn a model based on Histogram of Oriented Gradients (HOG). This method is also used to detect cancer lesions directly, simplifying the traditional cancer detection pipeline. Secondly, different initialization proposals by means of reducing the human interaction in a lesion segmentation algorithm based on Markov Random Field (MRF)-Maximum A Posteriori (MAP) framework is presented. Furthermore, an analysis of the influence of lesion type in the segmentation results is performed. Finally, the inclusion of elastography information in this segmentation framework is proposed, by means of modifying the algorithm to incorporate a bivariant formulation. The proposed methods in the different stages of the CAD framework are assessed using different datasets, and comparing the results with the most relevant methods in the state-of-the-art / Aquesta tesi es centra en la detecció, segmentació i classificació de lesions en imatges d'ecografia. La contribució d'aquesta tesi és el desenvolupament d'una nova eina de Diagnòstic Assistit per Ordinador (DAO) capaç de detectar, segmentar i classificar automàticament lesions en imatges d'ecografia de mama. Inicialment, s'ha proposat l'adaptació del mètode genèric de detecció d'objectes Deformable Part Models (DPM) per detectar lesions en imatges d'ecografia. Aquest mètode utilitza tècniques d'aprenentatge automàtic per generar un model basat en l'Histograma de Gradients Orientats. Aquest mètode també és utilitzat per detectar lesions malignes directament, simplificant així l'estratègia tradicional. A continuació, s'han realitzat diferents propostes d'inicialització en un mètode de segmentació basat en Markov Random Field (MRF)-Maximum A Posteriori (MAP) per tal de reduir la interacció amb l'usuari. Per avaluar aquesta proposta, s'ha realitzat un estudi sobre la influència del tipus de lesió en els resultats aconseguits. Finalment, s'ha proposat la inclusió d'elastografia en aquesta estratègia de segmentació. Els mètodes proposats per a cada etapa de l'eina DAO han estat avaluats fent servir bases de dades diferents, comparant els resultats obtinguts amb els resultats dels mètodes més importants de l'estat de l'art
105

Face recognition by means of advanced contributions in machine learning

Espinosa Duró, Virginia 14 June 2013 (has links)
Face recognition (FR) has been extensively studied, due to both scientific fundamental challenges and current and potential applications where human identification is needed. FR systems have the benefits of their non intrusiveness, low cost of equipments and no useragreement requirements when doing acquisition, among the most important ones. Nevertheless, despite the progress made in last years and the different solutions proposed, FR performance is not yet satisfactory when more demanding conditions are required (different viewpoints, blocked effects, illumination changes, strong lighting states, etc). Particularly, the effect of such non-controlled lighting conditions on face images leads to one of the strongest distortions in facial appearance. This dissertation addresses the problem of FR when dealing with less constrained illumination situations. In order to approach the problem, a new multi-session and multi-spectral face database has been acquired in visible, Near-infrared (NIR) and Thermal infrared (TIR) spectra, under different lighting conditions. A theoretical analysis using information theory to demonstrate the complementarities between different spectral bands have been firstly carried out. The optimal exploitation of the information provided by the set of multispectral images has been subsequently addressed by using multimodal matching score fusion techniques that efficiently synthesize complementary meaningful information among different spectra. Due to peculiarities in thermal images, a specific face segmentation algorithm has been required and developed. In the final proposed system, the Discrete Cosine Transform as dimensionality reduction tool and a fractional distance for matching were used, so that the cost in processing time and memory was significantly reduced. Prior to this classification task, a selection of the relevant frequency bands is proposed in order to optimize the overall system, based on identifying and maximizing independence relations by means of discriminability criteria. The system has been extensively evaluated on the multispectral face database specifically performed for our purpose. On this regard, a new visualization procedure has been suggested in order to combine different bands for establishing valid comparisons and giving statistical information about the significance of the results. This experimental framework has more easily enabled the improvement of robustness against training and testing illumination mismatch. Additionally, focusing problem in thermal spectrum has been also addressed, firstly, for the more general case of the thermal images (or thermograms), and then for the case of facialthermograms from both theoretical and practical point of view. In order to analyze the quality of such facial thermograms degraded by blurring, an appropriate algorithm has been successfully developed. Experimental results strongly support the proposed multispectral facial image fusion, achieving very high performance in several conditions. These results represent a new advance in providing a robust matching across changes in illumination, further inspiring highly accurate FR approaches in practical scenarios. / El reconeixement facial (FR) ha estat àmpliament estudiat, degut tant als reptes fonamentals científics que suposa com a les aplicacions actuals i futures on requereix la identificació de les persones. Els sistemes de reconeixement facial tenen els avantatges de ser no intrusius,presentar un baix cost dels equips d’adquisició i no la no necessitat d’autorització per part de l’individu a l’hora de realitzar l'adquisició, entre les més importants. De totes maneres i malgrat els avenços aconseguits en els darrers anys i les diferents solucions proposades, el rendiment del FR encara no resulta satisfactori quan es requereixen condicions més exigents (diferents punts de vista, efectes de bloqueig, canvis en la il·luminació, condicions de llum extremes, etc.). Concretament, l'efecte d'aquestes variacions no controlades en les condicions d'il·luminació sobre les imatges facials condueix a una de les distorsions més accentuades sobre l'aparença facial. Aquesta tesi aborda el problema del FR en condicions d'il·luminació menys restringides. Per tal d'abordar el problema, hem adquirit una nova base de dades de cara multisessió i multiespectral en l'espectre infraroig visible, infraroig proper (NIR) i tèrmic (TIR), sota diferents condicions d'il·luminació. En primer lloc s'ha dut a terme una anàlisi teòrica utilitzant la teoria de la informació per demostrar la complementarietat entre les diferents bandes espectrals objecte d’estudi. L'òptim aprofitament de la informació proporcionada pel conjunt d'imatges multiespectrals s'ha abordat posteriorment mitjançant l'ús de tècniques de fusió de puntuació multimodals, capaces de sintetitzar de manera eficient el conjunt d’informació significativa complementària entre els diferents espectres. A causa de les característiques particulars de les imatges tèrmiques, s’ha requerit del desenvolupament d’un algorisme específic per la segmentació de les mateixes. En el sistema proposat final, s’ha utilitzat com a eina de reducció de la dimensionalitat de les imatges, la Transformada del Cosinus Discreta i una distància fraccional per realitzar les tasques de classificació de manera que el cost en temps de processament i de memòria es va reduir de forma significa. Prèviament a aquesta tasca de classificació, es proposa una selecció de les bandes de freqüències més rellevants, basat en la identificació i la maximització de les relacions d'independència per mitjà de criteris discriminabilitat, per tal d'optimitzar el conjunt del sistema. El sistema ha estat àmpliament avaluat sobre la base de dades de cara multiespectral, desenvolupada pel nostre propòsit. En aquest sentit s'ha suggerit l’ús d’un nou procediment de visualització per combinar diferents bandes per poder establir comparacions vàlides i donar informació estadística sobre el significat dels resultats. Aquest marc experimental ha permès més fàcilment la millora de la robustesa quan les condicions d’il·luminació eren diferents entre els processos d’entrament i test. De forma complementària, s’ha tractat la problemàtica de l’enfocament de les imatges en l'espectre tèrmic, en primer lloc, pel cas general de les imatges tèrmiques (o termogrames) i posteriorment pel cas concret dels termogrames facials, des dels punt de vista tant teòric com pràctic. En aquest sentit i per tal d'analitzar la qualitat d’aquests termogrames facials degradats per efectes de desenfocament, s'ha desenvolupat un últim algorisme. Els resultats experimentals recolzen fermament que la fusió d'imatges facials multiespectrals proposada assoleix un rendiment molt alt en diverses condicions d’il·luminació. Aquests resultats representen un nou avenç en l’aportació de solucions robustes quan es contemplen canvis en la il·luminació, i esperen poder inspirar a futures implementacions de sistemes de reconeixement facial precisos en escenaris no controlats.
106

On model predictive control for economic and robust operation of generalised flow-based networks

Grosso Pérez, Juan Manuel 26 March 2015 (has links)
This thesis is devoted to design Model Predictive Control (MPC) strategies aiming to enhance the management of constrained generalised flow-based networks, with special attention to the economic optimisation and robust performance of such systems. Several control schemes are developed in this thesis to exploit the available economic information of the system operation and the disturbance information obtained from measurements and forecasting models. Dynamic network flows theory is used to develop control-oriented models that serve to design MPC controllers specialised for flow networks with additive disturbances and periodically time-varying dynamics and costs. The control strategies developed in this thesis can be classified in two categories: centralised MPC strategies and non-centralised MPC strategies. Such strategies are assessed through simulations of a real case study: the Barcelona drinking water network (DWN). Regarding the centralised strategies, different economic MPC formulations are first studied to guarantee recursive feasibility and stability under nominal periodic flow demands and possibly time-varying economic parameters and multi-objective cost functions. Additionally, reliability-based MPC, chance-constrained MPC and tree-based MPC strategies are proposed to address the reliability of both the flow storage and the flow transportation tasks in the network. Such strategies allow to satisfy a customer service level under future flow demand uncertainty and to efficiently distribute overall control effort under the presence of actuators degradation. Moreover, soft-control techniques such as artificial neural networks and fuzzy logic are used to incorporate self-tuning capabilities to an economic certainty-equivalent MPC controller. Since there are objections to the use of centralised controllers in large-scale networks, two non-centralised strategies are also proposed. First, a multi-layer distributed economic MPC strategy of low computational complexity is designed with a control topology structured in two layers. In a lower layer, a set of local MPC agents are in charge of controlling partitions of the overall network by exchanging limited information on shared resources and solving their local problems in a hierarchical-like fashion. Moreover, to counteract the loss of global economic information due to the decomposition of the overall control task, a coordination layer is designed to influence non-iteratively the decision of local controllers towards the improvement of the overall economic performance. Finally, a cooperative distributed economic MPC formulation based on a periodic terminal cost/region is proposed. Such strategy guarantees convergence to a Nash equilibrium without the need of a coordinator and relies on an iterative and global communication of local controllers, which optimise in parallel their control actions but using a centralised model of the network. / Esta tesis se enfoca en el diseño de estrategias de control predictivo basado en modelos (MPC, por sus siglas en inglés) con la meta de mejorar la gestión de sistemas que pueden ser descritos por redes generalizadas de flujo y que están sujetos a restricciones, enfatizando especialmente en la optimización económica y el desempeño robusto de tales sistemas. De esta manera, varios esquemas de control se desarrollan en esta tesis para explotar tanto la información económica disponible de la operación del sistema como la información de perturbaciones obtenida de datos medibles y de modelos de predicción. La teoría de redes dinámicas de flujo es utilizada en esta tesis para desarrollar modelos orientados a control que sirven para diseñar controladores MPC especializados para la gestión de redes de flujo que presentan tanto perturbaciones aditivas como dinámicas y costos periódicamente variables en el tiempo. Las estrategias de control propuestas en esta tesis se pueden clasificar en dos categorías: estrategias de control MPC centralizado y estrategias de control MPC no-centralizado. Dichas estrategias son evaluadas mediante simulaciones de un caso de estudio real: la red de transporte de agua potable de Barcelona en España. En cuanto a las estrategias de control MPC centralizado, diferentes formulaciones de controladores MPC económicos son primero estudiadas para garantizar factibilidad recursiva y estabilidad del sistema cuya operación responde a demandas nominales de flujo periódico, a parámetros económicos posiblemente variantes en el tiempo y a funciones de costo multi-objetivo. Adicionalmente, estrategias de control MPC basado en fiabilidad, MPC con restricciones probabilísticas y MPC basado en árboles de escenarios son propuestas para garantizar la fiabilidad tanto de tareas de almacenamiento como de transporte de flujo en la red. Tales estrategias permiten satisfacer un nivel de servicio al cliente bajo incertidumbre en la demanda futura, así como distribuir eficientemente el esfuerzo global de control bajo la presencia de degradación en los actuadores del sistema. Por otra parte, técnicas de computación suave como redes neuronales artificiales y lógica difusa se utilizan para incorporar capacidades de auto-sintonía en un controlador MPC económico de certeza-equivalente. Dado que hay objeciones al uso de control centralizado en redes de gran escala, dos estrategias de control no-centralizado son propuestas en esta tesis. Primero, un controlador MPC económico distribuido de baja complejidad computacional es diseñado con una topología estructurada en dos capas. En una capa inferior, un conjunto de controladores MPC locales se encargan de controlar particiones de la red mediante el intercambio de información limitada de los recursos físicos compartidos y resolviendo sus problemas locales de optimización de forma similar a una secuencia jerárquica de solución. Para contrarrestar la pérdida de información económica global que ocurra tras la descomposición de la tarea de control global, una capa de coordinación es diseñada para influenciar no-iterativamente la decisión de los controles locales con el fin de lograr una mejora global del desempeño económico. La segunda estrategia no-centralizada propuesta en esta tesis es una formulación de control MPC económico distribuido cooperativo basado en una restricción terminal periódica. Tal estrategia garantiza convergencia a un equilibrio de Nash sin la necesidad de una capa de coordinación pero requiere una comunicación iterativa de información global entre todos los controladores locales, los cuales optimizan en paralelo sus acciones de control utilizando un modelo centralizado de la red.
107

Monitoring the quality of service to support the service based system lifecycle

Oriol Hilari, Marc 19 March 2015 (has links)
Service Oriented Computing (SOC) has been established in the last recent years as a successful paradigm in Software Engineering. The systems built under this paradigm, known as Service Based System (SBS), are composed of several services, which are usually third-party software run by external service providers. SBS rely on these service providers to ensure that their services comply with the agreed Quality of Service (QoS). In contrast to other systems, the dynamic behaviour of SBS requires up-to-date QoS information for its proper management in the different stages of its lifecycle, from their initial construction until their decommission. Providing such QoS information has resulted in different technological solutions built around a monitor. Nonetheless, several research challenges in the field remain still open, ranging from theoretical aspects of quality assurance to architectonical challenges in decentralized monitoring. Based on the current research challenges for service monitoring, the research gaps in which we aim to contribute are twofold: - To investigate on the definition and structure of the different quality factors of services, and provide a framework of common understanding for the definition of what to monitor. - To investigate on the different features required to support the activities of the whole SBS lifecycle (i.e. how to monitor), and develop a monitoring framework that accomplishes such features. As a result of this thesis, we provide: What to monitor - A distribution of the quality models along the time dimension and the identification of their relationships. - An analysis of the size and definition coverage of the proposed quality models. - A quantified coverage of the different ISO/IEC 25010 quality factors given by the proposals. - The identification of the most used quality factors, and provided the most consolidated definitions for them. How to monitor - The elicitation of the requirements of the different activities in the SBS lifecycle. - The definition of the set of features that supports the elicited requirements. - A modular service-oriented monitoring framework, named SALMon, implementing the defined features. SALMon has been validated by including it in several frameworks supporting the different activities of the SBS lifecycle. Finally, we have conducted a performance evaluation of SALMon over real web services. / La Computació Orientada a Serveis (SOC) ha esdevingut en els darrers anys un paradigma exitós en el camp de l'Enginyeria del Software. Els sistemes construïts sota aquest paradigma, coneguts com Sistemes Basats en Serveis (SBS), estan composats de diversos serveis, que són, usualment, programari de tercers executats per proveïdors de serveis externs. Els SBS depenen dels proveïdors dels serveis per garantir que els serveis compleixen amb la Qualitat del Servei (QoS) acordada. En contrast amb altres sistemes, el comportament dinàmic dels SBS requereix d'informació actualitzada del QoS per a la correcta administració de les diferents etapes del cicle de vida dels SBS: des de la seva construcció inicial fins a la seva clausura. Proveir d'aquesta informació de QoS ha resultat en diferents solucions tecnològiques construïdes al voltant d'un monitor. Malgrat això, diversos reptes de recerca en el camp encara romanen obertes, des d'aspectes teòrics de l'assegurança de qualitat, a reptes arquitectònics en la monitorització descentralitzada. Basat en els reptes de recerca actuals per a la monitorització de serveis, els forats de recerca en els que pretenem contribuir són dobles: - Investigar en la definició i estructura dels diferents factors de qualitat dels serveis, i proveir un marc de treball d'entesa comuna per a la definició de què monitoritzar. - Investigar en les diferents característiques requerides per donar suport a les activitats de tot el cicle de vida dels SBS (i.e. com monitoritzar), i desenvolupar una plataforma de monitorització que acompleixi aquestes característiques. Com a resultats de la tesis, proveïm: Què monitoritzar - Una distribució dels models de qualitat al llarg de la dimensió temporal i la identificació de les seves interrelacions. - Un anàlisi de la mida i definició de la cobertura dels models de qualitat proposats. - Una cobertura quantificada dels diferents factors de qualitat ISO/IEC 25010 donat en les diferents propostes. - La identificació dels factors de qualitat més utilitzats, i la definició dels termes més consolidats. Com monitoritzar - L'elicitació dels requeriments per a les diferents activitats en el cicle de vida dels SBS. - La definició del conjunt de característiques que donen suport als requeriments elicitats. - Una platforma modular orientada a serveis, anomenat SALMon, que implementa les característiques definides. SALMon ha estatvalidat incloent la plataforma en diversos marcs de treball donant suport a les diferents activitats
108

Elininación de perturbaciones de baja frecuencia en redes eléctricas mediante compensadores estáticos

Lamich Arocas, Manuel 27 February 2015 (has links)
The increasing use of DC electronic devices connected to mains lead to numerous complications of harmonic distortion and efficiency reduction in electrical energy transmission. These devices behave as a marked non linear lads, which behavior lie in their topology and structure, but also in mains impedance as well as the neighbor loads impedance. In order to correct this situation, these loads can be modified or filters can be introduced. Filters are usually connected in parallel to de loads, to reduce harmonic generation. These filters can be active or passive. This thesis is devoted to parallel active filter topology and control method study; it also analyses and the filter behavior as soon as they are connected to the mains. More specifically, the thesis is focused in to hybrid filters study, coupled to the mains by a passive LC filter. The main contributions of this thesis, one and all supported by publications, are: a) Filter Topology: Various filter topologies show several problems, which are explained in detail on the document. Hybrid filter coupled to the mains by passive LC filters is adopted in this thesis and a new topology called "Neutral to Negative" (NtN) is proposed. This topology uses only one capacitor in the DC bus and therefore removes the DC balance requirement characteristic of split capacitors VSI topologies. b) Control and PWM modulation techniques: In these area contributions are concentrated in two features; a transformation based on 60º angles is proposed by contrast of the classic aß orthogonal transformation. This adaptation considerably simplifies to procure the VSI stages in case of systems without neutral wire. Furthermore a current controller and modulation technique has been developed to follow current track, in three and four-wire mains. c) Leading current control: A new method to reduce leading current in low load conditions has been developed. This method regulates the available voltage across coupling capacitors in order to obtain a specific di/dt; and is operational without losing filter properties. d) Non linear loads model: Harmonic filter introduction in power lines disturbs non-linear-loads (NLL) behavior and produce some harmonic amplification problems introduced in the last chapter. This chapter is devoted to obtain a NLL model in order to predict the load response when a filter is introduced. A model based in Neural Networks (NN) has been developed. This model is created making use of measure collection made where the filter is going to be connected. This NN model has been completed with an iterative method allowing to predict harmonic current changes in NLL when an active filter is connected. / La proliferación de equipos electrónicos alimentados en CC, conectados a la red, provoca multitud de problemas de distorsión armónica y una reducción de la eficiencia en la transmisión de la energía eléctrica. Estos equipos se comportan como cargas fuertemente no lineales, cuyo comportamiento depende de su topología y estructura, pero también de la impedancia de la red que los alimenta y de otras posibles cargas en paralelo, alimentadas por la misma red. Para corregir esta situación se puede optar por modificar las cargas o por introducir filtros, generalmente en paralelo con las mismas, para reducir la generación de armónicos. Los filtros para corregir esta situación pueden ser de dos tipos: activos o pasivos. La tesis se ha centrado en el estudio de la topología, los métodos de control y el comportamiento una vez conectados a la red de los filtros activos paralelo, denominados también APLC (Active Power Line Conditioners). Más concretamente, la tesis está centrada en el estudio de filtros híbridos, acoplados a red mediante un filtro pasivo LC serie. Las aportaciones básicas de la tesis, todas ellas avaladas por publicaciones, son las siguientes: a) Topología del filtro: Distintas topologías de filtros presentan diversos problemas, que se explican detalladamente en la memoria. En la tesis se ha optado por utilizar filtros híbridos acoplados a la red mediante un conjunto LC y se propone una nueva topología llamada "Neutro a Negativo" (NtN). La topología propuesta utiliza un solo condensador en el bus de CC y por tanto elimina la necesidad de equilibrar la tensión respecto a otras topologías basadas en convertidores VSI con bus de continua partido. b) Control y técnicas de modulación PWM: En el apartado de control, la tesis hace aportaciones en dos aspectos: Por una parte se ha introducido una transformación basada en ejes de referencia a 60º, en vez de la clásica descomposición en ejes ortogonales ( , ).Este cambio simplifica enormemente la obtención de los estados del VSI cuando el sistema al que va destinado es un filtro que no dispone de neutro. Por otra parte se ha desarrollado un regulador de corriente, y una nueva técnica de modulación para seguimiento rápido de la consigna, desarrollada para trabajar con redes de 3 y 4 hilos. c) Control de la corriente reactiva: Se ha desarrollado un nuevo método que permite reducir la corriente reactiva capacitiva que requiere el filtro híbrido en condiciones de poca carga. El método regula la tensión disponible en el condensador de acoplo, adaptándolo a la necesidad de crear un determinado di/dt. El método es aplicable sin pérdida de prestaciones del filtro. d) Modelado de cargas: La inserción de filtros de armónicos en la red, altera el funcionamiento de las cargas no lineales que los producen y genera ciertos problemas de amplificación que se han tratado en el último capítulo de la tesis, dedicado a obtener un modelo de dichas cargas no lineales y a poder predecir los resultados de la inserción de los filtros. Se ha desarrollado un modelo de las cargas basado en Redes Neuronales, que permite predecir el fenómeno de amplificación. El modelo se genera a partir de un conjunto de medidas tomadas en el punto donde se pretende conectar el filtro activo. Este modelo se ha completado con un método iterativo que permite predecir la variación de las corrientes armónicas consumidas por las cargas no lineales cuando se introduce un filtro activo en una instalación
109

Modelado, simulación y control de un convertidor boost acoplado magnéticamente

Carrero Candelas, Niliana Andreina 18 July 2014 (has links)
This thesis covered the modeling, simulation as well as the design of a control law for a coupled inductor Boost converter. In particular, from the point of view of modeling, we focused on the use of averaged modeling and linear complementarity systems (LCS), in order to obtain the dynamic of a coupled inductor Boost converter, which works in discontinuous conduction mode (DCM). The analysis of the converter was performed assuming ideal voltage-current characteristics in the switch and the diodes. In addition, those models were validated through simulation with the model of the converter obtained from the simulation tool for electrical circuits Psim. The interest in researching this converter topology was mainly due to its high efficiency and high conversion rate without extreme duty cycle values. Moreover, from the point of view of control we have proposed a cascade control architecture. The inner loop is a sliding mode current control loop, while the outer one is a PI controller that tunes the current reference to regulate the output voltage to a reference value. The performance and the effectiveness of the feedback control was validated under the presence of load disturbances and input voltage variations through computer simulations by using the linear complementarity model as well as experimentally. Additionally from the linear complementarity model of the converter, it was performed an analysis of the ideal dynamic that takes place when occurs sliding motions in the converter and numerical stability analysis was also carried out. / La presente tesis abarca el modelado, simulación y diseño de una ley de control para un convertidor Boost de inductancias acopladas. En particular, desde el punto de vista de modelado, nos enfocamos en las teoíıas de modelos promediados y sistemas lineales complementarios (LCS), para obtener la dinámica del convertidor Boost de inductancias acopladas, el cual trabaja en modo discontinuo de conducción (DCM). El análisis del convertidor se lleva a cabo asumiendo características ideales de tensión-corriente en el interruptor y los diodos. Además, los modelos obtenidos son validados mediante simulación con el modelo del convertidor proporcionado por la herramienta de simulación para circuitos eléctricos Psim. El interés en la topología de este convertidor se debe principalmente a su alta eficiencia y su elevada tasa de conversión sin necesidad de ciclos de trabajos extremos. Por otra parte, desde el punto de vista de control se propone una arquitectura de control en cascada. El lazo interno del control se compone de una estrategia de control no lineal, similar a la teoría de control en modo de deslizamiento, mientras que para el lazo externo se diseña un control de tipo PI. El principal objetivo del control diseñado es regular el voltaje de salida del convertidor a el valor de referencia deseado. La efectividad y desempeño del controlador diseñado es validada tanto en simulación como experimentalmente ante diferentes escenarios que incluyen perturbaciones en la carga y el voltaje de entrada. Adicionalmente a partir del modelo lineal complementario del convertidor, se lleva a cabo un análisis de la dinámica ideal de deslizamiento y un análisis numérico de la estabilidad cuando se tiene modo de deslizamiento.
110

Methodologies for hybrid systems diagnosis based on the hybrid automaton framework

Vento, Jorge 20 June 2014 (has links)
Hybrid systems play an important role in the modeling of complex systems since they take into account the interaction between both continuous dynamics and discrete events. Complex systems are subject to changes in the dynamics due to several factors such as nonlinearities, changes in the parameters, disturbances, faults, discrete events and controller actions among others. These facts lead to the need to develop a diagnostic system for hybrid systems improving the diagnostic precision. Hybrid systems allow to combine the classic fault detection and isolation approaches and a diagnoser based on discrete event models. Hence, a design methodology and implementation architecture for diagnosers in the framework of hybrid systems is proposed. The design methodology is based on the hybrid automaton model that represents the system behavior by means of the interaction of continuous dynamics and discrete events. The architecture is composed of modules which carry out mode recognition and diagnostic tasks interacting each other, since the diagnosis module adapts accordingly to the current hybrid system mode. The mode recognition task involves detecting and identifying a mode change by determining the set of residuals that are consistent with the current hybrid system mode. On the other hand, the diagnostic task involves detecting and isolating two type of faults: structural and non-structural faults. In the first case, structural faults are represented by a dynamic model as in the case of nominal modes. Hence they are identified by consistency checking through the set of residuals. In the second case, non-structural faults do not change the structure of the model, therefore, they are identified by a proper residual pattern. %the set of of residuals that can explain this inconsistency. Discernibility is the main property used in hybrid systems diagnosis. Through the concept of discernibility it is possible to predict whether modes changes (faulty or nominal) in the hybrid model can be detected and isolated properly. This concept can be applied in practice, evaluating a set of mathematical properties derived from residual expressions, which can be obtained from input-output models or parity space equations. General properties are derived to evaluate the discernibility between modes in the hybrid automaton model. The diagnoser is built through propagation algorithms developed for discrete models represented by automata. The automaton employed to build the diagnoser for a hybrid system is named behaviour automaton. It gathers all information provided by discernibility properties between modes and observable events in the system, increasing the system diagnosability. % in the system. Diagnosis for hybrid systems can be divided in two stages: offline and online. Moreover, it can be carried out twofold: in a non-incremental and an incremental form. In the non-incremental form, algorithms are executed taking into account global models, unlike incremental form that leads to building the useful parts of the diagnoser, only developing the branches that are needed to explain the occurrence of incoming events. The resulting diagnoser adapts to the system operational life and it is much less demanding in terms of memory storage than building the full diagnoser offline. The methodology is validated by the application to a case study based on a representative part of the Barcelona sewer network by means of a tool implemented in Matlab.

Page generated in 0.0949 seconds