• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 25
  • 18
  • Tagged with
  • 83
  • 35
  • 33
  • 22
  • 19
  • 19
  • 16
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Heterogeneous neural networks: theory and applications

Belanche Muñoz, Lluis 18 July 2000 (has links)
Aquest treball presenta una classe de funcions que serveixen de models neuronals generalitzats per ser usats en xarxes neuronals artificials. Es defineixen com una mesura de similitud que actúa com una definició flexible de neurona vista com un reconeixedor de patrons. La similitud proporciona una marc conceptual i serveix de cobertura unificadora de molts models neuronals de la literatura i d'exploració de noves instàncies de models de neurona. La visió basada en similitud porta amb naturalitat a integrar informació heterogènia, com ara quantitats contínues i discretes (nominals i ordinals), i difuses ó imprecises. Els valors perduts es tracten de manera explícita. Una neurona d'aquesta classe s'anomena neurona heterogènia i qualsevol arquitectura neuronal que en faci ús serà una Xarxa Neuronal Heterogènia.En aquest treball ens concentrem en xarxes neuronals endavant, com focus inicial d'estudi. Els algorismes d'aprenentatge són basats en algorisms evolutius, especialment extesos per treballar amb informació heterogènia. En aquesta tesi es descriu com una certa classe de neurones heterogènies porten a xarxes neuronals que mostren un rendiment molt satisfactori, comparable o superior al de xarxes neuronals tradicionals (com el perceptró multicapa ó la xarxa de base radial), molt especialment en presència d'informació heterogènia, usual en les bases de dades actuals. / This work presents a class of functions serving as generalized neuron models to be used in artificial neural networks. They are cast into the common framework of computing a similarity function, a flexible definition of a neuron as a pattern recognizer. The similarity endows the model with a clear conceptual view and serves as a unification cover for many of the existing neural models, including those classically used for the MultiLayer Perceptron (MLP) and most of those used in Radial Basis Function Networks (RBF). These families of models are conceptually unified and their relation is clarified. The possibilities of deriving new instances are explored and several neuron models --representative of their families-- are proposed. The similarity view naturally leads to further extensions of the models to handle heterogeneous information, that is to say, information coming from sources radically different in character, including continuous and discrete (ordinal) numerical quantities, nominal (categorical) quantities, and fuzzy quantities. Missing data are also explicitly considered. A neuron of this class is called an heterogeneous neuron and any neural structure making use of them is an Heterogeneous Neural Network (HNN), regardless of the specific architecture or learning algorithm. Among them, in this work we concentrate on feed-forward networks, as the initial focus of study. The learning procedures may include a great variety of techniques, basically divided in derivative-based methods (such as the conjugate gradient)and evolutionary ones (such as variants of genetic algorithms).In this Thesis we also explore a number of directions towards the construction of better neuron models --within an integrant envelope-- more adapted to the problems they are meant to solve.It is described how a certain generic class of heterogeneous models leads to a satisfactory performance, comparable, and often better, to that of classical neural models, especially in the presence of heterogeneous information, imprecise or incomplete data, in a wide range of domains, most of them corresponding to real-world problems.
32

Upgrade paths from existing copper-based access solutions to advanced a gile wavelength-routed passive optical networks

Bock Montero, Carlos 28 February 2006 (has links)
Aquesta tesi presenta un pla de millores des de les xarxes d'accés existents basades en coure a xarxes de fibra òptica fins la llar de segona generació basades en xarxes òptiques passives per enrutament de longitud d'ona.El pla de millora es presenta en dues etapes, que despleguen fibra des de la central de commutació fins als usuaris finals de manera gradual, oferint també un increment en l'ample de banda disponible quan la fibra es va aproximant a l' usuari.Quan la xarxa està totalment desplegada i la fibra està present en tot l'enllaç entre la central i els usuaris, es presenten diferents topologies avançdades que són candidates a model de xarxa d'accés de fibra òptica de segona generació. Totes aquestes xarxes presentades estan basades en enrutament avançat per longitud d'ona així com en tècniques combinades de multiplexació per longitud d'ona i temps.Aquestes topologies avançades, juntament amb la utilització de fonts sintonitzables a la central de commutació permeten implementar un protocol d'accés al medi avançat que permet assignar ample de banda sota demanda a diferents àrees geogràfiques en temps real i depenent de la utilització de la xarxa.S'han dut a terme demostradors de laboratori per tal d'assegurar la connectivitat a nivell òptic i la correcta transmissió de dades i Aixa demostrar la validesa del pla de millora, així com de les topologies avançades,.Addicionalment, s'han desenvolupat models matemàtics i simulacions per tal de corroborar i mesurar les millores sobre el rendiment de la xarxa en aplicar el protocol d'accés al medi proposat, tot comparant-lo amb els protocols comercials existents per xarxes òptiques passives. / This thesis presents an upgrade path from the existing copper-based access networks to a second-generation fiber-to-the-home approach based on advanced wavelength-routed passive optical networks.The upgrade path is presented in two stages, which deploy fiber from the central office to the end users in a gradual manner, offering also incremental bandwidth to the user when the fiber is nearer the end customers.When the upgrade path is totally deployed and fiber is present in the entire link between the central office and the end users, several advanced topologies are presented as candidates for second-generation access networks. All of them are based on advanced wavelength routing profiles and combined wavelength / time multiplexing techniques.These advanced topologies, together with the use of tunable sources at the central office allow the implementation of an advanced media access control protocol that can assign bandwidth on demand to different geographic locations in real time depending on the network utilization.Laboratory testbeds have been implemented to corroborate optical connectivity and correct data transmission in order to verify the feasibility of the upgrade paths and advanced topologies. Additionally, mathematical models and networks simulations have been developed to corroborate and measure the improvements on network performance of the proposed media access control protocol in comparison with the existing protocols for commercial passive optical networks.
33

Memòria als mercats financers: una anàlisi mitjançant xarxes neurals artificials, La

Sorrosal Forradellas, María Teresa 07 June 2005 (has links)
La memòria, dins del context financer, és un concepte ambigu que requereix la distinció entre diverses accepcions. La primera noció sorgeix en el marc economètric com a crítica de la hipòtesi d'independència entre observacions d'una variable en una sèrie temporal de naturalesa financera i es defineix com una relació funcional entre retards d'una mateixa variable. Nosaltres l'anomenem "memòria-dependència".De l'anàlisi tècnica obtenim una segona accepció a la que ens hi referim com "memòria-patró". La tercera hipòtesi postulada a la teoria de Dow és la de que els preus dels actius financers, i generalitzant els mercats financers, tenen memòria. En aquest sentit, s'interpreta com una repetició de les mateixes figures o patrons en l'evolució de les cotitzacions d'un actiu, conseqüència del manteniment d'unes mateixes pautes d'actuació per part dels inversors d'un mercat.La insuficiència d'aquestes dues nocions per recollir la totalitat de les influències del passat sobre el comportament dels mercats financers, duu a ampliar el marc teòric amb una tercera definició, la Memòria Col·lectiva. L'expressió prové de l'àmbit sociològic i destaca la naturalesa social dels records. L'entenem com el conjunt de coneixements, regles i patrons de comportament que són compartits pels membres d'un col·lectiu, un mercat financer per exemple, homogeneïtzant les representacions del passat per a obtenir avantatges en el futur. L'econometria ha desenvolupat models d'ajust a sèries temporals amb memòria-dependència, i l'anàlisi tècnica posseeix un instrumental per detectar la repetició de patrons gràfics. Cal, doncs, una metodologia per tractar de forma qualitativa, però també quantitativa, la memòria col·lectiva en el món financer. La nostra proposta són les xarxes neurals artificials. D'una banda, la seva estructura inspirada en el sistema neural biològic les fa adequades per a la modelització de la memòria. Per un altre costat, la seva flexibilitat i multifuncionalitat permet dissenyar xarxes específiques que s'adapten a gran quantitat d'entorns, circumstàncies i problemes. Així, les xarxes neurals artificials esdevenen una metodologia capaç de recollir els efectes de la memòria col·lectiva, però també poden aplicar-se per a la detecció i anàlisi de la memòria-dependència i memòria-patró, homogeneïtzant l'estudi de la influència del passat en un mercat financer i facilitant la comparació entre les diferents accepcions de memòria.En concret, hem aplicat les xarxes multiperceptró amb algorisme d'aprenentatge back-propagation a l'anàlisi de la memòria-dependència i la seva comparació amb la memòria col·lectiva en l'evolució de l´índex Dow Jones Industrial Average als mesos d'octubre. Hem optat per les xarxes ART (Adaptive Resonance Theory), per la seva capacitat en el reconeixement de patrons i adaptació a entorns oberts, com a instrument per al tractament de la memòria-patró, també en l'evolució del Dow Jones. Finalment, l'arquitectura dels mapes auto-organitzatius de Kohonen els fa adequats per l'anàlisi de la memòria col·lectiva, mitjançant l'ordenació espacial d'un conjunt de patrons en funció de la similitud entre llur característiques en un mapa bidimensional. La trajectòria dels patrons en el mapa informa de la seva evolució històrica i per tant, de l'aprenentatge, i la seva situació relativa permet la comparació entre ells. Hem aplicat els mapes de Kohonen a l'estudi de l'"efecte octubre" als mercats espanyol, francès i nord-americà, i al cas de l'"efecte eleccions generals" en l'evolució de les cotitzacions d'algunes accions de l'Ibex-35. Els resultats obtinguts són que no existeix efecte octubre ni des de la perspectiva de la memòria-dependència ni tampoc considerant la memòria col·lectiva; que sí és possible detectar patrons o climes mitjançant les xarxes ART; i que l''efecte eleccions generals' juntament amb l'aprenentatge dels inversors són fenòmens que es posen de relleu quan considerem la memòria col·lectiva en els mercats financers. / "Memory in Financial Markets: An analysis through Artificial Neural Networks" distinguishes between three different kinds of memory in the financial environment. The first concept, that is named dependence-memory, comes from the econometric context and it is understood as the functional relationship between past and present observations in a time series. A second concept of memory, the pattern-memory, is obtained from technical analysis. It can be seen when the evolution of the asset price follows a repeated graphical pattern. Finally, we propose the introduction of a third notion, the Collective Memory, in order to take into account the influences from the past not captured by the previous definitions of dependence and pattern memories. Econometrics analysis has developed complex models to study time series with long memory. Also technical analysis has its own tools to detect different patterns and take profit of the past knowledge. For the quantitative, as well as qualitative, analysis of collective memory we propose to use artificial neural networks. Moreover, this methodology allows homogenizing the study of the three types of memory in financial markets.We have applied back-propagation neural networks to analyse the behaviour of the Dow Jones Industrial Average during the Octobers. The same index has been studied using ART ("Adaptive Resonance Theory") networks, in order to find patterns and improve future decisions. The effect that is produced for the proximity of an October and the influence of the results in a political election have been analyzed using Self-Organizing Maps of Kohonen.As empirical conclusions, we have obtained that there is no evidence of the "October effect" from the point of view of collective memory and neither dependence-memory is detected. Contrary, using Kohonen maps it is possible to find factors of learning in the "general elections effect" in the Spanish capital asset market. Finally, ART networks can be used as a complementary tool in technical analysis to detect patterns of behaviour in financial markets.
34

Time misalignments in fault detection and diagnosis

Llanos Rodríguez, David Alejandro 17 October 2008 (has links)
El desalineamiento temporal es la incorrespondencia de dos señales debido a una distorsión en el eje temporal. La Detección y Diagnóstico de Fallas (Fault Detection and Diagnosis-FDD) permite la detección, el diagnóstico y la corrección de fallos en un proceso. La metodología usada en FDD está dividida en dos categorías: técnicas basadas en modelos y no basadas en modelos. Esta tesis doctoral trata sobre el estudio del efecto del desalineamiento temporal en FDD. Nuestra atención se enfoca en el análisis y el diseño de sistemas FDD en caso de problemas de comunicación de datos, como retardos y pérdidas. Se proponen dos técnicas para reducir estos problemas: una basada en programación dinámica y la otra en optimización. Los métodos propuestos han sido validados sobre diferentes sistemas dinámicos: control de posición de un motor de corriente continua, una planta de laboratorio y un problema de sistemas eléctricos conocido como hueco de tensión. / Time misalignment is the unmatching of two signals due to a distortion in the time axis. Fault Detection and Diagnosis (FDD) deals with the timely detection, diagnosis and correction of abnormal conditions of faults in a process. The methodology used in FDD is clearly dependent on the process and the sort of available information and it is divided in two categories: model-based and non-model based techniques. This doctoral dissertation deals with the study of time misalignments effects when performing FDD. Our attention is focused on the analysis and design of FDD systems in case of data communication problems, such as delays and dropouts. Techniques based on dynamic programming and optimization are proposed to deal with these problems. Numerical validation of the proposed methods is performed on different dynamic systems: a control position for a DC motor, a laboratory plant and an electrical system problem known as voltage sag.
35

Essays on the formation of social networks from a game theoritical approach

Rubí Barceló, Antoni 08 February 2008 (has links)
This thesis aims to contribute to a fundamental objective of Network Economics: to provide based incentives explanations of real social network topologies. By using game theoretical tools, the three papers of this thesis analyze how real social networks can arise from the strategic interaction of self-interested individuals.In the first paper, we discuss the influence of imperfect information on the process of social network formation and, specifically, on the possibilities of observing racially segregated societies when agents' preferences are not racially biased. The second work attempts to complete the Network Economics' explanation of the puzzle regarding how agents can benefit from structural holes over a long time period. The third paper presents a model that focuses on the mechanisms underlying the formation of scientific collaboration networks. We show how researchers' heterogeneity and limited processing capability explain the basic characteristics of these networks. / Aquesta tesi aspira a contribuir a un objectiu fonamental de l'Economia de Xarxes: oferir explicacions basades en els incentius de les topologies que adopten les xarxes socials. Usant les eines de la Teoria de Jocs, els tres articles de la tesi analitzen com les xarxes socials que observem a la realitat poden esser fruit de la interacció entre individus que responen als seus propis interessos.En primer lloc, estudiem la influència de la informació imperfecte en la formació de xarxes socials i, específicament, en les possibilitats de tenir societats racialment segregades quan les preferències dels agents no estan racialment esbiaixades. El segon treball, intenta completar l'explicació que l'Economia de Xarxes dóna a l'interrogant referent als forats estructurals i a la gent que s'en beneficia de manera continuada. El darrer capítol, se centra en els mecanismes que expliquen la formació de xarxes de col·laboració científica. Es mostra com l'heterogeneïtat i la limitada capacitat de processament dels investigadors expliquen les caractarístiques bàsiques d'aquestes xarxes.
36

Pathway-centric approaches to the analysis of high-throughput genomics data

Hänzelmann, Sonja, 1981- 11 October 2012 (has links)
In the last decade, molecular biology has expanded from a reductionist view to a systems-wide view that tries to unravel the complex interactions of cellular components. Owing to the emergence of high-throughput technology it is now possible to interrogate entire genomes at an unprecedented resolution. The dimension and unstructured nature of these data made it evident that new methodologies and tools are needed to turn data into biological knowledge. To contribute to this challenge we exploited the wealth of publicly available high-throughput genomics data and developed bioinformatics methodologies focused on extracting information at the pathway rather than the single gene level. First, we developed Gene Set Variation Analysis (GSVA), a method that facilitates the organization and condensation of gene expression profiles into gene sets. GSVA enables pathway-centric downstream analyses of microarray and RNA-seq gene expression data. The method estimates sample-wise pathway variation over a population and allows for the integration of heterogeneous biological data sources with pathway-level expression measurements. To illustrate the features of GSVA, we applied it to several use-cases employing different data types and addressing biological questions. GSVA is made available as an R package within the Bioconductor project. Secondly, we developed a pathway-centric genome-based strategy to reposition drugs in type 2 diabetes (T2D). This strategy consists of two steps, first a regulatory network is constructed that is used to identify disease driving modules and then these modules are searched for compounds that might target them. Our strategy is motivated by the observation that disease genes tend to group together in the same neighborhood forming disease modules and that multiple genes might have to be targeted simultaneously to attain an effect on the pathophenotype. To find potential compounds, we used compound exposed genomics data deposited in public databases. We collected about 20,000 samples that have been exposed to about 1,800 compounds. Gene expression can be seen as an intermediate phenotype reflecting underlying dysregulatory pathways in a disease. Hence, genes contained in the disease modules that elicit similar transcriptional responses upon compound exposure are assumed to have a potential therapeutic effect. We applied the strategy to gene expression data of human islets from diabetic and healthy individuals and identified four potential compounds, methimazole, pantoprazole, bitter orange extract and torcetrapib that might have a positive effect on insulin secretion. This is the first time a regulatory network of human islets has been used to reposition compounds for T2D. In conclusion, this thesis contributes with two pathway-centric approaches to important bioinformatic problems, such as the assessment of biological function and in silico drug repositioning. These contributions demonstrate the central role of pathway-based analyses in interpreting high-throughput genomics data. / En l'última dècada, la biologia molecular ha evolucionat des d'una perspectiva reduccionista cap a una perspectiva a nivell de sistemes que intenta desxifrar les complexes interaccions entre els components cel•lulars. Amb l'aparició de les tecnologies d'alt rendiment actualment és possible interrogar genomes sencers amb una resolució sense precedents. La dimensió i la naturalesa desestructurada d'aquestes dades ha posat de manifest la necessitat de desenvolupar noves eines i metodologies per a convertir aquestes dades en coneixement biològic. Per contribuir a aquest repte hem explotat l'abundància de dades genòmiques procedents d'instruments d'alt rendiment i disponibles públicament, i hem desenvolupat mètodes bioinformàtics focalitzats en l'extracció d'informació a nivell de via molecular en comptes de fer-ho al nivell individual de cada gen. En primer lloc, hem desenvolupat GSVA (Gene Set Variation Analysis), un mètode que facilita l'organització i la condensació de perfils d'expressió dels gens en conjunts. GSVA possibilita anàlisis posteriors en termes de vies moleculars amb dades d'expressió gènica provinents de microarrays i RNA-seq. Aquest mètode estima la variació de les vies moleculars a través d'una població de mostres i permet la integració de fonts heterogènies de dades biològiques amb mesures d'expressió a nivell de via molecular. Per il•lustrar les característiques de GSVA, l'hem aplicat a diversos casos usant diferents tipus de dades i adreçant qüestions biològiques. GSVA està disponible com a paquet de programari lliure per R dins el projecte Bioconductor. En segon lloc, hem desenvolupat una estratègia centrada en vies moleculars basada en el genoma per reposicionar fàrmacs per la diabetis tipus 2 (T2D). Aquesta estratègia consisteix en dues fases: primer es construeix una xarxa reguladora que s'utilitza per identificar mòduls de regulació gènica que condueixen a la malaltia; després, a partir d'aquests mòduls es busquen compostos que els podrien afectar. La nostra estratègia ve motivada per l'observació que els gens que provoquen una malaltia tendeixen a agrupar-se, formant mòduls patogènics, i pel fet que podria caldre una actuació simultània sobre múltiples gens per assolir un efecte en el fenotipus de la malaltia. Per trobar compostos potencials, hem usat dades genòmiques exposades a compostos dipositades en bases de dades públiques. Hem recollit unes 20.000 mostres que han estat exposades a uns 1.800 compostos. L'expressió gènica es pot interpretar com un fenotip intermedi que reflecteix les vies moleculars desregulades subjacents a una malaltia. Per tant, considerem que els gens d'un mòdul patològic que responen, a nivell transcripcional, d'una manera similar a l'exposició del medicament tenen potencialment un efecte terapèutic. Hem aplicat aquesta estratègia a dades d'expressió gènica en illots pancreàtics humans corresponents a individus sans i diabètics, i hem identificat quatre compostos potencials (methimazole, pantoprazole, extracte de taronja amarga i torcetrapib) que podrien tenir un efecte positiu sobre la secreció de la insulina. Aquest és el primer cop que una xarxa reguladora d'illots pancreàtics humans s'ha utilitzat per reposicionar compostos per a T2D. En conclusió, aquesta tesi aporta dos enfocaments diferents en termes de vies moleculars a problemes bioinformàtics importants, com ho son el contrast de la funció biològica i el reposicionament de fàrmacs "in silico". Aquestes contribucions demostren el paper central de les anàlisis basades en vies moleculars a l'hora d'interpretar dades genòmiques procedents d'instruments d'alt rendiment.
37

Siniestralidad en seguros de consumo anual de las entidades de previsión social, La. Perspectiva probabilística y econométrica. Propuesta de un modelo econométrico neuronal para Cataluña.

Torra Porras, Salvador 05 March 2004 (has links)
El objetivo perseguido en la presente Tesis Doctoral es presentar propuestas de modelización para la siniestralidad del sector de Mutualidades de Previsión Social de Cataluña (segmento no vida) desde una doble vertiente, probabilística y econométrica. Con esta finalidad tres organismos públicos han facilitado la información necesaria para la elaboración de la parte empírica: la Generalitat de Catalunya (Departamento de Trabajo), el Gobierno Vasco (Departamento de Trabajo) y la Dirección General de Seguros (D.G.S.). Así su estructura está claramente diferenciada: fundamentos y herramientas metodológicas, para la primera de ellas, y para la segunda, el estudio empírico realizado sobre el sector asegurador y de previsión social Español, en especial, Cataluña.Respecto a la parte metodológica su estructura es la siguiente, el capítulo 1, presenta los diferentes mecanismos de análisis económico-financiero existentes mediante el uso de ratios, sus debilidades, los nuevos avances y la simulación estadística como una herramienta más de análisis. En el capítulo 2 se ha realizado un esfuerzo por sistematizar una de las herramientas de mayor desarrollo en el análisis de datos, los modelos neuronales, desde tres vertientes: desde la óptica de su potencial en términos de modelización; la descripción de los modelos disponibles y en último lugar, por sus aplicaciones. El capítulo 3 es el último de esta parte metodológica, y en él se ha realizado una aproximación de los modelos neuronales al campo estadístico y econométrico. La estructura de la parte empírica es la siguiente. El capítulo 4 contiene las características básicas del sector asegurador Español (1991-1997) y del subsector de previsión social, desglosado por Comunidades Autónomas que poseen competencias propias en materia de Previsión Social (País Vasco (1990-1998) y Cataluña (1991-1997)) y aquellas que dependen directamente de la Dirección General de Seguros (D.G.S.) (1992-1997)). El capítulo 5 contiene el análisis de la siniestralidad no vida del sector de las Mutualidades de Previsión Social de Cataluña, con los datos oficiales que facilitan las entidades a la Administración Pública. Y finalmente, el capítulo 6 contiene varias aplicaciones de la metodología neuronal descrita.Las principales aportaciones son las siguientes:1. Desde la vertiente metodológica del análisis financiero mediante ratios, presentamos una síntesis de los avances en el diseño del modelo de ratio financiero.2. Utilización de herramientas de Simulación Estadística como soporte a la probabilización de ratios económico-financieros.3. Desde la vertiente empírica, las aportaciones son: a) El estudio de un sector económico poco analizado como es el sector de Mutualidades de Previsión Social de Cataluña. b) El análisis de la siniestralidad no vida anual a partir de los componentes aleatorios que la constituyen, número de siniestros y cuantía de cada siniestro.c) Obtención de márgenes mínimos de solvencia (MMS) por dos vías, Método de Monte-Carlo y probabilización del ratio de siniestralidad no vida, permitiendo su comparación.d) Características econométricas de las diferentes especificaciones del modelo de ratio.e) Propuesta de contrastes de forma funcional del modelo de ratio, a partir de la forma Funcional Generalizada de Box-Cox (FFG).f) Diferentes aplicaciones de la metodología neuronal. En primer lugar, utilización de los modelos neuronales para la identificación de la forma funcional del modelo de ratio. En segundo lugar, y una vez detectada la posible naturaleza no lineal del modelo de ratio, proponemos una modelización alternativa, el modelo neuronal de regresión generalizada (GRNN). En tercer lugar, proponemos una definición flexible de sector o norma representado por un modelo Multilayer feed-forward MLP(4:3). En último lugar, mediante los residuos del modelo neuronal definido (MLP(p:q)), obtenemos información del posicionamiento relativo de las entidades respecto al sector o benchmark flexible que nos permite proponer unos valores de "referencia" máximos para la siniestralidad de cada prestación. / The knowledge of how the insurance market behaves is a topic of great importance, according it future viability. The total losses associated with the company portfolio have a random component that should be kept in mind in it analysis. The principal objective of this work is to model the total claims amount of the mutual insurance sector in Catalonia (non life) according a probabilistic and econometric point of view. The structure of the study is clearly divided into two different parts. In the first part we present several methodological tools that can be applied to the analysis that we are carrying out; in the second one we present some results related with the application of the previous theory to a real insurance Catalonian database. In the methodological part, we highlight the definition of some ratios to summarize different financial analysis mechanisms; the effort to systematize one of the most famous methods of data analysis: the neural model, including its approach to the statistical field and econometrics. Concerning the empirical part, we emphasize the following aspects: the analysis of the basic characteristics of the Spanish insurance market (1991-1997) and the characteristics of the insurance mutual societies (by Autonomous Communities); the analysis of the non life total claims amount of the insurance mutual societies in Catalonia, and finally, the presentation of several applications of the neuronal methodology. The main empirical contributions are about the study of an economic sector not sufficiently studied before: the analysis of the total compensation starting from its random components, the frequency and severity of the claims; the definition of the minimum margins of solvency by using two methods: Method of MonteCarlo and the distribution of the ratio of the total non life claims amount; the specification of several statistical functions for this ratio; the formulation of some hypothesis contrasts, starting from the Generalized Functional form of Box-Cox and different applications of the neuronal methodology. We highlight the use of the neural model for the identification of the functional form of the ratio and the application of the Multilayer feed-forward model.
38

A mission control system for an autonomous underwater vehicle

Palomeras Rovira, Narcís 19 December 2011 (has links)
The presented work focuses on the theoretical and practical aspects concerning the design and development of a formal method to build a mission control system for autonomous underwater vehicles bringing systematic design principles for the formal description of missions using Petri nets. The proposed methodology compounds Petri net building blocks within it to de_ne a mission plan for which it is proved that formal properties, such as reachability and reusability, hold as long as these same properties are also guaranteed by each Petri net building block. To simplify the de_nition of these Petri net blocks as well as their composition, a high level language called Mission Control Language has been developed. Moreover, a methodology to ensure coordination constraints for teams of multiple robots as well as the de_nition of an interface between the proposed system and an on-board planner able to plan/replan sequences of prede_ned mission plans is included as well. Results of experiments with several real underwater vehicles and simulations involving an autonomous surface craft and an autonomous underwater vehicles are presented to show the system's capabilities. / El treball presentat en aquesta tesi està centrat en el disseny i desenvolupament d'un mètode formal per a construir un sistema de control de missió per a vehicles submarins autònoms, que aporta principis sistemàtics de disseny per a la descripció formal de missions. La metodologia proposada parteix d'uns blocs elementals de construcció, descrits mitjançant xarxes de Petri. La composició d'aquests blocs entre si genera un pla de missió per el qual diverses propietats, com ara accessibilitat o reutilització, són garantides sempre i quan aquestes mateixes propietats siguin també garantides per a cada un dels blocs elementals de construcció. Per simplificar la definició d'aquests blocs, així com per simplificar-ne la seva composició, s'ha desenvolupat un llenguatge d'alt nivell anomenat Mission Control Language. A més, s'ha inclòs una metodologia per assegurar la coordinació de restriccions entre equips de múltiples robots. També s'ha establert una interfície entre el sistema proposat i un planificador a bord del vehicle capaç de planificar/replanificar seqü_encies de plans de missió prèviament definits. Per tal de demostrar les capacitats del sistema, s'han presentat resultats d'experiments amb diversos vehicles submarins reals, així com simulacions amb vehicles autònoms submarins i en superfície.
39

Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abast

Careglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
40

Identifiability and calibration of water network models

Pérez Magrané, Ramon 21 July 2003 (has links)
El control i supervisió de processos es basa generalment en la utilització de models. Models que han de ser tan acurats com sigui possible. Processos complexes com les xarxes de distribució d'aigua no escapen d'aquesta situació. Una bona gestió d'aquest element tan necessari i cada cop més escàs en les condicions adequades és una necessitat vital.Aquesta tesi ha estat realitzada amb la col·laboració de dos grups de recerca, un més orientat a l'aplicació -xarxes d'aigua- i l'altre ala metodologia -control i supervisió -. L'experiència d'ambdós grups va generar la necessitat de la calibració de models de xarxes per tal de poder realitzar bones simulacions, optimitzacions, supervisió, detecció de fuites, etc. L'objectiu principal d'aquesta tesi és desenvolupar una metodologia per aquesta calibració.L'originalitat d'aquest treball rau tan en l'abast del problema com les tècniques emprades. Una xarxa inclou elements diversos (nodes, dipòsits, canonades, vàlvules i bombes) i la calibració requereix l'estudi detallat de cada element així com l'aplicació a sistemes immensos. S'ha parat especial atenció a als tres passos principals de la calibració: estudi d'identificabilitat, macrocalibració i microcalibració. Cada un d'aquests passos requereix tècniques específiques. En aquesta tesi s'ha aplicat tècniques poc o gens conegudes en l'àmbit de les xarxes d'aigua.L'estudi d'identificabilitat s'ha desenvolupat per diferents escenaris, des del cas simple i il·lustratiu fins a xarxes reals i grans. Els experiments més simples es van fer amb xarxes lineals i estàtiques. En general les xarxes són no lineals i l'ús de més d'un instant en el temps en les mesures millora les condicions d'dentificabilitat. La metodologia proposada permet la determinació de la identificabilitat per xarxes en general (no lineals). L'eina obtinguda ajuda en el disseny dels problemes d'identificació fent servir informació topològica de la xarxa.Quan el model es genera, s'introdueixen grans errors. Aquests errors són detectats en un primer esforç de calibració, macrocalibració. Aquest procés es realitza manualment i l'objectiu d'aquesta tesi és donar suport a aquesta feina. La metodologia emprada pels experts s'ha analitzat. S'han fet servir algorismes específics per cada tipus d'error. Per tal de detectar errors en un conjunt gran d'elements s'han fet servir algorismes de classificació. Aquests algorismes permeten la generació de coneixement a partir d'experiments simulats i l'optimització de funcions de versemblança.La sintonia de paràmetres, es tractada com un problema d'optimització. La no convexitat del problema es determina en una caracterització acurada del problema. Aquesta no convexitat mostra els problemes que els optimitzadors locals tindran per resoldre'l. Les possibilitats d'alguns optimitzadors globals s'han explorat. El cost computacional dels optimitzadors globals, especialment quan les xarxes creixen, representa una gran limitació. El filtre de Kalman estès s'ha fet servir amb resultats prometedors.Els resultats d'aquesta tesi s'han presentat en tres congressos [Per-01a], [Per-01b], [Per-03] i s'està redactant un article per a revista abans de final d'any.Process control and supervision is based mainly in the use of models, which have to be as accurate as possible. Complex processes, like water distribution networks, fall into such a situation too. Water is a necessary element and its shortage in good conditions is a major problem. Therefore, a good management of water distribution is vital. / This thesis has been carried out with the collaboration of two research groups. One is more oriented to the application -water networks- and the other one is more oriented to the technology -control and supervision-. Experience of both groups has generated the necessity of calibration of water network models in order to be able to do good simulations, optimisations, supervisions, leak detections, etc. For this reason, the main objective of this thesis is to develop a closed methodology for the calibration process of water distribution network models.The originality of this work comes both from the magnitude of the problem and the techniques used. On the one hand, a water network includes different elements (nodes, reservoirs, pipes, valves, and pumps), and its calibration requires the study of those elements in detail. On the other hand it has to be applied to huge systems. Special attention has been paid to the three main parts of calibration: identifiability study, macrocalibration and microcalibration. Each of those steps needs specific techniques. Some of the techniques used in this thesis are little known or unknown at all in the water industry.The identifiability study has been developed for different case studies, ranging from simple, illustrating case to real huge networks. The simplest experiments were performed with linear and static networks. In general, networks are non-linear and the use of more than one time-step in the measurements provides better identifiability conditions. The methodology proposed allows the determination of the extended-period identifiability for general networks (non-linear). The obtained tool helps in the design of identification problems using topological information of the network.When the model is generated, large errors are introduced. These errors are detected in a first calibration effort, macrocalibration. This process is done manually and the objective in this thesis is to give support to such work. The methodology followed by the experts has been analysed. Specific algorithms have been used in this thesis for each kind of error. In order to detect errors in huge amount of elements classification algorithms have been used. Those algorithms allow the generation of knowledge from simulation experiments and optimisation of likelihood functions.The parameter tuning, microcalibration, is treated as an optimisation problem. The non-convexity of the problem is detected by a detailed characterisation. This non-convexity shows to be a problem for the local optimisers. The capabilities of some global optimisation algorithms have been explored. The computing cost for the global optimisers, especially when huge networks are identified, represents a major limitation. The Extended Kalman Filter has been used with promising results.Results of this thesis have been presented in three Conferences [Per-01a], [Per-01b], [Per-03] and a paper is will be finished before the end of the year.

Page generated in 0.056 seconds