• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Methodology for automatic classification of atypical lymphoid cells from peripheral blood cell images

Alférez Baquero, Edwin Santiago 26 June 2015 (has links)
Morphological analysis is the starting point for the diagnostic approach of more than 80% of the hematological diseases. However, the morphological differentiation among different types of abnormal lymphoid cells in peripheral blood is a difficult task, which requires high experience and skill. Objective values do not exist to define cytological variables, which sometimes results in doubts on the correct cell classification in the daily hospital routine. Automated systems exist which are able to get an automatic preclassification of the normal blood cells, but fail in the automatic recognition of the abnormal lymphoid cells. The general objective of this thesis is to develop a complete methodology to automatically recognize images of normal and reactive lymphocytes, and several types of neoplastic lymphoid cells circulating in peripheral blood in some mature B-cell neoplasms using digital image processing methods. This objective follows two directions: (1) with engineering and mathematical background, transversal methodologies and software tools are developed; and (2) with a view towards the clinical laboratory diagnosis, a system prototype is built and validated, whose input is a set of pathological cell images from individual patients, and whose output is the automatic classification in one of the groups of the different pathologies included in the system. This thesis is the evolution of various works, starting with a discrimination between normal lymphocytes and two types of neoplastic lymphoid cells, and ending with the design of a system for the automatic recognition of normal lymphocytes and five types of neoplastic lymphoid cells. All this work involves the development of a robust segmentation methodology using color clustering, which is able to separate three regions of interest: cell, nucleus and peripheral zone around the cell. A complete lymphoid cell description is developed by extracting features related to size, shape, texture and color. To reduce the complexity of the process, a feature selection is performed using information theory. Then, several classifiers are implemented to automatically recognize different types of lymphoid cells. The best classification results are achieved using support vector machines with radial basis function kernel. The methodology developed, which combines medical, engineering and mathematical backgrounds, is the first step to design a practical hematological diagnosis support tool in the near future. / Los análisis morfológicos son el punto de partida para la orientación diagnóstica en más del 80% de las enfermedades hematológicas. Sin embargo, la clasificación morfológica entre diferentes tipos de células linfoides anormales en la sangre es una tarea difícil que requiere gran experiencia y habilidad. No existen valores objetivos para definir variables citológicas, lo que en ocasiones genera dudas en la correcta clasificación de las células en la práctica diaria en un laboratorio clínico. Existen sistemas automáticos que realizan una preclasificación automática de las células sanguíneas, pero no son capaces de diferenciar automáticamente las células linfoides anormales. El objetivo general de esta tesis es el desarrollo de una metodología completa para el reconocimiento automático de imágenes de linfocitos normales y reactivos, y de varios tipos de células linfoides neoplásicas circulantes en sangre periférica en algunos tipos de neoplasias linfoides B maduras, usando métodos de procesamiento digital de imágenes. Este objetivo sigue dos direcciones: (1) con una orientación propia de la ingeniería y la matemática de soporte, se desarrollan las metodologías transversales y las herramientas de software para su implementación; y (2) con un enfoque orientado al diagnóstico desde el laboratorio clínico, se construye y se valida un prototipo de un sistema cuya entrada es un conjunto de imágenes de células patológicas de pacientes analizados de forma individual, obtenidas mediante microscopía y cámara digital, y cuya salida es la clasificación automática en uno de los grupos de las distintas patologías incluidas en el sistema. Esta tesis es el resultado de la evolución de varios trabajos, comenzando con una discriminación entre linfocitos normales y dos tipos de células linfoides neoplásicas, y terminando con el diseño de un sistema para el reconocimiento automático de linfocitos normales y reactivos, y cinco tipos de células linfoides neoplásicas. Todo este trabajo involucra el desarrollo de una metodología de segmentación robusta usando agrupamiento por color, la cual es capaz de separar tres regiones de interés: la célula, el núcleo y la zona externa alrededor de la célula. Se desarrolla una descripción completa de la célula linfoide mediante la extracción de descriptores relacionados con el tamaño, la forma, la textura y el color. Para reducir la complejidad del proceso, se realiza una selección de descriptores usando teoría de la información. Posteriormente, se implementan varios clasificadores para reconocer automáticamente diferentes tipos de células linfoides. Los mejores resultados de clasificación se logran utilizando máquinas de soporte vectorial con núcleo de base radial. La metodología desarrollada, que combina conocimientos médicos, matemáticos y de ingeniería, es el primer paso para el diseño de una herramienta práctica de soporte al diagnóstico hematológico en un futuro cercano.
342

Multi-tier framework for the inferential measurement and data-driven modeling

Rallo Moya, Robert 13 July 2007 (has links)
A framework for the inferential measurement and data-driven modeling has been proposed and assessed in several real-world application domains. The architecture of the framework has been structured in multiple tiers to facilitate extensibility and the integration of new components. Each of the proposed four tiers has been assessed in an uncoupled way to verify their suitability. The first tier, dealing with exploratory data analysis, has been assessed with the characterization of the chemical space related to the biodegradation of organic chemicals. This analysis has established relationships between physicochemical variables and biodegradation rates that have been used for model development. At the preprocessing level, a novel method for feature selection based on dissimilarity measures between Self-Organizing maps (SOM) has been developed and assessed. The proposed method selected more features than others published in literature but leads to models with improved predictive power. Single and multiple data imputation techniques based on the SOM have also been used to recover missing data in a Waste Water Treatment Plant benchmark. A new dynamic method to adjust the centers and widths of in Radial basis Function networks has been proposed to predict water quality. The proposed method outperformed other neural networks. The proposed modeling components have also been assessed in the development of prediction and classification models for biodegradation rates in different media. The results obtained proved the suitability of this approach to develop data-driven models when the complex dynamics of the process prevents the formulation of mechanistic models. The use of rule generation algorithms and Bayesian dependency models has been preliminary screened to provide the framework with interpretation capabilities. Preliminary results obtained from the classification of Modes of Toxic Action (MOA) indicate that this could be a promising approach to use MOAs as proxy indicators of human health effects of chemicals.Finally, the complete framework has been applied to three different modeling scenarios. A virtual sensor system, capable of inferring product quality indices from primary process variables has been developed and assessed. The system was integrated with the control system in a real chemical plant outperforming multi-linear correlation models usually adopted by chemical manufacturers. A model to predict carcinogenicity from molecular structure for a set of aromatic compounds has been developed and tested. Results obtained after the application of the SOM-dissimilarity feature selection method yielded better results than models published in the literature. Finally, the framework has been used to facilitate a new approach for environmental modeling and risk management within geographical information systems (GIS). The SOM has been successfully used to characterize exposure scenarios and to provide estimations of missing data through geographic interpolation. The combination of SOM and Gaussian Mixture models facilitated the formulation of a new probabilistic risk assessment approach. / Aquesta tesi proposa i avalua en diverses aplicacions reals, un marc general de treball per al desenvolupament de sistemes de mesurament inferencial i de modelat basats en dades. L'arquitectura d'aquest marc de treball s'organitza en diverses capes que faciliten la seva extensibilitat així com la integració de nous components. Cadascun dels quatre nivells en que s'estructura la proposta de marc de treball ha estat avaluat de forma independent per a verificar la seva funcionalitat. El primer que nivell s'ocupa de l'anàlisi exploratòria de dades ha esta avaluat a partir de la caracterització de l'espai químic corresponent a la biodegradació de certs compostos orgànics. Fruit d'aquest anàlisi s'han establert relacions entre diverses variables físico-químiques que han estat emprades posteriorment per al desenvolupament de models de biodegradació. A nivell del preprocés de les dades s'ha desenvolupat i avaluat una nova metodologia per a la selecció de variables basada en l'ús del Mapes Autoorganitzats (SOM). Tot i que el mètode proposat selecciona, en general, un major nombre de variables que altres mètodes proposats a la literatura, els models resultants mostren una millor capacitat predictiva. S'han avaluat també tot un conjunt de tècniques d'imputació de dades basades en el SOM amb un conjunt de dades estàndard corresponent als paràmetres d'operació d'una planta de tractament d'aigües residuals. Es proposa i avalua en un problema de predicció de qualitat en aigua un nou model dinàmic per a ajustar el centre i la dispersió en xarxes de funcions de base radial. El mètode proposat millora els resultats obtinguts amb altres arquitectures neuronals. Els components de modelat proposat s'han aplicat també al desenvolupament de models predictius i de classificació de les velocitats de biodegradació de compostos orgànics en diferents medis. Els resultats obtinguts demostren la viabilitat d'aquesta aproximació per a desenvolupar models basats en dades en aquells casos en els que la complexitat de dinàmica del procés impedeix formular models mecanicistes. S'ha dut a terme un estudi preliminar de l'ús de algorismes de generació de regles i de grafs de dependència bayesiana per a introduir una nova capa que faciliti la interpretació dels models. Els resultats preliminars obtinguts a partir de la classificació dels Modes d'acció Tòxica (MOA) apunten a que l'ús dels MOA com a indicadors intermediaris dels efectes dels compostos químics en la salut és una aproximació factible.Finalment, el marc de treball proposat s'ha aplicat en tres escenaris de modelat diferents. En primer lloc, s'ha desenvolupat i avaluat un sensor virtual capaç d'inferir índexs de qualitat a partir de variables primàries de procés. El sensor resultant ha estat implementat en una planta química real millorant els resultats de les correlacions multilineals emprades habitualment. S'ha desenvolupat i avaluat un model per a predir els efectes carcinògens d'un grup de compostos aromàtics a partir de la seva estructura molecular. Els resultats obtinguts desprès d'aplicar el mètode de selecció de variables basat en el SOM milloren els resultats prèviament publicats. Aquest marc de treball s'ha usat també per a proporcionar una nova aproximació al modelat ambiental i l'anàlisi de risc amb sistemes d'informació geogràfica (GIS). S'ha usat el SOM per a caracteritzar escenaris d'exposició i per a desenvolupar un nou mètode d'interpolació geogràfica. La combinació del SOM amb els models de mescla de gaussianes dona una nova formulació al problema de l'anàlisi de risc des d'un punt de vista probabilístic.
343

Repetitions in partial words

Mercas, Robert 15 July 2010 (has links)
El objeto de esta tesis está representado por las repeticiones de palabras parciales, palabras que, además de las letras regulares, pueden tener un número de símbolos desconocidos,llamados símbolos "agujeros" o "no sé qué". Más concretamente, se presenta y se resuelve una extensión de la noción de repetición establecida por Axel Thue. Investigamos las palabras parciales con un número infinito de agujeros que cumplen estas propiedades y, también las palabras parciales que conservan las propiedades después de la inserción de un número arbitrario de agujeros, posiblemente infinito. Luego, hacemos un recuento del número máximo de 2-repeticiones distintas compatibles con los factores de una palabra parcial. Se demuestra que el problema en el caso general es difícil, y estudiamos el problema en el caso de un agujero. Al final, se estudian algunas propiedades de las palabras parciales sin fronteras y primitivas (palabras sin repeticiones) y se da una caracterización del lenguaje de palabras parciales con una factorización crítica.
344

Strategies for internet route control: past, present and future

Yannuzzi, Marcelo 19 December 2007 (has links)
Uno de los problemas más complejos en redes de computadores es el de proporcionar garantías de calidad y confiabilidad a las comunicaciones de datos entre entidades que se encuentran en dominios distintos. Esto se debe a un amplio conjunto de razones -- las cuales serán analizadas en detalle en esta tesis -- pero de manera muy breve podemos destacar: i) la limitada flexibilidad que presenta el modelo actual de encaminamiento inter-dominio en materia de ingeniería de tráfico; ii) la naturaleza distribuida y potencialmente antagónica de las políticas de encaminamiento, las cuales son administradas individualmente y sin coordinación por cada dominio en Internet; y iii) las carencias del protocolo de encaminamiento inter-dominio utilizado en Internet, denominado BGP (Border Gateway Protocol).El objetivo de esta tesis, es precisamente el estudio y propuesta de soluciones que permitan mejorar drásticamente la calidad y confiabilidad de las comunicaciones de datos en redes conformadas por múltiples dominios.Una de las principales herramientas para lograr este fin, es tomar el control de las decisiones de encaminamiento y las posibles acciones de ingeniería de tráfico llevadas a cabo en cada dominio. Por este motivo, esta tesis explora distintas estrategias de como controlar en forma precisa y eficiente, tanto el encaminamiento como las decisiones de ingeniería de tráfico en Internet. En la actualidad este control reside principalmente en BGP, el cual como indicamos anteriormente, es uno de los principales responsables de las limitantes existentes. El paso natural sería reemplazar a BGP, pero su despliegue actual y su reconocida operatividad en muchos otros aspectos, resultan claros indicadores de que su sustitución (ó su posible evolución) será probablemente gradual. En este escenario, esta tesis propone analizar y contribuir con nuevas estrategias en materia de control de encaminamiento e ingeniería de tráfico inter-dominio en tres marcos temporales distintos: i) en la actualidad en redes IP; ii) en un futuro cercano en redes IP/MPLS (MultiProtocol Label Switching); y iii) a largo plazo en redes ópticas, modelando así una evolución progresiva y realista, facilitando el reemplazo gradual de BGP.Más concretamente, este trabajo analiza y contribuye mediante: - La propuesta de estrategias incrementales basadas en el Control Inteligente de Rutas (Intelligent Route Control, IRC) para redes IP en la actualidad. Las estrategias propuestas en este caso son de carácter incremental en el sentido de que interaccionan con BGP, solucionando varias de las carencias que éste presenta sin llegar a proponer aún su reemplazo. - La propuesta de estrategias concurrentes basadas en extender el concepto del PCE (Path Computation Element) proveniente del IETF (Internet Engineering Task Force) para redes IP/MPLS en un futuro cercano. Las estrategias propuestas en este caso son de carácter concurrente en el sentido de que no interaccionan con BGP y pueden ser desplegadas en forma paralela. En este caso, BGP continúa controlando el encaminamiento y las acciones de ingeniería de tráfico inter-dominio del tráfico IP, pero el control del tráfico IP/MPLS se efectúa en forma independiente de BGP mediante los PCEs.- La propuesta de estrategias que reemplazan completamente a BGP basadas en la incorporación de un nuevo agente de control, al cual denominamos IDRA (Inter-Domain Routing Agent). Estos agentes proporcionan un plano de control dedicado, físicamente independiente del plano de datos, y con gran capacidad computacional para las futuras redes ópticas multi-dominio.Los resultados expuestos aquí validan la efectividad de las estrategias propuestas, las cuales mejoran significativamente tanto la concepción como la performance de las actuales soluciones en el área de Control Inteligente de Rutas, del esperado PCE en un futuro cercano, y de las propuestas existentes para extender BGP al área de redes ópticas. / One of the most complex problems in computer networks is how to provide guaranteed performance and reliability to the communications carried out between nodes located in different domains. This is due to several reasons -- which will be analyzed in detail in this thesis -- but in brief, this is mostly due to: i) the limited capabilities of the current inter-domain routing model in terms of Traffic Engineering (TE); ii) the distributed and potentially conflicting nature of policy-based routing, where routing policies are managed independently and without coordination among domains; and iii) the clear limitations of the inter-domain routing protocol, namely, the Border Gateway Protocol (BGP). The goal of this thesis is precisely to study and propose solutions allowing to drastically improve the performance and reliability of inter-domain communications. One of the most important tools to achieve this goal, is to control the routing and TE decisions performed by routing domains. Therefore, this thesis explores different strategies on how to control such decisions in a highly efficient and accurate way. At present, this control mostly resides in BGP, but as mentioned above, BGP is in fact one of the main causes of the existing limitations. The natural next-step would be to replace BGP, but the large installed base at present together with its recognized effectiveness in other aspects, are clear indicators that its replacement (or its possible evolution) will probably be gradually put into practice.In this framework, this thesis proposes to to study and contribute with novel strategies to control the routing and TE decisions of domains in three different time frames: i) at present in IP multi-domain networks; ii) in the near-future in IP/MPLS (MultiProtocol Label Switching) multi- domain networks; and iii) in the future optical Internet, modeling in this way a realistic and progressive evolution, facilitating the gradual replacement of BGP.More specifically, the contributions in this thesis can be summarized as follows. - We start by proposing incremental strategies based on Intelligent Route Control (IRC) solutions for IP networks. The strategies proposed in this case are incremental in the sense that they interact with BGP, and tackle several of its well-known limitations. - Then, we propose a set of concurrent route control strategies for MPLS networks, based on broadening the concept of the Path Computation Element (PCE) coming from the IETF (Internet Engineering Task Force). Our strategies are concurrent in the sense that they do not interact directly with BGP, and they can be deployed in parallel. In this case, BGP still controlls the routing and TE actions concerning regular IP-based traffic, but not how IP/MPLS paths are routed and controlled. These are handled independently by the PCEs.- We end with the proposal of a set of route control strategies for multi-domain optical networks, where BGP has been completely replaced. These strategies are supported by the introduction of a new route control element, which we named Inter-Domain Routing Agent (IDRA). These IDRAs provide a dedicated control plane, i.e., physically independent from the data plane, and with high computational capacity for future optical networks.The results obtained validate the effectiveness of the strategies proposed here, and confirm that our proposals significantly improve both the conception and performance of the current IRC solutions, the expected PCE in the near-future, as well as the existing proposals about the optical extension of BGP.
345

Leveraging performance of 3D finite difference schemes in large scientific computing simulations

De la Cruz, Raúl 30 November 2015 (has links)
Gone are the days when engineers and scientists conducted most of their experiments empirically. During these decades, actual tests were carried out in order to assess the robustness and reliability of forthcoming product designs and prove theoretical models. With the advent of the computational era, scientific computing has definetely become a feasible solution compared with empirical methods, in terms of effort, cost and reliability. Large and massively parallel computational resources have reduced the simulation execution times and have improved their numerical results due to the refinement of the sampled domain. Several numerical methods coexist for solving the Partial Differential Equations (PDEs). Methods such as the Finite Element (FE) and the Finite Volume (FV) are specially well suited for dealing with problems where unstructured meshes are frequent. Unfortunately, this flexibility is not bestowed for free. These schemes entail higher memory latencies due to the handling of irregular data accesses. Conversely, the Finite Difference (FD) scheme has shown to be an efficient solution for problems where the structured meshes suit the domain requirements. Many scientific areas use this scheme due to its higher performance. This thesis focuses on improving FD schemes to leverage the performance of large scientific computing simulations. Different techniques are proposed such as the Semi-stencil, a novel algorithm that increases the FLOP/Byte ratio for medium- and high-order stencils operators by reducing the accesses and endorsing data reuse. The algorithm is orthogonal and can be combined with techniques such as spatial- or time-blocking, adding further improvement. New trends on Symmetric Multi-Processing (SMP) systems -where tens of cores are replicated on the same die- pose new challenges due to the exacerbation of the memory wall problem. In order to alleviate this issue, our research is focused on different strategies to reduce pressure on the cache hierarchy, particularly when different threads are sharing resources due to Simultaneous Multi-Threading (SMT). Several domain decomposition schedulers for work-load balance are introduced ensuring quasi-optimal results without jeopardizing the overall performance. We combine these schedulers with spatial-blocking and auto-tuning techniques, exploring the parametric space and reducing misses in last level cache. As alternative to brute-force methods used in auto-tuning, where a huge parametric space must be traversed to find a suboptimal candidate, performance models are a feasible solution. Performance models can predict the performance on different architectures, selecting suboptimal parameters almost instantly. In this thesis, we devise a flexible and extensible performance model for stencils. The proposed model is capable of supporting multi- and many-core architectures including complex features such as hardware prefetchers, SMT context and algorithmic optimizations. Our model can be used not only to forecast execution time, but also to make decisions about the best algorithmic parameters. Moreover, it can be included in run-time optimizers to decide the best SMT configuration based on the execution environment. Some industries rely heavily on FD-based techniques for their codes. Nevertheless, many cumbersome aspects arising in industry are still scarcely considered in academia research. In this regard, we have collaborated in the implementation of a FD framework which covers the most important features that an HPC industrial application must include. Some of the node-level optimization techniques devised in this thesis have been included into the framework in order to contribute in the overall application performance. We show results for a couple of strategic applications in industry: an atmospheric transport model that simulates the dispersal of volcanic ash and a seismic imaging model used in Oil & Gas industry to identify hydrocarbon-rich reservoirs. / Atrás quedaron los días en los que ingenieros y científicos realizaban sus experimentos empíricamente. Durante esas décadas, se llevaban a cabo ensayos reales para verificar la robustez y fiabilidad de productos venideros y probar modelos teóricos. Con la llegada de la era computacional, la computación científica se ha convertido en una solución factible comparada con métodos empíricos, en términos de esfuerzo, coste y fiabilidad. Los supercomputadores han reducido el tiempo de las simulaciones y han mejorado los resultados numéricos gracias al refinamiento del dominio. Diversos métodos numéricos coexisten para resolver las Ecuaciones Diferenciales Parciales (EDPs). Métodos como Elementos Finitos (EF) y Volúmenes Finitos (VF) están bien adaptados para tratar problemas donde las mallas no estructuradas son frecuentes. Desafortunadamente, esta flexibilidad no se confiere de forma gratuita. Estos esquemas conllevan latencias más altas debido al acceso irregular de datos. En cambio, el esquema de Diferencias Finitas (DF) ha demostrado ser una solución eficiente cuando las mallas estructuradas se adaptan a los requerimientos. Esta tesis se enfoca en mejorar los esquemas DF para impulsar el rendimiento de las simulaciones en la computación científica. Se proponen diferentes técnicas, como el Semi-stencil, un nuevo algoritmo que incrementa el ratio de FLOP/Byte para operadores de stencil de orden medio y alto reduciendo los accesos y promoviendo el reuso de datos. El algoritmo es ortogonal y puede ser combinado con técnicas como spatial- o time-blocking, añadiendo mejoras adicionales. Las nuevas tendencias hacia sistemas con procesadores multi-simétricos (SMP) -donde decenas de cores son replicados en el mismo procesador- plantean nuevos retos debido a la exacerbación del problema del ancho de memoria. Para paliar este problema, nuestra investigación se centra en estrategias para reducir la presión en la jerarquía de cache, particularmente cuando diversos threads comparten recursos debido a Simultaneous Multi-Threading (SMT). Introducimos diversos planificadores de descomposición de dominios para balancear la carga asegurando resultados casi óptimos sin poner en riesgo el rendimiento global. Combinamos estos planificadores con técnicas de spatial-blocking y auto-tuning, explorando el espacio paramétrico y reduciendo los fallos en la cache de último nivel. Como alternativa a los métodos de fuerza bruta usados en auto-tuning donde un espacio paramétrico se debe recorrer para encontrar un candidato, los modelos de rendimiento son una solución factible. Los modelos de rendimiento pueden predecir el rendimiento en diferentes arquitecturas, seleccionando parámetros suboptimos casi de forma instantánea. En esta tesis, ideamos un modelo de rendimiento para stencils flexible y extensible. El modelo es capaz de soportar arquitecturas multi-core incluyendo características complejas como prefetchers, SMT y optimizaciones algorítmicas. Nuestro modelo puede ser usado no solo para predecir los tiempos de ejecución, sino también para tomar decisiones de los mejores parámetros algorítmicos. Además, puede ser incluido en optimizadores run-time para decidir la mejor configuración SMT. Algunas industrias confían en técnicas DF para sus códigos. Sin embargo, no todos los aspectos que aparecen en la industria han sido sometidos a investigación. En este aspecto, hemos diseñado e implementado desde cero una infraestructura DF que cubre las características más importantes que una aplicación industrial debe incluir. Algunas de las técnicas de optimización propuestas en esta tesis han sido incluidas para contribuir en el rendimiento global a nivel industrial. Mostramos resultados de un par de aplicaciones estratégicas para la industria: un modelo de transporte atmosférico que simula la dispersión de ceniza volcánica y un modelo de imagen sísmica usado en la industria del petroleo y gas para identificar reservas ricas en hidrocarburos
346

Convección natural en cavidades tridimensionales

Sánchez Casals, Odalys 10 November 2015 (has links)
The modelling of convective transport processes involving heat and mass transfer in an incompressible Newtonian fluid in cylindrical domains is a relevant research subject both for theoretical research and for industry. However, many of the available studies up to present are two-dimensional, and three-dimensional models using laterally heated cylindrical geometries are scarce. Although the two-dimensional approaches with lateral heating give some significant results, they cannot capture the fully three-dimensional nature of the velocity and temperature fields in three-dimensional geometries in bounded domains; besides, the wall effect in transport problems cannot be neglected. As an example, two-dimensional simulations predict solutions with multiple rolls for aspect ratio boxes greater than 2 that are not observed in three-dimensional studies, and fail to reproduce the nature of the first instability and the associated critical values. In this PhD thesis, we simulate numerically three problems in which the convective transport is produced either by temperature differences in the cylinder lids or by concentration differences within the fluid, as happens in the diffusion experiments in liquid metal mixtures or semiconductors. The system analyzed in the first two problems consists of a horizontal cylinder laterally heated; in the first case, the cylinder remains at rest, while in the second a rotation about its axis is included. Fluid behaviour under different heating intensities (Rayleigh number), materials (Prandtl number) and container size (shape parameter) is investigated. The effect of the rotation of the cylinder on the convective motion is discussed in detail. The values of the angular velocity have been kept low in order to analyze the transition from a fluid flow dominated by convection to a flow in which the fluid rotates as a solid-body with the walls. Much of the work is devoted to analyzing the basic solutions and their stability diagram, and to describing some of the secondary solutions. The aim of the third problem is to analyze the influence of convective pollution in the measurements of the diffusion coefficients when using the method of long capillary in low gravity. We will compare our numerical results with those of the experimental technique called shear cells implemented with a finite volume method and with the previously existing two-dimensional results. The influence on the diffusion coefficients measurements of other factors such as, the low gravity levels, the effects of the tilting and rotation of the capillary, the fluctuations of the gravitational field and the actual accelerometer signals g-jitter, will be also assessed. We numerically solve the Navier-Stokes equation in Boussinesq approximation for an incompressible viscous fluid, which is coupled to an equation for temperature or concentration in cylindrical coordinates. The equations are written in the laboratory reference frame, spatially discretized with a pseudospectral Chebyshev method for radial and axial dependence and with a Fourier-Galerkin method in the azimuthal direction and solved with a second order semi-implicit time splitting method. / La modelización de procesos de transporte convectivo, por transferencia de calor y masa, en un fluido newtoniano incompresible en dominios cilíndricos es un tema de investigación relevante para aplicaciones en la investigación teórica y en la industria. Sin embargo, los trabajos de investigación en modelos tridimensionales usando geometrías cilíndricas calentados lateralmente son más bien escasos. Aunque las aproximaciones bidimensionales del problema con calentamiento lateral dan resultados significativos, las geometrías tridimensionales en dominios acotados son más realistas porque los campos de velocidad y temperatura son totalmente tridimensionales y porque no se puede despreciar el efecto que tienen las paredes en este tipo de problemas de transporte. Por ejemplo en simulaciones en cajas bidimensionales se observa que pueden existir estados estacionarios con más de un rollo convectivo para valores del parámetro de forma mayores que 2 y, sin embargo, esto no se observa en los estudios en cajas rectangulares 3D o cilindros para iguales parámetros. También hay discrepancias en cuanto a la naturaleza de la inestabilidad primaria y a los valores críticos obtenidos para parámetros parecidos. En este trabajo de tesis simulamos tres problemas en los que el transporte convectivo se produce por diferencias de temperatura en las tapas del cilindro o por diferencias de concentración dentro del fluido, como ocurre en los experimentos de difusión en mezclas de metales líquidos o semiconductores. En los dos primeros problemas se simula un cilindro horizontal con una diferencia de temperatura entre sus tapas; en el segundo problema se incluye la rotación del cilindro alrededor de su eje. Se investiga el comportamiento del fluido en función de distintas intensidades en el calentamiento (número de Rayleigh), materiales (número de Prandtl) y tamaño del contenedor (parámetro de forma). Gran parte del trabajo estará dedicado a analizar las soluciones básicas y su estabilidad. En el segundo problema se analiza con detalle el efecto que tiene la rotación del cilindro sobre el movimiento convectivo en función de la velocidad angular, cuyos valores han sido mantenido bajos para poder observar la transición del tipo de flujo inicialmente dominado por la convección, al fluido rotando como un sólido rígido junto con la pared del cilindro. Para los dos problemas con calentamiento lateral caracterizamos las soluciones del estado básico y determinamos su diagrama de estabilidad. Describiremos algunas soluciones secundarias. El tercer problema estará centrado en analizar la influencia que tiene la contaminación convectiva en las medidas de los coeficientes de difusión con el método del ¿capilar largo¿ en baja gravedad. Se compararán estos resultados numéricos para el capilar largo con los resultados obtenidos con la técnica experimental shear cell simulada con el método de volúmenes finitos y con resultados 2D de la literatura. Se valorará la influencia de los bajos niveles de gravedad, así como el efecto de la inclinación y la rotación del capilar, las oscilaciones del campo gravitatorio y la influencia de señales acelerométricas reales conocidas como g-jitter en las medidas de los coeficientes de difusión de una mezcla. Empleamos las ecuaciones de Navier Stokes, en la aproximación de Boussinesq, para un fluido incompresible y viscoso acoplada a una ecuación para la temperatura o la concentración en coordenadas cilíndricas. Las ecuaciones se escribirán en el sistema de referencia de laboratorio. Estas ecuaciones serán discretizadas espacialmente mediante un método pseudoespectral de Chebyshev-colocación para la dependencia radial y axial y el método Galerkin-Fourier para la dependencia azimutal y resueltas con un algoritmo de segundo orden de paso de tiempo fraccionario semi-implícito.
347

Quantitative dispersion analysis of leakages of flammable and/or toxic substances on environments with barriers or semi-confined

Miralles Schleder, Adriana 08 July 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Escola Politécnica da Universidade de São Paulo / With the industrial and technological development of the present-day society, the presence of flammable and toxic substances has increased in a growing number of activities. Dispersion of hazardous gas releases occurring in transportation or storage installations represent a major threat to health and environment. Therefore, forecasting the behaviour of a flammable or toxic cloud is a critical challenge in quantitative risk analysis. The main aim of this dissertation has been to provide new insights that can help technological risks analysts when dealing with complex dispersion modelling problems, particularly those problems involving dispersion scenarios with barriers or semi-confined. A literature survey has shown that, traditionally, empirical and integral models have been used to analyse dispersion of toxic/flammable substances, providing fast estimations and usually reliable results when describing simple scenarios (e.g. unobstructed gas flows over flat terrain). In recent years, however, the use of CFD tools for simulating dispersion accidents has significantly increased, as they allow modelling more complicated gas dispersion scenarios, like those occurring in complex topographies, semi-confined spaces or with the presence of physical barriers. Among all the available CFD tools, FLACS® software is envisaged to have high performance when simulating dispersion scenarios, but, as other codes alike, still needs to be fully validated. This work contributes to the validation of FLACS software for dispersion analysis. After a literature review on historical field tests, some of them have been selected to undertake a preliminary FLACS performance examination, inspecting all possible sources of uncertainties in terms of reproducibility capacity, grid dependence and sensitivity analysis of input variables and simulation parameters. The main outcomes of preliminary FLACS investigations have been shaped as practical guiding principles to be used by risk analysts when performing dispersion analysis with the presence of barriers using FLACS software or tools alike. Although the literature survey has shown some experimental data available, none of the works include detailed exercises giving new insights of how to perform accurate CFD simulations nor giving precise rates of FLACS performance. Therefore, new experiments have been performed in order to offer new sets of cloud dispersion data for comprehensive validation studies. Propane cloud dispersion field tests (unobstructed and with the presence of a fence obstructing the flow) have been designed and undertaken at Can Padró Security and Safety training site (Barcelona) by which intensive data on concentration has been acquired. Four tests were performed, consisting on releases up to 0.5 kg/s of propane during 40 seconds in a discharge area of 700 m2. FLACS software has been challenged against the experimental data collected during the field tests. In general terms, the CFD-based simulator has shown good performance when simulating cloud concentration. FLACS reproduces successfully the presence of complex geometry and its effects on cloud dispersion, showing realistic concentration decreases due to cloud dispersion obstruction by the existence of a fence. However, simulated clouds have not represented the whole complex accumulation dynamics due to wind variation, since they have diluted faster than experimental clouds. / Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais. / Amb el desenvolupament industrial i tecnològic de la societat actual, la presència de productes tòxics i inflamables s'ha vist incrementada àmpliament en diferents sectors. La dispersió de fuites de substàncies perilloses que poden tenir lloc durant el transport o emmagatzematge d'aquestes, pot representar un risc important per a les persones i pel medi ambient. Per això, poder predir el comportament d'un núvol tòxic o inflamable representa un dels reptes més importants de l'anàlisi quantitativa del risc. El principal objectiu d'aquesta tesi és el d'aportar nous coneixements que siguin d'interès pels analistes de risc tecnològic a l'hora d'enfrontar-se a problemes de modelització dispersió de certa complexitat, com ara aquells que ocorren en escenaris semi-confinats o amb presència de barreres. La revisió bibliogràfica ha permès detectar que, tradicionalment, els models que més s’han emprat per analitzar la dispersió de fuites han estat els de naturalesa empírica i integral, ja que aquests poden donar bones prediccions i de manera més àgil en escenaris senzills sense obstruccions i en terreny pla. Tanmateix, en els darrers anys, l’ús d’eines CFD (Computational Fluid Dynamics) per a simular la dispersió accidental s’ha vist incrementat, ja que aquests programaris permeten modelitzar escenaris més complexos, pel que fa a la topografia o a la presència d’elements que puguin obstruir el flux de material. D’entre totes les eines CFD disponibles, el programari FLACS® és el que mostra més potencial a l’hora de simular aquesta tipologia d’escenaris, però, com altres eines de la seva tipologia, encara requereix estudis complerts de validació. Aquesta tesi contribueix a la validació de FLACS per a realitzar anàlisis de dispersió. Després de revisar amb cura els estudis experimentals de la bibliografia, alguns d’ells han estat seleccionats per a dur a terme una avaluació inicial de les prestacions de FLACS, en la que s’han investigat totes les possibles fonts d’incertesa que poden aparèixer en les simulacions. Se n’ha estudiat la reproductibilitat, la dependència del domini i mida de cel·les i la sensibilitat de la concentració a variacions en les variables d’entrada i en els paràmetres de simulació. Els principals resultats d’aquesta anàlisi preliminar s’han presentat en forma de ―principis guia‖ que podran ser utilitzats per analistes de risc per tal que puguin simular de manera acurada escenaris complexes de dispersió amb l’eina FLACS o amb d’altres programaris similars. Tot i que a la bibliografia hi ha algunes dades experimentals disponibles, cap dels treballs inclou exercicis de validació suficientment complets. Tampoc s’hi inclou informació sobre com cal plantejar adequadament els escenaris de simulació ni tampoc s’hi troben valoracions quantitatives de la fiabilitat de FLACS. Per aquest motiu, en el marc d’aquesta tesi, s’ha dut a terme experiments per tal de tenir noves dades que permetin realitzar estudis de validació complets. Les proves han consistit en fuites de propà (lliures i amb obstruccions) i s’han dut a terme al centre de seguretat Can Padró (Sant Vicenç de Castellet, Barcelona). Amb aquests experiments s’ha pogut obtenir una gran quantitat de dades de concentració dels núvols experimentals. S’han dut a terme un total de 4 proves, amb cabals de 0.5 kg/s en una àrea de descàrrega de 700 m2. Les prestacions de FLACS ha estat provades tot simulant les proves experimentals. A nivell general, el programari ha tingut un bon rendiment a l’hora de simular la concentració dels núvols de propà. A més, ha pogut reproduir de manera adequada la presència d’una obstrucció i els seus efectes en la dispersió, donant resultats de descens de concentració realistes. Tanmateix, els núvols simulats no han representat en la seva totalitat la dinàmica d’acumulació dels experiments reals degut a la gran variabilitat del vent i han mostrat temps de dilució inferiors als reals.
348

Local scale air quality model system for diagnostic and forecasting simulations using the finite element method

Oliver Serra, Albert 13 November 2015 (has links)
Air pollution is an important topic with a great social impact; it is related with public health, environment and ecology, and climate change. Scientists have developed several models in the last thirty years, and regional air quality operational systems are used routinely by governments and agencies. Efforts have also been done to simulate the air quality in the local scale; main models are Gaussian and Puff models, that are based on a Lagrangian approach. In contrast with these models, in this thesis we have developed a system using an Eulerian approach. This model is specifically designed for regions with complex orography where the Lagrangian models have problems computing the trajectory of the particles. This model can be used for diagnostic or prediction simulations. Air quality operational systems depend on the orography, meteorological data, and emission data. Air quality models use processors to incorporate these data into the model. The data can come from numerical weather prediction systems, experimental data, or databases. In this thesis we have developed processors, specifically designed for the local scale, to incorporate these data into our system. To incorporate the orography, we have developed a mesh generation algorithm suitable for complex terrain discretization; it also allows to insert layers that can match the regional models. A wind field model has also been used; it can interpolate a three-dimensional wind field from some station measurements using a log-linear vertical wind profile, or can interpolate it from a numerical weather prediction system. Once an interpolated wind field is computed, a mass-consistent model is applied to ensure null divergence and impermeability in the terrain. The wind field is modified to take into account the injection of the pollutants into the atmosphere. Briggs studied the trajectory of the plume rise giving some empirical equations that will be used in our model. Briggs' equations describe the trajectory in a plane; our model will modify this trajectory adapting it to the ambient wind field. This modification allows the plume rise to surround the mountains or channel into the valleys. The transport and reaction of pollutants in the atmosphere is then computed using an splitting method, so the transport and the chemical reactions are computed independently. To solve the transport of pollutants we have used a finite element method stabilized using least squares. The chemical reaction is simulated using simplified models such as RIVAD, or more complex ones such as CB05. To obtain more accurate results we have used adaptation. An error indicator has been used to adapt the mesh to the solution. To adapt the mesh to the concentration distribution of all the species is very demanding, for this reason we have used a multimesh method where every chemical specie has its own mesh where we solve the transport and the chemical reactions are simulated in a common mesh. The system developed in this thesis has diagnostic and forecasting capabilities. For this reason we present two different applications. The first one is a diagnostic application in La Palma island (Spain), where wind measurements are given, and SO2 and NO2 emissions from a stack are considered. The topography of the island is real, from a digital elevation model, but the wind field measurements, and the stack location and emissions, are simulated. The second application is a forecasting application data from the CMAQ benchmark test. It is located in the surrounding of Pineville Kentucky. In this application we have used all the data from CMAQ and the chemical reaction model CB05. / La contaminació atmosfèrica té gran impacte social; està relacionada ambla salut pública, l'ecologia, el medi ambient i el canvi climàtic. En els últims trenta anys, els científics han desenvolupat diversos models que els governs i les agències mediambientals utilitzen diàriament. També s'han fet esforços per simular la qualitat de l'aire en l'escala local. Els models principals són els models Gaussians i Puff, que es basen en una descripció Lagrangiana. En contrast amb aquests models, en aquesta tesi s'ha desenvolupat un sistema que utilitza una descripció Euleriana. Aquest model està dissenyat específicament per a les regions amb topografia complexa on els models Lagrangians tenen problemes calculant la trajectòria de les partícules. El model presentat en aquesta tesi pot ser utilitzat tant pel diagnòstic com per la predicció. Els sistemes operatius utilitzats actualment depenen de l'orografia, de dades meteorològiques i de dades d'emissió. Per tal d'incorporar aquestes dades, els models de qualitat de l'aire han desenvolupat diferents preprocessadors. Les dades poden venir dels sistemes numèrics de predicció meteorològics, de dades experimentals o de bases de dades. En aquesta tesi hem desenvolupat preprocessadors dissenyats específicament per a l'àmbit local, per tal d'incorporar aquestes dades al nostre sistema. Per incorporar l'orografia, hem desenvolupat un algoritme de generació de malles adequat per terreny complex; l'algoritme també ens permet inserir capes que poden coincidir amb la dels models regionals. S'ha desenvolupat un model de càlcul de camp de vent; a partir de les dades s'interpola un camp de vent tridimensional fent servir un perfil log-lineal vertical del vent, o s'interpola a partir dels resultats d'un sistema de predicció meteorològica. Quan s'ha calculat el vent interpolat, es fa servir un model de massa consistent per obtenir un camp de vent definitiu on s'ha imposat divergència zero i impermeabilitat del terreny. El camp de vent s'ha de modificar per tenir en compte la injecció dels contaminants a l'atmosfera. Briggs va estudiar la trajectòria de l'elevació de la ploma i va trobar equacions empíriques que utilitzarem en el nostre model. Les equacions de Briggs descriuen la trajectòria de la ploma en un pla vertical; el nostre model modificarà aquesta trajectòria adaptant-la al camp de vent ambiental. Aquesta modificació permet que l'elevació de la ploma rodegi les muntanyes o s'acanali a les valls. El transport i la reacció de contaminants a l'atmosfera es calcula utilitzant un mètode de "splitting", de manera que el transport i la reacció química es calculen de forma independent. Per resoldre el transport de contaminants, hem utilitzat el mètode d'elements finits estabilitzat amb mínims quadrats. La reacció química es simula mitjançant models simplificats com el model RIVAD, o més complexes com el CB05. Per obtenir resultats més precisos hem adaptat la malla a la solució utilitzant un indicador d'error. Haver d'adaptar la malla a la distribució de la concentració de totes les espècies contaminants és molt exigent i per aquest motiu hem utilitzat un mètode "multimesh" on cada espècie química té la seva pròpia malla on resolem el transport i les reaccions químiques es simulen en una malla comú. El sistema desenvolupat en aquesta tesi té capacitats de diagnòstic i pronòstic. Per aquesta raó es presenten dues aplicacions diferents. La primera és una aplicació de diagnòstic a l'illa de la Palma (Espanya), on es disposa de mesures de vent, i de les emissions de SO2 i NO2 d'una xemeneia. La topografia de l'illa és real, a partir d'un model digital del terreny, però les dades del camp de vent, la ubicació de la xemeneia i el valor de les emissions són simulades. La segona aplicació és una aplicació de predicció fent servir els resultats del benchmark del CMAQ. Es simula una zona a Pineville Kentucky. En aquesta aplicació hem utilitzat totes les dades del CMAQ i el model químic CB05.
349

Expresión de emociones de alegría para personajes virtuales mediante la risa y la sonrisa

Mascaró Oliver, Miquel 06 June 2014 (has links)
La animación facial es uno de los tópicos todavía no resueltos tanto en el campo de la interacción hombre máquina como en el de la informática gráfica. Las expresiones de alegría asociadas a risa y sonrisa son por su significado e importancia, parte fundamental de estos campos. En esta tesis se hace una aproximación a la representación de los diferentes tipos de risa en animación facial a la vez que se presenta un nuevo método capaz de reproducir todos estos tipos. El método se valida mediante la recreación de secuencias cinematográficas y mediante la utilización de bases de datos de expresiones faciales genéricas y específicas de sonrisa. Adicionalmente se crea una base de datos propia que recopila los diferentes tipos de risas clasificados y generados en este trabajo. De acuerdo a esta base de datos propia se generan las expresiones más representativas de cada una de las risas y sonrisas consideradas en el estudio. / L'animació facial és un dels tòpics encara no resolts tant en el camp de la interacció home màquina com en el de la informàtica gràfica. Les expressions d'alegria associades a riure i somriure són pel seu significat i importància, part fonamental d'aquests camps. En aquesta tesi es fa una aproximació a la representació dels diferents tipus de riure en animació facial alhora que es presenta un nou mètode capaç de reproduir tots aquests tipus. El mètode es valida mitjançant la recreació de seqüències cinematogràfiques i mitjançant la utilització de bases de dades d'expressions facials genèriques i específiques de somriure. Addicionalment es crea una base de dades pròpia que recull els diferents tipus de rialles classificats i generats en aquest treball. D'acord a aquesta base de dades pròpia es generen les expressions més representatives de cadascuna de les rialles i somriures considerades en l'estudi. / Nowadays, facial animation is one of the most relevant research topics still unresolved both in the field of human machine interaction and in the computer graphics. Expressions of joy associated with laughter and smiling are a key part of these fields mainly due to its meaning and importance. In this thesis an approach to the representation of different types of laughter in facial animation is done while a new method to reproduce all these types is proposed. The method is validated by recreating movie sequences and using databases of generic and specific facial smile expressions. Additionally, a proprietary database that lists the different types of classified and generated laughs in this work is created. According to this proprietary database the most representative of every smile expression considered in the study is generated.
350

CLUSDM: a multiple criteria decision making method for heterogeneous data sets

Valls, Aïda 13 December 2002 (has links)
Aquesta tesi presenta una nova metodologia per resoldre problemes de presa de decisions. Hemestudiat els casos en què cal considerar més d'un criteri. Aquests tipus de mètodes de decisió esconeixen com MCDM (Multiple Criteria Decision Making), o també MCDA (Multiple CriteriaDecision Aid). La diferència entre simplement "prendre decisions" o "ajudar a prendredecisions" recau en si el mètode es dissenya per recomanar la decisió a prendre o si tambéinclou elements que permeten entendre com es prenen les decisions en un cert context. La nostraproposta inclou elements dels dos plantejaments. D'una banda, hem intentat que la persona queha d'usar el mètode no necessiti aprendre tècniques complexes abans de poder-lo aplicar a casosreals. D'altra banda, el mètode no és una caixa negra, sinó que l'usuari rep informació sobrecaracterístiques de les dades que ha de tenir en compte abans de fer la decisió final.ClusDM és un mètode de presa de decisions pensat per resoldre dos tipus concrets deproblemes: (i) ordenar un conjunt d'alternatives de la millor a la pitjor, (ii) seleccionar lesmillors alternatives del conjunt. La dificultat d'aquest procés recau en que cal maximitzardiversos criteris parcials (i normalment no correlacionats) al mateix temps. A la tesi es pottrobar un resum de les diferents aproximacions a aquest tipus de problemes de decisió. Nomésdestacar que el nostre mètode segueix les bases de la Teoria de la Utilitat.Els mètodes clàssics consideren només criteris numèrics. Diferents extensions a aquests modelss'han anat desenvolupant durant els últims anys. En aquesta tesis ens hem plantejat lapossibilitat de tenir criteris que utilitzin diferents tipus de valors. A més, hem afegit dues fases ala metodologia habitual (que té una fase d'agregació i una d'ordenació), que són: l'explicaciódel resultat i l'avaluació de la qualitat.La "Fase d'explicació" està dedicada a assignar un terme lingüístic per descriure cadaalternativa segons la seva posició en el ranking. L'ús de vocabularis qualitatius facilita lacomprensió del resultat. El significat dels diferents termes usats ve donat per una funció denegació. Aquesta representació es basa en contrastar el significat d'un terme amb el dels termesoposats (els seus antònims).La "Fase d'Avaluació de la Qualitat" analitza a fons els resultats intermedis obtinguts en elsdiferents passos del procés i intenta mesurar l'error acumulat. ClusDM proporciona diversesmesures de qualitat parcial per cada fase del procés, de manera que l'usuari tingui constància dela confiança que pot donar al resultat final que doni el sistema. / This thesis presents a new methodology for decision making. In particular, we have studied theproblems that consider more than one criterion, which is known as Multiple Criteria DecisionMaking (MDCM) or Multiple Criteria Decision Aid (MCDA). The difference relies on the factof imitating the behaviour of the decision maker (i.e. develop a method that makes decisions) orgiving to the decision maker some additional information that allows him to understand themechanism of solving decisions (i.e. the decision maker can learn from the use of the method).Our proposal fits better in the MCDA approach, but has also similarities with the MCDMperspective. On one hand, the method we have designed is independent enough to not require adeep understanding of the process by the decision maker. On the other hand, we have carefullystudied the process and the method is able to extract knowledge about the decision problem,which is given to the user to let him know any special characteristics of the data analysed.ClusDM is a new method to solve multicriteria decision problems. It is able to find a ranking ofalternatives or to select the best ones. This process is not easy since usually it is not possible tomaximise all the partial profits (i.e.criteria) at the same time. In the thesis we present anoverview of the large amount of methods developed to solve this problem. We follow the utilitytheory approach.Classical methods consider only numerical criteria. Some extensions allow the consideration ofother scales, such as, fuzzy or ordinal values, but usually they are required to have a commonscale for all criteria. This thesis faces the problem of managing different types of criteria at thesame time. Methods following the utility approach consider two steps to sort a decisionproblem out: the aggregation and the ranking. We have included some additional steps in orderto improve the process: (i) the explanation phase and (ii) the quality measurement phase.In the "Explanation Phase", special attention is devoted to give an appropriate linguisticdescription of the ranking. The necessity to give a qualitatively described result has been arguedby different authors. The rationale behind this belief is that human decision makers understandbetter a linguistic statement characterising the selected alternative (or ranking of alternatives)than a numerical result or even a membership function. In this context, a new negation-basedsemantics has been studied. The key idea is that we can infer the meaning of a term knowing theterms that express an opposite value. The use of this new semantics representation seemsappropriate to obtain a result that can be easily understood by the decision maker.In the "Quality Measurement Phase", different quality measures for each stage of the processare calculated. With these measures we can give an overall value of the trustworthiness of thefinal result. This kind of information is very useful for the decision maker in order to pay moreor less attention to the recommendations of the system.

Page generated in 0.0938 seconds