• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 8
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Detección de eventos respiratorios en señales polisomnográficas

Feller Goudie, Jaime José January 2017 (has links)
Ingeniero Civil Eléctrico / Las enfermedades respiratorias son un grupo de enfermedades que afectan, como su nombre lo indica, el sistema respiratorio de las personas. En chile, estas están catalogadas como la tercera gran causa de muerte en Chile [1]. En particular, el Sindrome de Apnea e Hipopnea Obstructiva del Sueño (SAHOS) afecta al 4% de la población adulta [2] [3], y lleva consigo riesgos derivados de que interrumpe el ciclo normal de sueño. El siguiente trabajo plantea el modelamiento de un clasificador que sea capaz de identificar los distintos tipos de episodios respiratorios asociados al SAHOS, apneas de distinto tipo (central, mixta u obstructiva) o hipopnea. Como consecuencia directa, se pretende obtener los sensores más relevantes para construir un polisomnógrafo. Mediante el pre-procesamiento y obtención de datos estadísticos de exámenes de polisomnografía validados por personal médico, posterior entrenamiento y validación de distintos clasificadores; reglas difusas, arboles de decisión, redes neuronales y support vector machine; Se construye un clasificador que agrega un subconjunto de ellos para decidir a qué clase de episodio pertenece cada evento buscando un alto cociente de posibilidades de diagnóstico (DOR). Debido a la complejidad de procesar múltiples datos se plantea utilizar métodos de reducción de variables mediante random forest/tree ensemble, logrando reducir estas a un 10% con una varianza no superior al 22% en la exactitud de los clasificadores respecto al ejercicio realizado con todas las variables. Esto se traduce en proponer una reducción del número de sensores ocupados en un examen polisomnográfico desde más de 20 a un conjunto de 8 que contiene la mayor parte de la información para lo que respecta a la diferenciación de episodios. Estos sensores concuerdan con las señales que son de especial cuidado cuando se estudia el SAHOS. Se logra proponer un clasificador que diferencia entre los distintos episodios, pero no así uno que permita diferenciar entre la presencia o ausencia de estos, debido principalmente al hecho de no contar con una base de datos adecuada, esto último se deduce al comparar el desempeño de los clasificadores al introducir un grupo de control generado con estados de sueño normal de los mismos pacientes. El clasificador construido tiene un índice de acierto de sobre el 70%, con un error del tipo I cercano al 20% y error tipo II cercano 8%, la exactitud de este es sobre el 79% y el DOR superior a 10 para cada tipo de episodio. Debido a la dificultad de conseguir este tipo de exámenes, en parte dado por su costo, tanto monetario como en recursos, no se pudo trabajar con una base de datos extensa. Como trabajo futuro se recomienda realizar estos experimentos con una base de datos que contenga exámenes realizados a personas que no presentan SAHOS, para de esta manera se obtenga una base de datos limpia para caracterizar las diferencias entre un paciente sano y uno enfermo.
2

Procesamiento inteligente de imágenes para el modelado geomorfológico

Revollo Sarmiento, Gisela N. 27 March 2015 (has links)
Las planicies de marea del estuario de Bahía Blanca se caracterizan por tener una amplia presencia de accidentes geográficos (cursos de marea y cuencos de agua) de diversos tamaños, formas y orientaciones. El estudio del origen de los mismos, su permanencia y los mecanismos de erosi ón durante la evolución de estos accidentes es importante para determinar futuros procesos dinámicos en el humedal costero. Sin embargo, el acceso directo para el monitoreo de estas regiones no es fácil, tiene un costo prohibitivo, no siempre es posible el acceso condicionado por las mareas y es ambientalmente dañino. El procesamiento digital de imágenes (PDI) de sensado remoto es una alternativa natural ante esta situación, dado que es una herramienta no invasiva para la extracción de datos cualitativos y cuantitativos sin alterar el estado natural del objeto bajo estudio. La presente tesis tiene como objetivo principal desarrollar e implementar nuevas técnicas y metodologías de PDI que conformen la arquitectura de una aplicación que permita extraer la información necesaria y suficiente de los accidentes geográficos para que posteriormente, el experto pueda analizar y modelar la geomorfología de los mismos. La metodología desarrollada está compuesta por diferentes etapas de procesamiento, entre ellas la segmentación (identificación), medición, extracción de parámetros morfológicos (descriptores de forma) y la clasificación automática de los accidentes de interés. En primera instancia, se caracterizó el tipo de ambiente y se seleccionaron 13 zonas del estuario para ser analizadas. Las mismas son representativas de la diversidad de cuencos y cursos de marea existentes en las planicies. En cada zona de estudio se aplicaron las distintas etapas del procesamiento y se discriminaron los objetos de interés. Seguidamente, se analizó su morfología individual en detalle. En este sentido, un conjunto de datos es obtenido para el análisis morfológico y, además es usado para definir las ecuaciones de un modelo estadístico de regresión, el cual permite diferenciar automáticamente los cuencos de agua y cursos de marea. En principio, el clasificador se testeó en un conjunto de zonas usadas para su entrenamiento y posteriormente se usaron las restantes zonas como conjunto de validación. El desempeño del clasificador se evaluó de dos formas distintas, visual y cuantitativamente. El propósito fue determinar la variabilidad de los resultados según la apreciación del evaluador experto (supervisada) y la predicha por el clasificador (automática). En todos los casos se identificaron y clasificaron automáticamente los diferentes accidentes geográficos con una precisión superior al 86 %. Los resultados demuestran que es posible identificar y clasificar en forma automática los accidentes geográficos de formas complejas, como los cuencos de agua y cursos de marea a partir de imágenes de sensado remoto, en este caso particular, imágenes de Google Earth. Inclusive, la metodología puede ser aplicada en otras regiones de humedales costeros y con otros tipos de imágenes de sensado remoto. / Tidal flats of the Bahía Blanca Estuary, generally exhibit ponds of diverse size, shape and orientation. The study of the origin, stability and erosive mechanisms during the evolution of these geographic features are important to determine dynamic processes in coastal wetlands. However, direct monitoring access to the locations is hard and expensive, not always feasible, and environmentally damaging. Remote sensing images may represent a natural alternative for this situation, since it is a noninvasive tool for qualitative and quantitative data extraction without altering the natural state of the object under study. The main aim of this thesis is to introduce and develop new techniques and DIP methodologies that integrate a framework application. In this sense, the expert is able to analyze the data set obtained. The methodology consists in different processing stages like segmentation, measurement, shape descriptors extraction and the automatic classification of geographic features. First, we characterize the environment type and 13 zones were selected to study. These zones are representative of ponds and tidal courses in tidal flats. The different processing stages were applied for each zone and geographic features were indentified. Then, the individual morphology in detail was analyzed. A data set for morphological analysis was provided and used to define the classifier model equations, which allow to automatically discriminate ponds against tidal courses. The classifier were tested in the training zones and then other zones were used to validate the performance of the classifier. To determine the variability of the results , supervise classification was compared against automatic classification. In all cases, it was possible to identify and automatically classify different geographic features with an accuracy higher than 86%. These results highlight the feasibility of using freely available Google Earth imagery for the automatic identification and classification of complex geographical features, as ponds and tidal courses. In addition, the methodology presented here could be applied in other wetlands of the world and to other remote sensing imagery.
3

Abordaje socio ambiental al sistema de cría de cerdos alimentados con residuos sólidos en Montevideo. El caso COVINUS

Francia Ramos, Betty 07 1900 (has links)
Magíster en Análisis Sistémico Aplicado a la Sociedad / Autor no autoriza el acceso a texto completo de su documento
4

Clasificadores eficaces basados en algoritmos rápidos de búsqueda del vecino más cercano

Moreno Seco, Francisco January 2004 (has links)
No description available.
5

Aplicación de sistemas de autoaprendizaje al diagnóstico de máquinas eléctricas

Burriel Valencia, Jordi 01 September 2016 (has links)
[EN] The aim of the fault diagnosis techniques of rotatory electrical machine is to determine the condition of the motor in order to reduce economical loses. In the technical literature is found different signal processing techniques that allow discriminate with the help of an expert that recognize the results, between the healthy and faulty condition of the electrical machines. It is therefore essential to automate this expert task. It is also a priority to research and to develop new detection systems more accurate than the previous ones. Complex systems based on expert systems are used to improve the classification of faults. For this research thesis, has been developed an automatic "supra-system" capable to generate optimal fault diagnosis systems. The proposed "supra-system" is able to generate the optimal diagnostic system for the fault detection induction motors. This has been achieved following these steps: Sample collection: an experimental test bench has been build, where the test motor current and speed are sampled. These samples are obtained for different motor speeds and different load torque. A total of 735 samples has been analyzed in the thesis. The samples have been processed with different techniques of diagnosis according to the working regime. For the steady-state regime is: - Signal analysis. - The analytical signal modulus (Hilbert transform). - Cepstrum transform. - Analysis of Park transform modulus. - Harmonic order tracking analysis (HOTA). For the steady-state regime 20 different diagnostic methods have been explored, resulting from the variations of these techniques. While the techniques used for the transient regime are: - Harmonic order tracking analysis (HOTA) using the Short-Time Fourier Transform (STFT) with Gaussian window. - Harmonic order tracking analysis (HOTA) using the Short-Time Fourier Transform (STFT) with Prolate window (This window is a contribution of this thesis). - Harmonic order tracking analysis (HOTA) using the Short-Frequency Fourier Transform (SFFT) with Gaussian window (This technique is a contribution of this thesis) - Harmonic order tracking analysis (HOTA) using the Short-Frequency Fourier Transform (SFFT) with Prolate window. In addition to these two contributions that are integrated into the HOTA method, have been applied to the original algorithm improvements that helps to decrease the computation time and memory space needed. The improvements are: - A new band-pass filtering stage. - The minimization of the edge effect. - A new faster algorithm for the optimum setting of the filter window. For the transient regime 4 different diagnostic methods are explored. For each of the techniques used, the relevant features are obtained. Thus, a matrix is obtained with feature vectors column with 24 dimension length (20 in steady-state and 4 in transient) and as many rows as the number of tests used in this thesis (735 tests). For each of the feature vectors obtained different classifiers are generated based on artificial neural networks (with one and two hidden layer) and Support Vector Machine (with polynomial or Gaussian kernel function). In other words, four different classifier methods that run in parallel and automatically obtain the optimum parameters according to its parameters. In the final step, the results are analysed and the optimal diagnosis system is selected. The "supra-system" developed in this thesis have the following advantages: 1. It achieves a final optimal diagnostic system. 2. It produces several local optimal diagnostic systems taking into account the training time and the estimated diagnosis time. 3. It is completely autonomous. 4. It is adaptable to the induction motor type, as it can generate an optimal diagnostic system specific for each type of motor. / [ES] El objetivo de las técnicas de diagnóstico de fallo en las máquinas eléctricas rotativas es el de determinar el estado del motor para minimizar costes. En la literatura técnica se encuentran diversas técnicas de análisis de señal que permiten discriminar, mediante un experto capaz de interpretar los resultados, entre una máquina eléctrica en estado de fallo o en estado sano. Por tanto, se hace necesaria la automatización de esta labor. Es prioritario investigar y desarrollar nuevos sistemas de detección que maximicen la precisión respecto a las características disponibles. Para mejorar la clasificación de fallos se estudian sistemas cada vez más complejos basados en sistemas expertos. Se ha desarrollado para esta tesis de investigación un "suprasistema" automático capaz de generar sistemas óptimos de diagnóstico de fallos. Este "suprasistema" se encarga de generar el sistema de diagnóstico óptimo para la detección de fallos en motores de inducción. Para ello se han seguido los siguientes pasos: Obtención de muestras: se ha diseñado un banco de ensayos experimental del cual se obtienen las corrientes y velocidad del motor de estudio. Los ensayos permiten diferentes velocidades del motor y diferentes pares resistentes. Se analizan un total de 735 muestras en la tesis. A estas muestras se les han aplicado diferentes técnicas de diagnosis según el régimen de funcionamiento. Para régimen estacionario son: - Análisis de la señal. - Transformada de Hilbert (módulo de la señal analítica). - Transformada Cepstrum. - Transformada del módulo de Park. - Análisis del orden de armónico (HOTA). Para el régimen estacionario se han explorado 20 métodos, resultado de las diferentes variantes de las técnicas empleadas. Mientras que las técnicas usadas para el régimen transitorio son: - Análisis del orden de armónico (HOTA) de la señal con Short Time Fourier Transform y con ventana Gaussiana. - Análisis del orden de armónico (HOTA) de la señal con Short Time Fourier Transform y con ventana Prolate. (Aportación a la tesis de la aplicación de esta ventana). - Análisis del orden de armónico (HOTA) de la señal con Short Frequency Fourier Transform y con ventana Gaussiana. (Aportación a la tesis de la aplicación de esta técnica). - Análisis del orden de armónico (HOTA) de la señal con Short Frequency Fourier Transform y con ventana Prolate. Además de estas dos aportaciones que se integran en el método HOTA se han aplicado mejoras al algoritmo original que permiten disminuir el tiempo de cálculo y el espacio de memoria necesario. Las mejoras son: - Un filtrado paso banda. - La minimización del efecto de borde. - Un nuevo algoritmo más rápido para el ajuste óptimo de la ventana de filtro. En conclusión, para el régimen transitorio se exploran 4 métodos de diagnóstico. Se ha obtenido características relevantes con cada técnica empleada. En conjunto se obtiene una matriz de vectores de características de dimensión 24 (20 estacionario y 4 en transitorio), donde cada vector tiene la dimensión del número de ensayos realizados, 735. Para cada vector de características se generan varios clasificadores basados en Redes Neuronales Artificiales (de 1 y 2 capas ocultas) y Máquina de vectores de soporte (con kernel polinomial o de base radial). Es decir, se aplican 4 técnicas diferentes de clasificadores, que de forma paralela y automática obtienen los óptimos según los parámetros de los mismos. Como paso final, se analizan los resultados obtenidos y se realiza la selección del sistema óptimo de diagnóstico. El suprasistema desarrollado en esta tesis aporta las siguientes ventajas: 1. Obtiene un sistema de diagnóstico óptimo final. 2. Obtiene varios sistemas de diagnóstico óptimos locales con los tiempos de entrenamiento y los tiempos de diagnóstico. 3. El suprasistema es totalmente autónomo. 4. El suprasistema es adaptable al tipo de motor / [CAT] El principal objectiu de les tècniques de diagnosis es determinar l'estat del motor per minimitzar costos. En la literatura s'hi troben diferents tècniques de anàlisi i processament de la senyal que permeten identificar, amb ajuda de personal altament qualificat amb capacitat d'interpretar els resultats, si la maquina es troba en estat sa o en estat d'averia. Per tot això, resulta necessari la tasca d'automatitzar aquesta labor. Es prioritari investigar nous sistemes de detecció que maximitzen la precisió, tenint en compte les característiques disponibles. Per millorar aquestes característiques de classificació es proposen sistemes cada vegada més complexos basats en sistemes experts. S'ha desenvolupat un "suprasistema" automàtic capaç de generar sistemes òptims de diagnosi de falles. Aquest "suprasistema" proposat s'encarrega de generar el sistema de diagnosi òptim per a la detecció de fallades en motors de inducció. Per al seu desenvolupament s'han seguit les següents etapes: Obtenció d'assajos: s'ha dissenyat un banc d'assajos experimental del qual s'obtenen les corrents i la velocitat del motor d'estudi. Els assaigs permeten diferents velocitats del motor i diferents parells resistents. S'analitzen un total de 735 mostres en la tesi. A aquestes assajos se'ls han aplicat diferents tècniques de diagnosi segons el règim de funcionament. Per al règim estacionari són: - Anàlisi de la senyal. - Transformada de Hilbert (mòdul de la senyal analítica). - Transformada Cepstrum. - Transformada del mòdul de Park. - Anàlisi de l'ordre d'harmònic (HOTA). Per a la diagnosi en règim estacionari s'han explorat 20 mètodes distints, resultat de diferents variacions de les tècniques utilitzades. Mentre que les tècniques aplicades al règim transitori han estat: - Anàlisi de l'ordre d'harmònic (HOTA) de la senyal amb transformada de Fourier curta en temps i finestra Gaussiana. - Anàlisi de l'ordre d'harmònic (HOTA) de la senyal amb transformada de Fourier curta en temps i finestra Prolate. (Aportació a la tesi de l'aplicació d'aquesta finestra) - Anàlisi de l'ordre d'harmònic (HOTA) de la senyal amb transformada de Fourier curta en freqüència i finestra Gaussiana. (Aportació a la tesi de l'aplicació d'aquesta tècnica). - Anàlisi de l'ordre d'harmònic (HOTA) de la senyal amb transformada de Fourier curta en freqüència i finestra Prolate. A més d'aquestes dues aportacions que s'integren en el mètode HOTA s'han aplicat millores a l'algoritme original que permeten disminuir el temps de càlcul i l'espai de memòria necessari. Les millores són: - Una etapa de filtrat pas banda. - Minimització del efectes de costat. - Algoritme més ràpid per a l'ajust òptim de la finestra de filtrat. En conclusió, per al règim transitori s'han analitzat quatre mètodes de diagnosi diferents. Amb les tècniques utilitzades s'obté les característiques rellevants. En conjunt s'obté una matriu de vectors de característiques de dimensió 24 (20 estacionari més 4 en transitori), on cada vector té la dimensió del nombre d'assajos que s'han realitzat, 735. Per cada un dels vectors de característiques obtinguts es desenvolupen distints tipus de classificadors basats en Xarxes neuronals artificials (d'una i de dues capes ocultes) y Màquines de vectors de suport (amb kernel polinomial o base radial gaussiana). És a dir, s'apliquen 4 tècniques diferents de classificadors, que de forma paral·lela i automàtica obtenen els òptims segons els paràmetres dels mateixos. Finalment, es analitza els resultats i es realitza la selecció del sistema de diagnòstic òptim. El suprasistema construït en aquesta tesi aporta els següents avantatges: 1. Obtenir un sistema de diagnosi òptim final. 2. Obté diversos sistemes de diagnosi localment amb els temps del procés d'entrament i el temps de diagnosi 3. Es totalment autònom. 4. Es adaptable y pot generar un sistema de diagnosi específi / Burriel Valencia, J. (2016). Aplicación de sistemas de autoaprendizaje al diagnóstico de máquinas eléctricas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68498 / TESIS
6

Clasificación Jerárquica Multiclase

Silva Palacios, Daniel Andrés 28 May 2021 (has links)
[ES] La sociedad moderna se ha visto afectada por los acelerados avances de la tecnología. La aplicación de la inteligencia artificial se puede encontrar en todas partes, desde la televisión inteligente hasta los coches autónomos. Una tarea esencial del aprendizaje automático es la clasificación. A pesar de la cantidad de técnicas y algoritmos de clasificación que existen, es un campo que sigue siendo relevante por todas sus aplicaciones. Así, frente a la clasificación tradicional multiclase en la que a cada instancia se le asigna una única etiqueta de clase, se han propuesto otros métodos como la clasificación jerárquica y la clasificación multietiqueta. Esta tesis tiene como objetivo resolver la clasificación multiclase mediante una descomposición jerárquica. Asimismo, se exploran diferentes métodos de extender la aproximación definida para su aplicación en contextos cambiantes. La clasificación jerárquica es una tarea de aprendizaje automático en la que el problema de clasificación original se divide en pequeños subproblemas. Esta división se realiza teniendo en cuenta una estructura jerárquica que representa las relaciones entre las clases objetivo. Como resultado el clasificador jerárquico es a su vez una estructura (un árbol o un grafo) compuesta por clasificadores de base. Hasta ahora, en la literatura, la clasificación jerárquica se ha aplicado a dominios jerárquicos, independientemente que la estructura jerárquica sea proporcionada explícitamente o se asume implícita (en cuyo caso se hace necesario inferir primero dicha estructura jerárquica). La clasificación jerárquica ha demostrado un mejor rendimiento en dominios jerárquicos en comparación con la clasificación plana (que no tiene en cuenta la estructura jerárquica del dominio). En esta tesis, proponemos resolver los problemas de clasificación multiclase descomponiéndolo jerárquicamente de acuerdo a una jerarquía de clases inferida por un clasificador plano. Planteamos dos escenarios dependiendo del tipo de clasificador usado en la jerarquía de clasificadores: clasificadores duros (crisp) y clasificadores suaves (soft). Por otra parte, un problema de clasificación puede sufrir cambios una vez los modelos han sido entrenados. Un cambio frecuente es la aparición de una nueva clase objetivo. Dado que los clasificadores no han sido entrenados con datos pertenecientes a la nueva clase, no podrán encontrar predicciones correctas para las nuevas instancias, lo que afectará negativamente en el rendimiento de los clasificadores. Este problema se puede resolver mediante dos alternativas: el reentrenamiento de todo el modelo o la adaptación del modelo para responder a esta nueva situación. Como parte del estudio de los algoritmos de clasificación jerárquica se presentan varios métodos para adaptar el modelo a los cambios en las clases objetivo. Los métodos y aproximaciones definidas en la tesis se han evaluado experimentalmente con una amplia colección de conjuntos de datos que presentan diferentes características, usando diferentes técnicas de aprendizaje para generar los clasificadores de base. En general, los resultados muestran que los métodos propuestos pueden ser una alternativa a métodos tradicionales y otras técnicas presentadas en la literatura para abordar las situaciones específicas planteadas. / [CA] La societat moderna s'ha vist afectada pels accelerats avenços de la tecnologia. L'aplicació de la intel·ligència artificial es pot trobar a tot arreu, des de la televisió intel·ligent fins als cotxes autònoms. Una tasca essencial de l'aprenentatge automàtic és la classificació. Tot i la quantitat de tècniques i algoritmes de classificació que existeixen, és un camp que segueix sent rellevant per totes les seves aplicacions. Així, enfront de la classificació tradicional multiclase en la qual a cada instància se li assigna una única etiqueta de classe, s'han proposat altres mètodes com la classificació jeràrquica i la classificació multietiqueta. Aquesta tesi té com a objectiu resoldre la classificació multiclase mitjançant una descomposició jeràrquica. Així mateix, s'exploren diferents mètodes d'estendre l'aproximació definida per a la seva aplicació en contextos canviants. La classificació jeràrquica és una tasca d'aprenentatge automàtic en la qual el problema de classificació original es divideix en petits subproblemes. Aquesta divisió es realitza tenint en compte una estructura jeràrquica que representa les relacions entre les classes objectiu. Com a resultat el classificador jeràrquic és al seu torn una estructura (un arbre o un graf) composta per classificadors de base. Fins ara, en la literatura, la classificació jeràrquica s'ha aplicat a dominis jeràrquics, independentment que l'estructura jeràrquica sigui proporcionada explícitament o s'assumeix implícita (en aquest cas es fa necessari inferir primer aquesta estructura jeràrquica). La classificació jeràrquica ha demostrat un millor rendiment en dominis jeràrquics en comparació amb la classificació plana (que no té en compte l'estructura jeràrquica de l'domini). En aquesta tesi, proposem resoldre els problemes de classificació multiclasse descomponent jeràrquicament d'acord a una jerarquia de classes inferida per un classificador pla. Plantegem dos escenaris depenent de el tipus de classificador usat en la jerarquia de classificadors: classificadors durs (crisp) i classificadors suaus (soft). D'altra banda, un problema de classificació pot patir canvis una vegada els models han estat entrenats. Un canvi freqüent és l'aparició d'una nova classe objectiu. Atès que els classificadors no han estat entrenats amb dades pertanyents a la nova classe, no podran trobar prediccions correctes per a les noves instàncies, el que afectarà negativament en el rendiment dels classificadors. Aquest problema es pot resoldre mitjançant dues alternatives: el reentrenament de tot el model o l'adaptació de el model per respondre a aquesta nova situació. Com a part de l'estudi dels algoritmes de classificació jeràrquica es presenten diversos mètodes per adaptar el model als canvis en les classes objectiu. Els mètodes i aproximacions definides en la tesi s'han avaluat experimentalment amb una àmplia col·lecció de conjunts de dades que presenten diferents característiques, usant diferents tècniques d'aprenentatge per generar els classificadors de base. En general, els resultats mostren que els mètodes proposats poden ser una alternativa a mètodes tradicionals i altres tècniques presentades en la literatura per abordar les situacions específiques plantejades. / [EN] The modern society has been affected by rapid advances in technology. The application of artificial intelligence can be found everywhere, from intelligent television to autonomous cars. An essential task of machine learning is classification. Despite the number of classification techniques and algorithms that exist, it is a field that remains relevant for all its applications. Thus, as opposed to the traditional multiclass classification in which each instance is assigned a single class label, other methods such as hierarchical classification and multi-label classification have been proposed. This thesis aims to solve multiclass classification by means of a hierarchical decomposition. Also, different methods of extending the defined approach are explored for application in changing contexts. Hierarchical classification is an automatic learning task in which the original classification problem is divided into small sub-problems. This division is made taking into account a hierarchical structure that represents the relationships between the target classes. As a result the hierarchical classifier is itself a structure (a tree or a graph) composed of base classifiers. Up to now, in the literature, hierarchical classification has been applied to hierarchical domains, regardless of whether the hierarchical structure is explicitly provided or assumed to be implicit (in which case it becomes necessary to first infer the hierarchical structure). Hierarchical classification has demonstrated better performance in hierarchical domains compared to flat classification (which does not take into account the hierarchical structure of the domain). In this thesis, we propose to solve the problems of multiclass classification by breaking it down hierarchically according to a class hierarchy inferred by a plane classifier. We propose two scenarios depending on the type of classifier used in the classifier hierarchy: hard classifiers (crisp) and soft classifiers (soft). On the other hand, a classification problem may change once the models have been trained. A frequent change is the appearance of a new target class. Since the existing classifiers have not been trained with data belonging to the new class, they will not be able to find correct predictions for the new instances, which will negatively affect the performance of the classifiers. This problem can be solved by two alternatives: retraining the entire model or adapting the model to respond to this new situation. As part of the study of hierarchical classification algorithms, several methods are presented to adapt the model to changes in target classes. The methods and approaches defined in the thesis have been evaluated experimentally with a large collection of data sets that have different characteristics, using different learning techniques to generate the base classifiers. In general, the results show that the proposed methods can be an alternative to traditional methods and other techniques presented in the literature to address the specific situations raised. / Silva Palacios, DA. (2021). Clasificación Jerárquica Multiclase [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/167015 / TESIS
7

New Challenges in Learning Classifier Systems: Mining Rarities and Evolving Fuzzy Models

Orriols Puig, Albert 12 December 2008 (has links)
Durant l'última dècada, els sistemes classificadors (LCS) d'estil Michigan - sistemes d'aprenentatge automàtic que combinen tècniques de repartiment de crèdit i algorismes genètics (AG) per evolucionar una població de classificadors online- han renascut. Juntament amb la formulació dels sistemes de primera generació, s'han produït avenços importants en (1) el disseny sistemàtic de nous LCS competents, (2) la seva aplicació en dominis rellevants i (3) el desenvolupament d'anàlisis teòriques. Malgrat aquests dissenys i aplicacions importants, encara hi ha reptes complexos que cal abordar per comprendre millor el funcionament dels LCS i per solucionar problemes del món real eficientment i escalable.Aquesta tesi tracta dos reptes importants - compartits amb la comunitat d'aprenentatge automàtic - amb LCS d'estil Michigan: (1) aprenentatge en dominis que contenen classes estranyes i (2) evolució de models comprensibles on s'utilitzin mètodes de raonament similars als humans. L'aprenentatge de models precisos de classes estranyes és crític, doncs el coneixement clau sol quedar amagat en exemples d'aquestes, i la majoria de tècniques d'aprenentatge no són capaces de modelar la raresa amb precisió. La detecció de rareses sol ser complicat en aprenentatge online ja que el sistema d'aprenentatge rep un flux d'exemples i ha de detectar les rareses al vol. D'altra banda, l'evolució de models comprensibles és crucial en certs dominis com el mèdic, on l'expert acostuma a estar més interessat en obtenir una explicació intel·ligible de la predicció que en la predicció en si mateixa.El treball present considera dos LCS d'estil Michigan com a punt de partida: l'XCS i l 'UCS. Es pren l'XCS com a primera referència ja que és l'LCS que ha tingut més influencia fins al moment. L'UCS hereta els components principals de l'XCS i els especialitza per aprenentatge supervisat. Tenint en compte que aquesta tesi especialment se centra en problemes de classificació, l'UCS també es considera en aquest estudi. La inclusió de l'UCS marca el primer objectiu de la tesi, sota el qual es revisen un conjunt de punts que van restar oberts en el disseny del sistema. A més, per il·lustrar les diferències claus entre l'XCS i l'UCS, es comparen ambdós sistemes sobre una bateria de problemes artificials de complexitat acotada.L'estudi de com els LCS aprenen en dominis amb classes estranyes comença amb un estudi analític que descompon el problema en cinc elements crítics i deriva models per facetes per cadascun d'ells. Aquesta anàlisi s'usa com a eina per dissenyar guies de configuració que permeten que l'XCS i l'UCS solucionin problemes que prèviament no eren resolubles. A continuació, es comparen els dos LCS amb alguns dels sistemes d'aprenentatge amb més influencia en la comunitat d'aprenentatge automàtic sobre una col·lecció de problemes del món real que contenen classes estranyes. Els resultats indiquen que els dos LCS són els mètodes més robustos de la comparativa. Així mateix, es demostra experimentalment que remostrejar els conjunts d'entrenament amb l'objectiu d'eliminar la presencia de classes estranyes beneficia, en mitjana, el rendiment de les tècniques d'aprenentatge.El repte de crear models més comprensibles i d'usar mecanismes de raonament que siguin similars als humans s'aborda mitjançant el disseny d'un nou LCS per aprenentatge supervisat que combina les capacitats d'avaluació de regles online, la robustesa mostrada pels AG en problemes complexos i la representació comprensible i mètodes de raonament fonamentats proporcionats per la lògica difusa. El nou LCS, anomenat Fuzzy-UCS, s'estudia en detall i es compara amb una bateria de mètodes d'aprenentatge. Els resultats de la comparativa demostren la competitivitat del Fuzzy-UCS en termes de precisió i intel·ligibilitat dels models evolucionats. Addicionalment, s'usa Fuzzy-UCS per extreure models de classificació acurats de grans volums de dades, exemplificant els avantatges de l'arquitectura d'aprenentatge online del Fuzzy-UCS.En general, les observacions i avenços assolits en aquesta tesi contribueixen a augmentar la comprensió del funcionament dels LCS i en preparar aquests tipus de sistemes per afrontar problemes del món real de gran complexitat. Finalment, els resultats experimentals ressalten la robustesa i competitivitat dels LCS respecte a altres mètodes d'aprenentatge, encoratjant el seu ús per tractar nous problemes del món real. / Durante la última década, los sistemas clasificadores (LCS) de estilo Michigan - sistemas de aprendizaje automático que combinan técnicas de repartición de crédito y algoritmos genéticos (AG) para evolucionar una población de clasificadores online - han renacido. Juntamente con la formulación de los sistemas de primera generación, se han producido avances importantes en (1) el diseño sistemático de nuevos LCS competentes, (2) su aplicación en dominios relevantes y (3) el desarrollo de análisis teóricos. Pese a eso, aún existen retos complejos que deben ser abordados para comprender mejor el funcionamiento de los LCS y para solucionar problemas del mundo real escalable y eficientemente.Esta tesis trata dos retos importantes - compartidos por la comunidad de aprendizaje automático - con LCS de estilo Michigan: (1) aprendizaje en dominios con clases raras y (2) evolución de modelos comprensibles donde se utilicen métodos de razonamiento similares a los humanos. El aprendizaje de modelos precisos de clases raras es crítico pues el conocimiento clave suele estar escondido en ejemplos de estas clases, y la mayoría de técnicas de aprendizaje no son capaces de modelar la rareza con precisión. El modelado de las rarezas acostumbra a ser más complejo en entornos de aprendizaje online, pues el sistema de aprendizaje recibe un flujo de ejemplos y debe detectar las rarezas al vuelo. La evolución de modelos comprensibles es crucial en ciertos dominios como el médico, donde el experto está más interesado en obtener una explicación inteligible de la predicción que en la predicción en sí misma.El trabajo presente considera dos LCS de estilo Michigan como punto de partida: el XCS y el UCS. Se toma XCS como primera referencia debido a que es el LCS que ha tenido más influencia hasta el momento. UCS es un diseño reciente de LCS que hereda los componentes principales de XCS y los especializa para aprendizaje supervisado. Dado que esta tesis está especialmente centrada en problemas de clasificación automática, también se considera UCS en el estudio. La inclusión de UCS marca el primer objetivo de la tesis, bajo el cual se revisan un conjunto de aspectos que quedaron abiertos durante el diseño del sistema. Además, para ilustrar las diferencias claves entre XCS y UCS, se comparan ambos sistemas sobre una batería de problemas artificiales de complejidad acotada.El estudio de cómo los LCS aprenden en dominios con clases raras empieza con un estudio analítico que descompone el problema en cinco elementos críticos y deriva modelos por facetas para cada uno de ellos. Este análisis se usa como herramienta para diseñar guías de configuración que permiten que XCS y UCS solucionen problemas que previamente no eran resolubles. A continuación, se comparan los dos LCS con algunos de los sistemas de aprendizaje de mayor influencia en la comunidad de aprendizaje automático sobre una colección de problemas del mundo real que contienen clases raras.Los resultados indican que los dos LCS son los métodos más robustos de la comparativa. Además, se demuestra experimentalmente que remuestrear los conjuntos de entrenamiento con el objetivo de eliminar la presencia de clases raras beneficia, en promedio, el rendimiento de los métodos de aprendizaje automático incluidos en la comparativa.El reto de crear modelos más comprensibles y usar mecanismos de razonamiento que sean similares a los humanos se aborda mediante el diseño de un nuevo LCS para aprendizaje supervisado que combina las capacidades de evaluación de reglas online, la robustez mostrada por los AG en problemas complejos y la representación comprensible y métodos de razonamiento proporcionados por la lógica difusa. El sistema que resulta de la combinación de estas ideas, llamado Fuzzy-UCS, se estudia en detalle y se compara con una batería de métodos de aprendizaje altamente reconocidos en el campo de aprendizaje automático. Los resultados de la comparativa demuestran la competitividad de Fuzzy-UCS en referencia a la precisión e inteligibilidad de los modelos evolucionados. Adicionalmente, se usa Fuzzy-UCS para extraer modelos de clasificación precisos de grandes volúmenes de datos, ejemplificando las ventajas de la arquitectura de aprendizaje online de Fuzzy-UCS.En general, los avances y observaciones proporcionados en la tesis presente contribuyen a aumentar la comprensión del funcionamiento de los LCS y a preparar estos tipos de sistemas para afrontar problemas del mundo real de gran complejidad. Además, los resultados experimentales resaltan la robustez y competitividad de los LCS respecto a otros métodos de aprendizaje, alentando su uso para tratar nuevos problemas del mundo real. / During the last decade, Michigan-style learning classifier systems (LCSs) - genetic-based machine learning (GBML) methods that combine apportionment of credit techniques and genetic algorithms (GAs) to evolve a population of classifiers online - have been enjoying a renaissance. Together with the formulation of first generation systems, there have been crucial advances in (1) systematic design of new competent LCSs, (2) applications in important domains, and (3) theoretical analyses for design. Despite these successful designs and applications, there still remain difficult challenges that need to be addressed to increase our comprehension of how LCSs behave and to scalably and efficiently solve real-world problems.The purpose of this thesis is to address two important challenges - shared by the machine learning community - with Michigan-style LCSs: (1) learning from domains that contain rare classes and (2) evolving highly legible models in which human-like reasoning mechanisms are employed. Extracting accurate models from rare classes is critical since the key, unperceptive knowledge usually resides in the rarities, and many traditional learning techniques are not able to model rarity accurately. Besides, these difficulties are increased in online learning, where the learner receives a stream of examples and has to detect rare classes on the fly. Evolving highly legible models is crucial in some domains such as medical diagnosis, in which human experts may be more interested in the explanation of the prediction than in the prediction itself.The contributions of this thesis take two Michigan-style LCSs as starting point: the extended classifier system (XCS) and the supervised classifier system (UCS). XCS is taken as the first reference of this work since it is the most influential LCS. UCS is a recent LCS design that has inherited the main components of XCS and has specialized them for supervised learning. As this thesis is especially concerned with classification problems, UCS is also considered in this study. Since UCS is still a young system, for which there are several open issues that need further investigation, its learning architecture is first revised and updated. Moreover, to illustrate the key differences between XCS and UCS, the behavior of both systems is compared % and show that UCS converges quickly than XCS on a collection of boundedly difficult problems.The study of learning from rare classes with LCSs starts with an analytical approach in which the problem is decomposed in five critical elements, and facetwise models are derived for each element. The analysis is used as a tool for designing configuration guidelines that enable XCS and UCS to solve problems that previously eluded solution. Thereafter, the two LCSs are compared with several highly-influential learners on a collection of real-world problems with rare classes, appearing as the two best techniques of the comparison. Moreover, re-sampling the training data set to eliminate the presence of rare classes is demonstrated to benefit, on average, the performance of LCSs.The challenge of building more legible models and using human-like reasoning mechanisms is addressed with the design of a new LCS for supervised learning that combines the online evaluation capabilities of LCSs, the search robustness over complex spaces of GAs, and the legible knowledge representation and principled reasoning mechanisms of fuzzy logic. The system resulting from this crossbreeding of ideas, referred to as Fuzzy-UCS, is studied in detail and compared with several highly competent learning systems, demonstrating the competitiveness of the new architecture in terms of the accuracy and the interpretability of the evolved models. In addition, the benefits provided by the online architecture are exemplified by extracting accurate classification models from large data sets.Overall, the advances and key insights provided in this thesis help advance our understanding of how LCSs work and prepare these types of systems to face increasingly difficult problems, which abound in current industrial and scientific applications. Furthermore, experimental results highlight the robustness and competitiveness of LCSs with respect to other machine learning techniques, which encourages their use to face new challenging real-world applications.
8

Interconnection Architecture of Proximity Smart IoE-Networks with Centralised Management

González Ramírez, Pedro Luis 07 April 2022 (has links)
[ES] La interoperabilidad entre los objetos comunicados es el objetivo principal del internet de las cosas (IoT). Algunos esfuerzos para lograrlo han generado diversas propuestas de arquitecturas, sin embargo, aún no se ha llegado a un conceso. Estas arquitecturas difieren en el tipo de estructura, grado de centralización, algoritmo de enrutamiento, métricas de enrutamiento, técnicas de descubrimiento, algoritmos de búsqueda, segmentación, calidad de servicio y seguridad, entre otros. Algunas son mejores que otras, dependiendo del entorno en el que se desempeñan y del tipo de parámetro que se use. Las más populares son las orientadas a eventos o acciones basadas en reglas, las cuales han permitido que IoT ingrese en el mercado y logre una rápida masificación. Sin embargo, su interoperabilidad se basa en alianzas entre fabricantes para lograr su compatibilidad. Esta solución se logra en la nube con una plataforma que unifica a las diferentes marcas aliadas. Esto permite la introducción de estas tecnologías a la vida común de los usuarios pero no resuelve problemas de autonomía ni de interoperabilidad. Además, no incluye a la nueva generación de redes inteligentes basadas en cosas inteligentes. La arquitectura propuesta en esta tesis toma los aspectos más relevantes de las cuatro arquitecturas IoT más aceptadas y las integra en una, separando la capa IoT (comúnmente presente en estas arquitecturas), en tres capas. Además, está pensada para abarcar redes de proximidad (integrando diferentes tecnologías de interconexión IoT) y basar su funcionamiento en inteligencia artificial (AI). Por lo tanto, esta propuesta aumenta la posibilidad de lograr la interoperabilidad esperada y aumenta la funcionalidad de cada objeto en la red enfocada en prestar un servicio al usuario. Aunque el sistema que se propone incluye el procesamiento de una inteligencia artificial, sigue los mismos aspectos técnicos que sus antecesoras, ya que su operación y comunicación continúan basándose en la capa de aplicación y trasporte de la pila de protocolo TCP/IP. Sin embargo, con el fin de aprovechar los protocolos IoT sin modificar su funcionamiento, se crea un protocolo adicional que se encapsula y adapta a su carga útil. Se trata de un protocolo que se encarga de descubrir las características de un objeto (DFSP) divididas en funciones, servicios, capacidades y recursos, y las extrae para centralizarla en el administrador de la red (IoT-Gateway). Con esta información el IoT-Gateway puede tomar decisiones como crear grupos de trabajo autónomos que presten un servicio al usuario y enrutar a los objetos de este grupo que prestan el servicio, además de medir la calidad de la experiencia (QoE) del servicio; también administra el acceso a internet e integra a otras redes IoT, utilizando inteligencia artificial en la nube. Al basarse esta propuesta en un nuevo sistema jerárquico para interconectar objetos de diferente tipo controlados por AI con una gestión centralizada, se reduce la tolerancia a fallos y seguridad, y se mejora el procesamiento de los datos. Los datos son preprocesados en tres niveles dependiendo del tipo de servicio y enviados a través de una interfaz. Sin embargo, si se trata de datos sobre sus características estos no requieren mucho procesamiento, por lo que cada objeto los preprocesa de forma independiente, los estructura y los envía a la administración central. La red IoT basada en esta arquitectura tiene la capacidad de clasificar un objeto nuevo que llegue a la red en un grupo de trabajo sin la intervención del usuario. Además de tener la capacidad de prestar un servicio que requiera un alto procesamiento (por ejemplo, multimedia), y un seguimiento del usuario en otras redes IoT a través de la nube. / [CA] La interoperabilitat entre els objectes comunicats és l'objectiu principal de la internet de les coses (IoT). Alguns esforços per aconseguir-ho han generat diverses propostes d'arquitectures, però, encara no s'arriba a un concens. Aquestes arquitectures difereixen en el tipus d'estructura, grau de centralització, algoritme d'encaminament, mètriques d'enrutament, tècniques de descobriment, algoritmes de cerca, segmentació, qualitat de servei i seguretat entre d'altres. Algunes són millors que altres depenent de l'entorn en què es desenvolupen i de el tipus de paràmetre que es faci servir. Les més populars són les orientades a esdeveniments o accions basades en regles. Les quals li han permès entrar al mercat i aconseguir una ràpida massificació. No obstant això, la seva interoperabilitat es basa en aliances entre fabricants per aconseguir la seva compatibilitat. Aquesta solució s'aconsegueix en el núvol amb una plataforma que unifica les diferents marques aliades. Això permet la introducció d'aquestes tecnologies a la vida comuna dels usuaris però no resol problemes d'autonomia ni d'interoperabilitat. A més, no inclou a la nova generació de xarxes intel·ligents basades en coses intel·ligents. L'arquitectura proposada en aquesta tesi, pren els aspectes més rellevants de les quatre arquitectures IoT mes acceptades i les integra en una, separant la capa IoT (comunament present en aquestes arquitectures), en tres capes. A més aquesta pensada en abastar xarxes de proximitat (integrant diferents tecnologies d'interconnexió IoT) i basar el seu funcionament en intel·ligència artificial. Per tant, aquesta proposta augmenta la possibilitat d'aconseguir la interoperabilitat esperada i augmenta la funcionalitat de cada objecte a la xarxa enfocada a prestar un servei a l'usuari. Tot i que el sistema que es proposa inclou el processament d'una intel·ligència artificial, segueix els mateixos aspectes tècnics que les seves antecessores, ja que, la seva operació i comunicació se segueix basant en la capa d'aplicació i transport de la pila de protocol TCP / IP. No obstant això, per tal d'aprofitar els protocols IoT sense modificar el seu funcionament es crea un protocol addicional que s'encapsula i s'adapta a la seva càrrega útil. Es tracta d'un protocol que s'encarrega de descobrir les característiques d'un objecte (DFSP) dividides en funcions, serveis, capacitats i recursos, i les extreu per centralitzar-la en l'administrador de la xarxa (IoT-Gateway). Amb aquesta informació l'IoT-Gateway pot prendre decisions com crear grups de treball autònoms que prestin un servei a l'usuari i encaminar als objectes d'aquest grup que presten el servei. A més de mesurar la qualitat de l'experiència (QoE) de el servei. També administra l'accés a internet i integra a altres xarxes Iot, utilitzant intel·ligència artificial en el núvol. A l'basar-se aquesta proposta en un nou sistema jeràrquic per interconnectar objectes de diferent tipus controlats per AI amb una gestió centralitzada, es redueix la tolerància a fallades i seguretat, i es millora el processament de les dades. Les dades són processats en tres nivells depenent de el tipus de servei i enviats a través d'una interfície. No obstant això, si es tracta de dades sobre les seves característiques aquests no requereixen molt processament, de manera que cada objecte els processa de forma independent, els estructura i els envia a l'administració central. La xarxa IoT basada en aquesta arquitectura té la capacitat de classificar un objecte nou que arribi a la xarxa en un grup de treball sense la intervenció de l'usuari. A més de tenir la capacitat de prestar un servei que requereixi un alt processament (per exemple multimèdia), i un seguiment de l'usuari en altres xarxes IoT a través del núvol. / [EN] Interoperability between communicating objects is the main goal of the Internet of Things (IoT). Efforts to achieve this have generated several architectures' proposals; however, no consensus has yet been reached. These architectures differ in structure, degree of centralisation, routing algorithm, routing metrics, discovery techniques, search algorithms, segmentation, quality of service, and security. Some are better than others depending on the environment in which they perform, and the type of parameter used. The most popular are those oriented to events or actions based on rules, which has allowed them to enter the market and achieve rapid massification. However, their interoperability is based on alliances between manufacturers to achieve compatibility. This solution is achieved in the cloud with a dashboard that unifies the different allied brands, allowing the introduction of these technologies into users' everyday lives but does not solve problems of autonomy or interoperability. Moreover, it does not include the new generation of smart grids based on smart things. The architecture proposed in this thesis takes the most relevant aspects of the four most accepted IoT-Architectures and integrates them into one, separating the IoT layer (commonly present in these architectures) into three layers. It is also intended to cover proximity networks (integrating different IoT interconnection technologies) and base its operation on artificial intelligence (AI). Therefore, this proposal increases the possibility of achieving the expected interoperability and increases the functionality of each object in the network focused on providing a service to the user. Although the proposed system includes artificial intelligence processing, it follows the same technical aspects as its predecessors since its operation and communication is still based on the application and transport layer of the TCP/IP protocol stack. However, in order to take advantage of IoT-Protocols without modifying their operation, an additional protocol is created that encapsulates and adapts to its payload. This protocol discovers the features of an object (DFSP) divided into functions, services, capabilities, and resources, and extracts them to be centralised in the network manager (IoT-Gateway). With this information, the IoT-Gateway can make decisions such as creating autonomous workgroups that provide a service to the user and routing the objects in this group that provide the service. It also measures the quality of experience (QoE) of the service. Moreover, manages internet access and integrates with other IoT-Networks, using artificial intelligence in the cloud. This proposal is based on a new hierarchical system for interconnecting objects of different types controlled by AI with centralised management, reducing the fault tolerance and security, and improving data processing. Data is preprocessed on three levels depending on the type of service and sent through an interface. However, if it is data about its features, it does not require much processing, so each object preprocesses it independently, structures it and sends it to the central administration. The IoT-Network based on this architecture can classify a new object arriving on the network in a workgroup without user intervention. It also can provide a service that requires high processing (e.g., multimedia), and user tracking in other IoT-Networks through the cloud. / González Ramírez, PL. (2022). Interconnection Architecture of Proximity Smart IoE-Networks with Centralised Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181892 / TESIS

Page generated in 0.1033 seconds