• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 15
  • 15
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Acquisition of Fuzzy Measures in Multicriteria Decision Making Using Similarity-based Reasoning

Wagholikar, Amol S, N/A January 2007 (has links)
Continuous development has been occurring in the area of decision support systems. Modern systems focus on applying decision models that can provide intelligent support to the decision maker. These systems focus on modelling the human reasoning process in situations requiring decision. This task may be achieved by using an appropriate decision model. Multicriteria decision making (MCDM) is a common decision making approach. This research investigates and seeks a way to resolve various issues associated with the application of this model. MCDM is a formal and systematic decision making approach that evaluates a given set of alternatives against a given set of criteria. The global evaluation of alternatives is determined through the process of aggregation. It is well established that the aggregation process should consider the importance of criteria while determining the overall worth of an alternative. The importance of individual criteria and of sub-sets of the criteria affects the global evaluation. The aggregation also needs to consider the importance of the sub-set of criteria. Most decision problems involve dependent criteria and the interaction between the criteria needs to be modelled. Traditional aggregation approaches, such as weighted average, do not model the interaction between the criteria. Non-additive measures such as fuzzy measures model the interaction between the criteria. However, determination of non-additive measures in a practical application is problematic. Various approaches have been proposed to resolve the difficulty in acquisition of fuzzy measures. These approaches mainly propose use of past precedents. This research extends this notion and proposes an approach based on similarity-based reasoning. Solutions to the past problems can be used to solve the new decision problems. This is the central idea behind the proposed methodology. The methodology itself applies the theory of reasoning by analogy for solving MCDM problems. This methodology uses a repository of cases of past decision problems. This case base is used to determine the fuzzy measures for the new decision problem. This work also analyses various similarity measures. The illustration of the proposed methodology in a case-based decision support system shows that interactive models are suitable tools for determining fuzzy measures in a given decision problem. This research makes an important contribution by proposing a similarity-based approach for acquisition of fuzzy measures.
2

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
3

Machine Learning-based Prediction and Characterization of Drug-drug Interactions

Yella, Jaswanth January 2018 (has links)
No description available.
4

Document Forensics Through Textual Analysis

Belvisi, Nicole Mariah Sharon January 2019 (has links)
This project aims at giving a brief overview of the area of research called Authorship Analysis with main focus on Authorship Attribution and the existing methods. The second objective of this project is to test whether one of the main approaches in the field can be still be applied successfully to today's new ways of communicating. The study uses multiple stylometric features to establish the authorship of a text as well as a model based on the TF-IDF model.
5

Category Knowledge, Skeleton-based Shape Matching And Shape Classification

Erdem, Ibrahim Aykut 01 October 2008 (has links) (PDF)
Skeletal shape representations, in spite of their structural instabilities, have proven themselves as effective representation schemes for recognition and classification of visual shapes. They capture part structure in a compact and natural way and provide insensitivity to visual transformations such as occlusion and articulation of parts. In this thesis, we explore the potential use of disconnected skeleton representation for shape recognition and shape classification. Specifically, we first investigate the importance of contextual information in recognition where we extend the previously proposed disconnected skeleton based shape matching methods in different ways by incorporating category knowledge into matching process. Unlike the view in syntactic matching of shapes, our interpretation differentiates the semantic roles of the shapes in comparison in a way that a query shape is being matched with a database shape whose category is known a priori. The presence of context, i.e. the knowledge about the category of the database shape, influences the similarity computations, and helps us to obtain better matching performance. Next, we build upon our category-influenced matching framework in which both shapes and shape categories are represented with depth-1 skeletal trees, and develop a similarity-based shape classification method where the category trees formed for each shape category provide a reference set for learning the relationships between categories. As our classification method takes into account both within-category and between-category information, we attain high classification performance. Moreover, using the suggested classification scheme in a retrieval task improves both the efficiency and accuracy of matching by eliminating unrelated comparisons.
6

Detección de anomalías en molino de bolas usando modelos no-paramétricos

López Salazar, Alejandro Hernán January 2013 (has links)
Ingeniero Civil Electricista / La industria de la minería se ha visto expuesta a un mercado cada vez más exigente, factor que ha hecho necesario establecer estrategias claras de mejoramiento de sus políticas de producción con el fin de satisfacer los desafíos que se le presentan. Es por ello que una de las áreas que ha debido reforzar es la del mantenimiento, donde juegan un rol importante los sistemas que se puedan implementar para optimizar tareas tales como la detección y/o predicción de fallas/anomalías, dentro de estrategias de mantenimiento predictivo. Es en este punto donde se centra el aporte de la presente Memoria de Título, ya que su objetivo principal es el de desarrollar una herramienta para poder llevar a cabo la tarea de detección de anomalías para el caso de los molinos de bolas, los que forman parte importante en el proceso de molienda del material particulado. En este estudio se aborda el caso de un molino de bolas con potencia y velocidades nominales de 12 MW y 100 rpm respectivamente, siendo una de sus principales características su accionamiento (gearless) que opera como un motor síncrono de gran escala. Ello tiene algunas desventajas, como el presentar fallas que otros molinos no tienen; considérese por ejemplo un mayor riesgo de que sus polos magnéticos resulten quemados. Precisamente este modo de falla motiva el trabajo desarrollado en esta Memoria de Título, que se centra en la detección de la mencionada anomalía a través de la generación de modelos del proceso y análisis de residuos. Para la generación de residuos se utilizaron Modelos Basados en Similitud (SBM de sus siglas en inglés). Fue implementado un procedimiento para llevar a cabo esta tarea utilizando herramientas estadísticas multivariables, como es el caso del análisis en componentes principales (PCA por sus siglas en inglés) obteniéndose errores relativos (en sus estimaciones) con respecto al conjunto de datos medidos del 0,88% en promedio, lo que resulta menor en comparación con un modelo de regresión lineal, que tuvo un 3,69% mayor error relativo medio. En cuanto al método de detección de anomalías, se hizo uso de un sistema basado en histogramas del error, que compara el vector residual obtenido de un conjunto de datos etiquetado como normal con posibles anomalías. Utiliza como pilar el estudio de funciones de distribución (Chi-Cuadrado), para una significancia del 95%, obteniendo una efectividad del 100%, puesto que cada uno de los datos etiquetados como anómalos fueron detectados. El presente documento pretende ser una base para estudios futuros, asociados a la búsqueda de anomalías en otras maquinarias y análisis de otros modos de fallas.
7

Prognostics and Health Management of Engineering Systems Using Minimal Sensing Techniques

Davari Ardakani, Hossein 09 September 2016 (has links)
No description available.
8

Predição de séries temporais por similaridade / Similarity-based time series prediction

Parmezan, Antonio Rafael Sabino 07 April 2016 (has links)
Um dos maiores desafios em Mineração de Dados é a integração da informação temporal ao seu processo. Esse fato tem desafiado profissionais de diferentes domínios de aplicação e recebido investimentos consideráveis da comunidade científica e empresarial. No contexto de predição de Séries Temporais, os investimentos se concentram no subsídio de pesquisas destinadas à adaptação dos métodos convencionais de Aprendizado de Máquina para a análise de dados na qual o tempo constitui um fator importante. À vista disso, neste trabalho é proposta uma nova extensão do algoritmo de Aprendizado de Máquina k-Nearest Neighbors (kNN) para predição de Séries Temporais, intitulado de kNN - Time Series Prediction with Invariances (kNN-TSPI ). O algoritmo concebido difere da versão convencional pela incorporação de três técnicas para obtenção de invariância à amplitude e deslocamento, invariância à complexidade e tratamento de casamentos triviais. Como demonstrado ao longo desta dissertação de mestrado, o uso simultâneo dessas técnicas proporciona ao kNN-TSPI uma melhor correspondência entre as subsequências de dados e a consulta de referência. Os resultados de uma das avaliações empíricas mais extensas, imparciais e compreensíveis já conduzidas no tema de predição de Séries Temporais evidenciaram, a partir do confronto de dez métodos de projeção, que o algoritmo kNN-TSPI, além de ser conveniente para a predição automática de dados a curto prazo, é competitivo com os métodos estatísticos estado-da-arte ARIMA e SARIMA. Por mais que o modelo SARIMA tenha atingido uma precisão relativamente superior a do método baseado em similaridade, o kNN-TSPI é consideravelmente mais simples de ajustar. A comparação objetiva e subjetiva entre algoritmos estatísticos e de Aprendizado de Máquina para a projeção de dados temporais vem a suprir uma importante lacuna na literatura, a qual foi identificada por meio de uma revisão sistemática seguida de uma meta-análise das publicações selecionadas. Os 95 conjuntos de dados empregados nos experimentos computacionais juntamente com todas as projeções analisadas em termos de Erro Quadrático Médio, coeficiente U de Theil e taxa de acerto Prediction Of Change In Direction encontram-se disponíveis no portal Web ICMC-USP Time Series Prediction Repository. A presente pesquisa abrange também contribuições e resultados significativos em relação às propriedades inerentes à predição baseada em similaridade, sobretudo do ponto de vista prático. Os protocolos experimentais delineados e as diversas conclusões obtidas poderão ser usados como referência para guiar o processo de escolha de modelos, configuração de parâmetros e aplicação dos algoritmos de Inteligência Artificial para predição de Séries Temporais. / One of the major challenges in Data Mining is integrating temporal information into process. This difficulty has challenged professionals several application fields and has been object of considerable investment from scientific and business communities. In the context of Time Series prediction, these investments consist majority of grants for designed research aimed at adapting conventional Machine Learning methods for data analysis problems in which time is an important factor. We propose a novel modification of the k-Nearest Neighbors (kNN) learning algorithm for Time Series prediction, namely the kNN - Time Series Prediction with Invariances (kNN-TSPI). Our proposal differs from the literature by incorporating techniques for amplitude and offset invariance, complexity invariance, and treatment of trivial matches. These three modifications allow more meaningful matching between the reference queries and Time Series subsequences, as we discuss with more details throughout this masters thesis. We have performed one of the most comprehensible empirical evaluations of Time Series prediction, in which we faced the proposed algorithm with ten methods commonly found in literature. The results show that the kNN-TSPI is appropriate for automated short-term projection and is competitive with the state-of-the-art statistical methods ARIMA and SARIMA. Although in our experiments the SARIMA model has reached a slightly higher precision than the similarity based method, the kNN-TSPI is considerably simpler to adjust. The objective and subjective comparisons of statistical and Machine Learning algorithms for temporal data projection fills a major gap in the literature, which was identified through a systematic review followed by a meta-analysis of selected publications. The 95 data sets used in our computational experiments, as well all the projections with respect to Mean Squared Error, Theils U coefficient and hit rate Prediction Of Change In Direction are available online at the ICMC-USP Time Series Prediction Repository. This work also includes contributions and significant results with respect to the properties inherent to similarity-based prediction, especially from the practical point of view. The outlined experimental protocols and our discussion on the usage of them, can be used as a guideline for models selection, parameters setting, and employment of Artificial Intelligence algorithms for Time Series prediction.
9

Predição de séries temporais por similaridade / Similarity-based time series prediction

Antonio Rafael Sabino Parmezan 07 April 2016 (has links)
Um dos maiores desafios em Mineração de Dados é a integração da informação temporal ao seu processo. Esse fato tem desafiado profissionais de diferentes domínios de aplicação e recebido investimentos consideráveis da comunidade científica e empresarial. No contexto de predição de Séries Temporais, os investimentos se concentram no subsídio de pesquisas destinadas à adaptação dos métodos convencionais de Aprendizado de Máquina para a análise de dados na qual o tempo constitui um fator importante. À vista disso, neste trabalho é proposta uma nova extensão do algoritmo de Aprendizado de Máquina k-Nearest Neighbors (kNN) para predição de Séries Temporais, intitulado de kNN - Time Series Prediction with Invariances (kNN-TSPI ). O algoritmo concebido difere da versão convencional pela incorporação de três técnicas para obtenção de invariância à amplitude e deslocamento, invariância à complexidade e tratamento de casamentos triviais. Como demonstrado ao longo desta dissertação de mestrado, o uso simultâneo dessas técnicas proporciona ao kNN-TSPI uma melhor correspondência entre as subsequências de dados e a consulta de referência. Os resultados de uma das avaliações empíricas mais extensas, imparciais e compreensíveis já conduzidas no tema de predição de Séries Temporais evidenciaram, a partir do confronto de dez métodos de projeção, que o algoritmo kNN-TSPI, além de ser conveniente para a predição automática de dados a curto prazo, é competitivo com os métodos estatísticos estado-da-arte ARIMA e SARIMA. Por mais que o modelo SARIMA tenha atingido uma precisão relativamente superior a do método baseado em similaridade, o kNN-TSPI é consideravelmente mais simples de ajustar. A comparação objetiva e subjetiva entre algoritmos estatísticos e de Aprendizado de Máquina para a projeção de dados temporais vem a suprir uma importante lacuna na literatura, a qual foi identificada por meio de uma revisão sistemática seguida de uma meta-análise das publicações selecionadas. Os 95 conjuntos de dados empregados nos experimentos computacionais juntamente com todas as projeções analisadas em termos de Erro Quadrático Médio, coeficiente U de Theil e taxa de acerto Prediction Of Change In Direction encontram-se disponíveis no portal Web ICMC-USP Time Series Prediction Repository. A presente pesquisa abrange também contribuições e resultados significativos em relação às propriedades inerentes à predição baseada em similaridade, sobretudo do ponto de vista prático. Os protocolos experimentais delineados e as diversas conclusões obtidas poderão ser usados como referência para guiar o processo de escolha de modelos, configuração de parâmetros e aplicação dos algoritmos de Inteligência Artificial para predição de Séries Temporais. / One of the major challenges in Data Mining is integrating temporal information into process. This difficulty has challenged professionals several application fields and has been object of considerable investment from scientific and business communities. In the context of Time Series prediction, these investments consist majority of grants for designed research aimed at adapting conventional Machine Learning methods for data analysis problems in which time is an important factor. We propose a novel modification of the k-Nearest Neighbors (kNN) learning algorithm for Time Series prediction, namely the kNN - Time Series Prediction with Invariances (kNN-TSPI). Our proposal differs from the literature by incorporating techniques for amplitude and offset invariance, complexity invariance, and treatment of trivial matches. These three modifications allow more meaningful matching between the reference queries and Time Series subsequences, as we discuss with more details throughout this masters thesis. We have performed one of the most comprehensible empirical evaluations of Time Series prediction, in which we faced the proposed algorithm with ten methods commonly found in literature. The results show that the kNN-TSPI is appropriate for automated short-term projection and is competitive with the state-of-the-art statistical methods ARIMA and SARIMA. Although in our experiments the SARIMA model has reached a slightly higher precision than the similarity based method, the kNN-TSPI is considerably simpler to adjust. The objective and subjective comparisons of statistical and Machine Learning algorithms for temporal data projection fills a major gap in the literature, which was identified through a systematic review followed by a meta-analysis of selected publications. The 95 data sets used in our computational experiments, as well all the projections with respect to Mean Squared Error, Theils U coefficient and hit rate Prediction Of Change In Direction are available online at the ICMC-USP Time Series Prediction Repository. This work also includes contributions and significant results with respect to the properties inherent to similarity-based prediction, especially from the practical point of view. The outlined experimental protocols and our discussion on the usage of them, can be used as a guideline for models selection, parameters setting, and employment of Artificial Intelligence algorithms for Time Series prediction.
10

Vertex Weighted Spectral Clustering

Masum, Mohammad 01 August 2017 (has links)
Spectral clustering is often used to partition a data set into a specified number of clusters. Both the unweighted and the vertex-weighted approaches use eigenvectors of the Laplacian matrix of a graph. Our focus is on using vertex-weighted methods to refine clustering of observations. An eigenvector corresponding with the second smallest eigenvalue of the Laplacian matrix of a graph is called a Fiedler vector. Coefficients of a Fiedler vector are used to partition vertices of a given graph into two clusters. A vertex of a graph is classified as unassociated if the Fiedler coefficient of the vertex is close to zero compared to the largest Fiedler coefficient of the graph. We propose a vertex-weighted spectral clustering algorithm which incorporates a vector of weights for each vertex of a given graph to form a vertex-weighted graph. The proposed algorithm predicts association of equidistant or nearly equidistant data points from both clusters while the unweighted clustering does not provide association. Finally, we implemented both the unweighted and the vertex-weighted spectral clustering algorithms on several data sets to show that the proposed algorithm works in general.

Page generated in 0.1622 seconds