• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 16
  • 12
  • 5
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 83
  • 41
  • 38
  • 26
  • 22
  • 21
  • 15
  • 15
  • 15
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Identificando padrões comportamentais do tipo avoidance em trajetórias de objetos móveis / Identifying avoidance behavior patterns in moving objects trajectories

Loy, Alisson Moscato January 2011 (has links)
Com o aumento na disponibilidade e considerável redução de custo das tecnologias que permitem a obtenção de dados de objetos móveis, torna-se abundante a oferta de dados de trajetórias. O estudo dessas trajetórias tem por objetivo permitir uma melhor compreensão dos dados, bem como a extração de novo conhecimento utilizando técnicas computacionais. Um tipo de estudo que pode ser realizado é a análise do comportamento das trajetórias de objetos móveis. O foco do estudo de padrões comportamentais em trajetórias tem sido a busca por padrões de aglomeração ou semelhança no deslocamento de entidades no espaço ou espaço-tempo. Este trabalho propõe a formalização de um novo padrão comportamental que indique quando um objeto móvel está evitando determinadas regiões espaciais. Este padrão foi denominado avoidance. A identificação e o estudo de tal comportamento pode ser de interesse de diversas áreas tais como segurança, jogos eletrônicos, comportamento social, entre outros. Inicialmente, este trabalho apresenta uma heurística com base nas observações das ocorrências do evento avoidance. A partir daí, são definidas as formalizações deste novo padrão. É apresentado, também, um algoritmo para identificar automaticamente o padrão comportamental avoidance em trajetórias de objetos móveis. Para avaliar a eficácia deste algoritmo, ao final desta dissertação são apresentados resultados de experimentos realizados em trajetórias coletadas por pedestres e por veículos em diversos locais da cidade de Porto Alegre e Xangri-lá. / With the increasing availability and considerable price reduction of technologies that allow the collection of moving object data, the offering of trajectory data becomes abundant. The study of these trajectories has the objective to allow a better understanding of the data, as well as the extraction of new knowledge using computational techniques. One of the possible studies is the analysis of the behavior of moving objects. The study on behavior patterns in trajectories has focused on agglomeration and similarity of entities moving in space or space and time. This work proposes the formalization of a new behavior pattern that indicates when a moving object is avoiding some determined spatial region, here called avoidance. The study and identification of this behavior may be of interest in many application areas, like security, electronic games, social behavior, and so on. Initially, this work presents an heuristic based on the observations of avoidance events, and based on this heuristic we define the formalization of this new kind of trajectory behavior pattern. This work also presents an algorithm to automatically identify this behavior in trajectories of moving objects. To evaluate the effectiveness of this algorithm, experiments were performed on trajectory datasets, collected by pedestrians in a park, and by vehicles at several places in the cities of Porto Alegre and Xangri-lá.
42

Framework Híbrido para Integração de Ferramentas e Reuso do Conhecimento em Problemas Binários de Mineração de Dados

CUNHA, Rodrigo Carneiro Leão Vieira da 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:50:08Z (GMT). No. of bitstreams: 2 arquivo1928_1.pdf: 1948940 bytes, checksum: ed1bedfc483f596f442e5ff7208e1ed0 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Data Mining surgiu da necessidade de extração do conhecimento a partir de volumosas massas de dados geradas pelas empresas/instituições. Com o crescimento da área e o aumento do poder de processamento dos computadores, as organizações que prestam serviços em KDD (Knowledge Discovery in Database) têm guardado, cada vez mais, um grande número de documentos e processos referentes a projetos executados no passado. Por outro lado, hoje, o desenvolvimento de projetos de Data Mining exige do especialista o uso de diversas ferramentas, linguagens de programação e metodologias associadas à sua experiência para resolução do problema. Um dos maiores problemas práticos de KDD é como prover a interoperabilidade entre diferentes plataformas existentes, de tal forma que os processos fiquem centralizados e documentados em um único ambiente. Outro grande problema, hoje, é a falta de reuso de conhecimento devido à complexidade e forte dependência do usuário. Neste contexto, as experiências adquiridas em projetos anteriores não são devidamente documentadas, gerenciadas e controladas, gerando como conseqüência a repetição de erros dos projetos anteriores. Em outras palavras, outro grande problema prático é a falta de plataformas capazes de fazer o reuso do conhecimento adquirido em projetos realizados no passado. O principal objetivo deste trabalho é criar um framework híbrido para desenvolvimento de soluções em Mineração de Dados que integra diversas ferramentas disponíveis no mercado e disponibiliza um ambiente integrado para reuso do conhecimento na área de KDD. Este ambiente possibilita a centralização e padronização dos artefatos gerados ao longo do processo de KDD, assim como aproveita os melhores recursos de cada ferramenta de mercado disponível. Para validação do framework foram coletados os metadados de 69 projetos reais de mineração de dados, 61 lições aprendidas dos profissionais que trabalharam nestes projetos e 654 entidades de conhecimento (congressos, softwares, publicações etc) da área de KDD. Os estudos apresentados, principalmente para definição do início do projeto, mostraram ser possível, através do framework, entender as características que levaram os projetos a serem um sucesso ou fracasso. Assim, o framework é um ambiente que assegura o desenvolvimento de projetos em KDD de alta qualidade que atende às expectativas do cliente dentro do tempo e orçamento previstos
43

Uma arquitetura de software para descoberta de regras de associação multidimensional, multinível e de outliers em cubos OLAP: um estudo de caso com os algoritmos APriori e FPGrowth

Moreira Tanuro, Carla 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:26Z (GMT). No. of bitstreams: 2 arquivo2236_1.pdf: 2979608 bytes, checksum: 3c3ed256a9de67bd5b716bb15d15cb6c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O processo tradicional de descoberta de conhecimento em bases de dados (KDD Knowledge Discovery in Databases) não contempla etapas de processamento multidimensional e multinível (i.e., processamento OLAP - OnLine Analytical Processing) para minerar cubos de dados. Por conseqüência, a maioria das abordagens de OLAM (OLAP Mining) propõe adaptações no algoritmo minerador. Dado que esta abordagem provê uma solução fortemente acoplada ao algoritmo minerador, ela impede que as adaptações para mineração multidimensional e multinível sejam utilizadas com outros algoritmos. Além disto, grande parte das propostas de OLAM para regras de associação não considera o uso de um servidor OLAP e não tira proveito de todo o potencial multidimensional e multinível presentes nos cubos OLAP. Por estes motivos, algum retrabalho (e.g., re-implementação de operações OLAP) é realizado e padrões possivelmente fortes decorrentes de generalizações não são identificados. Diante desse cenário, este trabalho propõe a arquitetura DOLAM (Decoupled OLAM) para mineração desacoplada de regras de associação multidimensional, multinível e de outliers em cubos OLAP. A arquitetura DOLAM deve ser inserida no processo de KDD (Knowledge Discovery in Databases) como uma etapa de processamento que fica entre as etapas de Pré-Processamento e Transformação de Dados. A arquitetura DOLAM define e implementa três componentes: 1) Detector de Outliers, 2) Explorador de Subcubos e 3) Expansor de Ancestrais. A partir de uma consulta do usuário, estes componentes são capazes de, respectivamente: 1) identificar ruídos significativos nas células do resultado; 2) explorar, recursivamente, todas as células do resultado, de forma a contemplar todas as possibilidades de combinações multidimensional e multinível e 3) recuperar todos os antecessores (generalizações) das células do resultado. O componente central da arquitetura é o Expansor de Ancestrais - o único de uso obrigatório. Ressalta-se que, a partir desses componentes, o processamento OLAM fica desacoplado do algoritmo minerador e permite realizar descobertas mais abrangentes, as quais, por conseqüência, podem retornar padrões potencialmente mais fortes. Como prova de conceito, foi realizado um estudo de caso com dados reais de uma empresa de micro-crédito. O estudo de caso foi implementado em Java, fez uso do servidor OLAP Mondrian e utilizou as implementações dos algoritmos para mineração de regras de associação APriori e FP-Growth do pacote de software Weka
44

Recurrent neural networks for time-series prediction.

Brax, Christoffer January 2000 (has links)
Recurrent neural networks have been used for time-series prediction with good results. In this dissertation recurrent neural networks are compared with time-delayed feed forward networks, feed forward networks and linear regression models on a prediction task. The data used in all experiments is real-world sales data containing two kinds of segments: campaign segments and non-campaign segments. The task is to make predictions of sales under campaigns. It is evaluated if more accurate predictions can be made when only using the campaign segments of the data. Throughout the entire project a knowledge discovery process, identified in the literature has been used to give a structured work-process. The results show that the recurrent network is not better than the other evaluated algorithms, in fact, the time-delayed feed forward neural network showed to give the best predictions. The results also show that more accurate predictions could be made when only using information from campaign segments.
45

Identificación de las tendencias de reclamos presentes en reclamos.cl y que apunten contra instituciones de educación y organizaciones públicas

Beth Madariaga, Daniel Guillermo January 2012 (has links)
Ingeniero Civil Industrial / En la siguiente memoria se busca corroborar, por medio de una experiencia práctica y aplicada, si a caso el uso de las técnicas de Web Opinion Mining (WOM) y de herramientas informáticas, permiten determinar las tendencias generales que pueden poseer un conjunto de opiniones presentes en la Web. Particularmente, los reclamos publicados en el sitio web Reclamos.cl, y que apuntan contra instituciones pertenecientes a las industrias nacionales de Educación y de Gobierno. En ese sentido, los consumidores cada vez están utilizando más la Web para publicar en ella las apreciaciones positivas y negativas que poseen sobre lo que adquieren en el mercado, situación que hace de esta una mina de oro para diversas instituciones, especialmente para lo que es el identificar las fortalezas y las debilidades de los productos y los servicios que ofrecen, su imagen pública, entre varios otros aspectos. Concretamente, el experimento se realiza a través de la confección y la ejecución de una aplicación informática que integra e implementa conceptos de WOM, tales como Knowledge Discovery from Data (KDD), a modo de marco metodológico para alcanzar el objetivo planteado, y Latent Dirichlet Allocation (LDA), para lo que es la detección de tópicos dentro de los contenidos de los reclamos abordados. También se hace uso de programación orientada a objetos, basada en el lenguaje Python, almacenamiento de datos en bases de datos relacionales, y se incorporan herramientas pre fabricadas con tal de simplificar la realización de ciertas tareas requeridas. La ejecución de la aplicación permitió descargar las páginas web en cuyo interior se encontraban los reclamos de interés para la realización experimento, detectando en ellas 6.460 de estos reclamos; los cueles estaban dirigidos hacia 245 instituciones, y cuya fecha de publicación fue entre el 13 de Julio de 2006 y el 5 de Diciembre de 2011. Así también, la aplicación, mediante el uso de listas de palabras a descartar y de herramientas de lematización, procesó los contenidos de los reclamos, dejando en ellos sólo las versiones canónicas de las palabras que los constituían y que aportasen significado a estos. Con ello, la aplicación llevó a cabo varios análisis LDA sobre estos contenidos, los que arbitrariamente se definieron para ser ejecutados por cada institución detectada, tanto sobre el conjunto total de sus reclamos, como en segmentos de estos agrupados por año de publicación, con tal de generar, por cada uno de estos análisis, resultados compuestos por 20 tópicos de 30 palabras cada uno. Con los resultados de los análisis LDA, y mediante una metodología de lectura e interpretación manual de las palabras que constituían cada uno de los conjuntos de tópicos obtenidos, se procedió a generar frases y oraciones que apuntasen a hilarlas, con tal de obtener una interpretación que reflejase la tendencia a la cual los reclamos, representados en estos resultados, apuntaban. De esto se pudo concluir que es posible detectar las tendencias generales de los reclamos mediante el uso de las técnicas de WOM, pero con observaciones al respecto, pues al surgir la determinación de las tendencias desde un proceso de interpretación manual, se pueden generar subjetividades en torno al objeto al que apuntan dichas tendencias, ya sea por los intereses, las experiencias, entre otros, que posea la persona que realice el ejercicio de interpretación de los resultados.
46

O processo de extração de conhecimento de base de dados apoiado por agentes de software. / The process of knowledge discovery in databases supported by software agents.

Robson Butaca Taborelli de Oliveira 01 December 2000 (has links)
Os sistemas de aplicações científicas e comerciais geram, cada vez mais, imensas quantidades de dados os quais dificilmente podem ser analisados sem que sejam usados técnicas e ferramentas adequadas de análise. Além disso, muitas destas aplicações são voltadas para Internet, ou seja, possuem seus dados distribuídos, o que dificulta ainda mais a realização de tarefas como a coleta de dados. A área de Extração de Conhecimento de Base de Dados diz respeito às técnicas e ferramentas usadas para descobrir automaticamente conhecimento embutido nos dados. Num ambiente de rede de computadores, é mais complicado realizar algumas das etapas do processo de KDD, como a coleta e processamento de dados. Dessa forma, pode ser feita a utilização de novas tecnologias na tentativa de auxiliar a execução do processo de descoberta de conhecimento. Os agentes de software são programas de computadores com propriedades, como, autonomia, reatividade e mobilidade, que podem ser utilizados para esta finalidade. Neste sentido, o objetivo deste trabalho é apresentar a proposta de um sistema multi-agente, chamado Minador, para auxiliar na execução e gerenciamento do processo de Extração de Conhecimento de Base de Dados. / Nowadays, commercial and scientific application systems generate huge amounts of data that cannot be easily analyzed without the use of appropriate tools and techniques. A great number of these applications are also based on the Internet which makes it even more difficult to collect data, for instance. The field of Computer Science called Knowledge Discovery in Databases deals with issues of the use and creation of the tools and techniques that allow for the automatic discovery of knowledge from data. Applying these techniques in an Internet environment can be particulary difficult. Thus, new techniques need to be used in order to aid the knowledge discovery process. Software agents are computer programs with properties such as autonomy, reactivity and mobility that can be used in this way. In this context, this work has the main goal of presenting the proposal of a multiagent system, called Minador, aimed at supporting the execution and management of the Knowledge Discovery in Databases process.
47

Vers une approche multidimensionnelle de l'évaluation motrice du sujet amputé

Sagawa, Yoshimasa 29 May 2012 (has links)
Les personnes amputées de membre inférieur (PAMI) sont très diversifiées. Ils’agit d’une population hétérogène, tant par ses origines que par ses niveaux d’amputation, ses capacités et ses projets de vie. A ces profils variés s’ajoutent une multitude de composants prothétiques ainsi que les différentes combinaisons possibles entre ces composants. Il est également important de prendre en compte les différents environnements auxquels la PAMI est confrontée quotidiennement. La Classification Internationale du Fonctionnement (CIF 2001) a été créée par l’Organisation Mondiale de la Santé et repose sur un modèle multidimensionnel. Elle est constituée de deux grandes parties : le fonctionnement d’une part et les facteurs contextuels d’autre part. Ce modèle est capable de décrire de manière globale les modifications de fonctionnement (handicap) à partir d’un problème de santé quelconque. Ainsi, une grande quantité d’informations peut être obtenues à partir du modèle de la CIF. Néanmoins, il demeure nécessaire de développer de nouveaux outils pour mieux exploiter ce modèle afin de le rendre plus intelligible et utilisable en pratique clinique courante. Pour cela, nous nous proposons d’utiliser l’Extraction de Connaissances à partir des Données (ECD). L’ECD est un processus non trivial d'identification des structures inconnues, valide et potentiellement exploitable dans les bases de données, qui permet de transformer un maximum d’informations en connaissances facilement exploitables. A partir du modèle de la CIF et conjointement avec des méthodes d’ECD, l’objectif de cette thèse est de caractériser un groupe de PAMI expertes en termes de capacités locomotrices. Ce groupe et sa liste d’indicateurs pertinents reposant sur le modèle de la CIF ont été déterminés. Ils servent de référence pour la comparaison d’autres PAMI et peuvent guider la prise en charge de cette population particulière. / The subjects with a lower-limb amputation (LLA) compose a heterogeneouspopulation, by their amputation origins, by their amputation levels, by their abilities and by their life projects. To these various LLA’s profiles we could add a multitude of prosthetic components and the combination of these components. It is also important to take into account the different environments, which the LAA are confronted daily. The International Classification of Functioning, Disability and Health (ICF 2001) was created by the Word Heath Organization and is based on a multidimensional model. The ICF is constituted by two domains: the functioning on one hand and the contextual factors on the other hand. This comprehensive-global model is able to describe the functioning (disability) from any health problem. However it remains necessary to develop new tools to better use the ICF model making it more intelligible and useful in clinical practice. For this, we proposed to use the Knowledge Discovery in Database (KDD). KDD is a non-trivial process of identification of unknown, valid and potentially-exploitable structures in database. KDD permits to transform a maximum of information in easy-exploitable knowledge. From the ICF model conjoint with KDD methods, the aim of this thesis was to characterize an expert group of LLA in terms of locomotion capacity. This group and its list of relevant indicators, based on the ICF model, were determined. They can be used as a reference to compare with others LLA improving making decision of this particular population.
48

MACHINE LEARNING ALGORITHMS and THEIR APPLICATIONS in CLASSIFYING CYBER-ATTACKS on a SMART GRID NETWORK

Aribisala, Adedayo, Khan, Mohammad S., Husari, Ghaith 01 January 2021 (has links)
Smart grid architecture and Software-defined Networking (SDN) have evolved into a centrally controlled infrastructure that captures and extracts data in real-time through sensors, smart-meters, and virtual machines. These advances pose a risk and increase the vulnerabilities of these infrastructures to sophisticated cyberattacks like distributed denial of service (DDoS), false data injection attack (FDIA), and Data replay. Integrating machine learning with a network intrusion detection system (NIDS) can improve the system's accuracy and precision when detecting suspicious signatures and network anomalies. Analyzing data in real-time using trained and tested hyperparameters on a network traffic dataset applies to most network infrastructures. The NSL-KDD dataset implemented holds various classes, attack types, protocol suites like TCP, HTTP, and POP, which are critical to packet transmission on a smart grid network. In this paper, we leveraged existing machine learning (ML) algorithms, Support vector machine (SVM), K-nearest neighbor (KNN), Random Forest (RF), Naïve Bayes (NB), and Bagging; to perform a detailed performance comparison of selected classifiers. We propose a multi-level hybrid model of SVM integrated with RF for improved accuracy and precision during network filtering. The hybrid model SVM-RF returned an average accuracy of 94% in 10-fold cross-validation and 92.75%in an 80-20% split during class classification.
49

SISTEMA INTEGRADO DE MONITORAMENTO E CONTROLE DA QUALIDADE DE COMBUSTÍVEL / INTEGRATED SYSTEMS OF TRACKING AND QUALITY CONTROL OF FUEL

Marques, Delano Brandes 27 February 2004 (has links)
Made available in DSpace on 2016-08-17T14:52:51Z (GMT). No. of bitstreams: 1 Delano Brandes Marques.pdf: 3918036 bytes, checksum: 599a5c86f30b5b6799c9afd54e7b5de7 (MD5) Previous issue date: 2004-02-27 / This work aims the implantation of an Integrated System that, besides allowing a better, more efficient and more practical monitoring, makes possible the control and optimization of problems related to the oil industry. In order to guarantee fuel s quality and normalization, the development of efficient tools that allow it s monitoring of any point (anywhere) and for any type of fuel is indispensable. Considering the variety of criteria, a decision making should be based on the evaluation of the most varied types of space data and not space data. In this sense, Knowledge Discovery in Databases process is used, where the Data Warehouse and Data Mining steps allied to a Geographic Information System are emphasized. This system presents as objective including several fuel monitoring regions. From different information obtained in the ANP databases, an analysis was carried out and a Data Warehouse model proposed. In the sequel, Data Mining techniques (Principal Component Analysis, Clustering Analysis and Multiple Regression) were applied to the results in order to obtain knowledge (patterns). / O presente trabalho apresenta estudos que visam a implantação de um Sistema Integrado que, além de permitir um melhor monitoramento, praticidade e eficiência, possibilite o controle e otimização de problemas relacionados à indústria de petróleo. Para garantir qualidade e normalização do combustível, é indispensável o desenvolvimento de ferramentas eficientes que permitam o seu monitoramento de qualquer ponto e para qualquer tipo de combustível. Considerando a variedade dos critérios, uma tomada de decisão deve ser baseada na avaliação dos mais variados tipos de dados espaciais e não espaciais. Para isto, é utilizado o Processo de Descoberta de Conhecimento, onde são enfatizadas as etapas de Data Warehouse e Data Mining aliadas ao conceito de um Sistema de Informação Geográfica. O sistema tem por objetivo abranger várias regiões de monitoramento de combustíveis. A partir do levantamento e análise das diferentes informações usadas nos bancos de dados da ANP foi proposto um modelo de data warehouse. Na seqüência foram aplicadas técnicas de mineração de dados (Análise de Componentes Principais, Análise de Agrupamento e Regressão) visando à obtenção de conhecimento (padrões).
50

Influence of retraint systems during an automobile crash : prediction of injuries for frontal impact sled tests based on biomechanical data mining / Infkuence des systèmes de retenue lors d'un accident automobile : Prédiction des blessures de l'occupant lors d'essais catapultés frontaux basées sur le data mining

Cridelich, Carine caroline 17 December 2015 (has links)
La sécurité automobile est l’une des principales considérations lors de l’achat d’un véhicule. Avant d’ être commercialisée, une voiture doit répondre aux normes de sécurité du pays, ce qui conduit au développement de systèmes de retenue tels que les airbags et ceintures de sécurité. De plus, des ratings comme EURO NCAP et US NCAP permettent d’évaluer de manière indépendante la sécurité de la voiture. Des essais catapultes sont entre autres effectués pour confirmer le niveau de protection du véhicule et les résultats sont généralement basés sur des valeurs de référence des dommages corporels dérivés de paramètres physiques mesurés dans les mannequins.Cette thèse doctorale présente une approche pour le traitement des données d’entrée (c’est-à-dire des paramètres des systèmes de retenue définis par des experts) suivie d’une classification des essais catapultes frontaux selon ces mêmes paramètres. L’étude est uniquement basée sur les données du passager, les données collectées pour le conducteur n’ étant pas assez complètes pour produire des résultats satisfaisants. L’objectif principal est de créer un modèle qui définit l’influence des paramètres d’entrées sur la sévérité des dommages et qui aide les ingénieurs à avoir un ordre de grandeur des résultats des essais catapultes selon la législation ou le rating choisi. Les valeurs biomécaniques du mannequin (outputs du modèle) ont été regroupées en clusters dans le but de définir des niveaux de dommages corporels. Le modèle ainsi que les différents algorithmes ont été implémentés dans un programme pour une meilleur utilisation quotidienne. / Safety is one of the most important considerations when buying a new car. The car has to achievecrash tests defined by the legislation before being selling in a country, what drives to the developmentof safety systems such as airbags and seat belts. Additionally, ratings like EURO NCAP and US NCAPenable to provide an independent evaluation of the car safety. Frontal sled tests are thus carried outto confirm the protection level of the vehicle and the results are mainly based on injury assessmentreference values derived from physical parameters measured in dummies.This doctoral thesis presents an approach for the treatment of the input data (i.e. parameters ofthe restraint systems defined by experts) followed by a classification of frontal sled tests accordingto those parameters. The study is only based on data from the passenger side, the collected datafor the driver were not enough completed to produce satisfying results. The main objective is tocreate a model that evaluates the input parameters’ influence on the injury severity and helps theengineers having a prediction of the sled tests results according to the chosen legislation or rating.The dummy biomechanical values (outputs of the model) have been regrouped into clusters in orderto define injuries groups. The model and various algorithms have been implemented in a GraphicalUser Interface for a better practical daily use.

Page generated in 0.0369 seconds