• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 990
  • 63
  • 51
  • 27
  • 20
  • 11
  • 11
  • 11
  • 8
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 1170
  • 625
  • 447
  • 413
  • 239
  • 212
  • 141
  • 140
  • 132
  • 123
  • 123
  • 119
  • 116
  • 109
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Extração automática de conhecimento por múltiplos indutores.

José Augusto Baranauskas 09 August 2001 (has links)
Nesta tese são investigados três problemas básicos em aprendizado supervisionado: seleção de atributos, composição de atributos e combinação de classificadores simbólicos. A seleção de atributos é uma atividade de pré-processamento de dados que seleciona um subconjunto de atributos do conjunto original de exemplos. Existem, basicamente, três abordagens que são empregadas para a seleção de atributos: embutida, filtro e wrapper; as duas últimas pesquisadas neste trabalho. Os experimentos realizados, utilizando diversos indutores e conjuntos de exemplos, para avaliar as abordagens filtro e wrapper nos permitem concluir que o uso de filtros deve ser considerado antes de se cogitar a utilização de wrappers, no caso de existirem muitos atributos para descrever os exemplos. Sob a perspectiva de compreensibilidade do conhecimento induzido, a análise sobre o impacto da seleção de atributos em um classificador simbólico mostrou um aumento do número de regras e do número de condições por regra. A composição de atributos, também conhecida como indução construtiva, é outra atividade de pré-processamento de dados. Dentre as várias abordagens de composição de atributos (guiada por dados, por hipótese, por conhecimento e multi-estratégia), nesta tese é proposta uma metodologia para composição de atributos guiada pelo conhecimento. Os resultados dos experimentos realizados utilizando a metodologia proposta mostram que, mesmo com o auxílio do usuário/especialista, é difícil construir atributos derivados que sejam realmente relevantes para aprender o conceito embutido nos conjuntos de exemplos analisados de repositórios (naturais), os quais, muitas vezes, já foram pré-processados. Esse fato foi confirmado, por um trabalho posterior, com dados do mundo real, no qual a metodologia proposta mostrou seu potencial. A combinação de classificadores, simbólicos ou não, é uma atividade de mineração de dados. Na realidade, uma das preocupações do Aprendizado de Máquina simbólico é que os classificadores induzidos devem ser fáceis de serem compreendidos pelos seres humanos. Para isso, deve-se escolher o indutor com bias mais adequado para cada tipo de situação, já que pesquisas mostraram que não existe o 'melhor' indutor para todos os domínios. Aliada a essa escolha, é possível fazer uso de vários classificadores, combinando-os num único classificador final, formando um ensemble. Os ensembles possuem a tendência de melhorar o desempenho na classificação de exemplos não vistos durante o processo de aprendizado. Entretanto, o emprego de ensembles dificulta a compreensão humana sobre o comportamento do classificador final, já que ele deixa de ser simbólico, mesmo assumindo que cada classificador individual que o compõe seja simbólico. Na realidade, a combinação de classificadores simbólicos - provenientes de diferentes indutores - em um classificador final também simbólico é um tópico novo de pesquisa, ainda com poucos resultados divulgados. Com o objetivo de preencher essa lacuna, é proposto e desenvolvido neste trabalho o sistema Xruler. Para isso, inicialmente foi definido o formato padrão de regras PBM, o qual fornece uma perspectiva unificada sob a qual todo classificador simbólico pode ser convertido e analisado. Dentre outros componentes, o sistema Xruler possui um algoritmo de cobertura que pode ser aplicado ao conjunto de regras induzidas por diversos indutores para se obter um classificador simbólico final. Nos experimentos realizados com o sistema Xruler os resultados obtidos mostraram aumento da precisão e redução do número de regras. Sob o aspecto sintático das regras, isso pode ser considerado um avanço no sentido de uma maior compreensibilidade por seres humanos do conjunto final de regras.
12

Algoritmos bio-inspirados para solução de problemas de otimização

BARBOSA, Carlos Eduardo Martins 09 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:10:42Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:19:29Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Made available in DSpace on 2018-07-26T22:19:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) Previous issue date: 2017-05-09 / Muitos problemas do mundo real podem ser formulados como problemas de otimização em domínios contínuos. Nos últimos anos, algoritmos bio-inspirados, que fundamentam-se no comportamento dos fenômenos naturais, têm sido cada vez mais empregados para resolver tais problemas. Neste trabalho, são investigados 8 (oito) algoritmos inspirados na natureza: algoritmos genéticos (GA), otimização por colônia de formigas (ACO), otimização por enxame de partículas (PSO), colônia de abelhas artificiais (ABC), algoritmo do vaga-lume (FA), algoritmo de busca do pássaro cuco (CS), algoritmo do morcego (BAT) e algoritmo de busca autoadaptativa do pássaro cuco (SACS). Estes algoritmos são analisados em três tipos de problemas distintos, que compreendem (1) funções de benchmark estudadas comumente em problemas de otimização, (2) previsão da energia eólica a partir da velocidade do vento com dados reais coletados de dois parques eólicos, e (3) clusterização de padrões, necessária na solução de problemas não-supervisionados. Os experimentos realizados com os diferentes algoritmos analisaram as principais vantagens e deficiências dos algoritmos em relação à (1) qualidade das soluções obtidas segundo métricas de desempenho específicas para cada problema, (2) tempo de execução do algoritmo e (3) tempo de convergência para a melhor solução. Uma técnica de ajuste automático dos parâmetros, também bio-inspirada, foi desenvolvida e empregada em todos os problemas e algoritmos, para se determinar os valores ótimos para cada método e permitir uma comparação consistente dos resultados. Os experimentos realizados evidenciaram que o algoritmo do pássaro cuco funciona de forma eficiente, robusta e superior aos outros métodos investigados para a maioria dos experimentos realizados, e que a propriedade de cauda longa da distribuição com voos de Lévy, explorada neste trabalho, é a principal responsável pela eficiência deste algoritmo. / Many real-world problems can be formulated as optimization problems in continuous domains. In the last years, bio-inspired algorithms, whice are based on the behavior of natural phenomena, have been increasingly employed to solve such problems. In this work, 8 (eight) algorithms inspired by nature are investigated: genetic algorithms (GA), ant colony optimization (ACO), particle swarm optimization (PSO), artificial bee colony (ABC), firefly algorithm (FA), cuckoo search algorithm (CS), bat algorithm (BAT) and self-adaptive cuckoo search algorithm (SACS). These algorithms are analyzed in three different types of problems, which comprise (1) benchmark functions commonly studied in optimization problems, (2) prediction of wind energy from wind speed with real data collected from two wind farms, and clustering patterns, required in solving unsupervised problems. The experiments performed with the different algorithms investigated the main advantages and disadvantages of the algorithms concerning (1) the quality of the solutions obtained according to specific metrics for each problem, (2) algorithm execution time and (3) convergence time for the best solution. A bio-inspired technique of automatic parameter tuning was developed and employed in all problems and algorithms in order to determine optimal values for each method and to allow a consistent comparison of the results. The performed experiments showed that the cuckoo search algorithm works efficiently, robustly and superior to the other investigated methods for most of the experiments, and the long tail property of the Lévy Flight distribution, explored in this work, is the main responsible for the efficiency of this algorithm.
13

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
14

Mapeamento semântico incremental com aprendizagem online e não-supervisionada

SOUSA, Ygor César Nogueira 20 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:14:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:31:06Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Made available in DSpace on 2018-08-03T19:31:06Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) Previous issue date: 2017-03-20 / CNPq / A crescente inclusão de robôs móveis na vida cotidiana das pessoas, compartilhando espaço como agentes em diferentes atividades, tem dado impulso à criação de uma série de novas tecnologias compostas. Neste contexto, aparece o Mapeamento Semântico, que visa criar uma abstração ou representação do espaço em que um robô navega, a fim de proporcionar um meio para comum entendimento e comunicação entre estes robôs e seres humanos. Essa abstração é criada sob a forma de um mapa que agrega informações semânticas (isto é, informações que façam sentido para um ser humano em termos de comunicação) sobre o ambiente no qual o robô se encontra. Desta forma, esta dissertação introduz uma abordagem de Mapeamento Semântico incremental, com aprendizagem online e não-supervisionada, baseada em Mapas Auto-organizáveis (SOMs) de topologia variante no tempo. A abordagem se divide no módulo de mapeamento, o qual cria mapas topológicos de ambientes incrementalmente, enriquecidos com objetos reconhecidos como informação semântica determinante, e no módulo de categorização de lugares, dotado de um método de aprendizagem incremental, não-supervisionado, com treinamento online, baseado em SOM. Com o intuito de avaliar a viabilidade da abordagem, a mesma foi testada a partir de experimentos realizados com uma base dados reais, os quais demonstraram de forma promissora sua capacidade na aquisição incremental de mapas topológicos enriquecidos com informações semânticas e na categorização de lugares mapeados a partir destas informações. / The increasing inclusion of mobile robots in people’s daily lives, sharing space as agents in a range of different activities, has given rise to the creation of a series of new composite technologies. In this context, it appears the Semantic Mapping, which aims to create an abstraction or representation of space in which a robot navigates in order to provide a means for common understanding and communication between these robots and humans. This abstraction is created in the form of a map that aggregates semantic information (i.e., information that makes sense to a human in terms of communication) about the environment in which the robot is. In this way, this dissertation introduces an incremental semantic mapping approach, with online and unsupervised learning, based on self-organizing maps (SOMs) with time-varying topology. The approach is divided into the mapping module, which incrementally creates topological maps of environments, enriched with recognized objects as determinant semantic information, and in the module of places categorization, endowed with an incremental, unsupervised learning method with online training, based on SOM. In order to evaluate the viability of the approach, it was tested in experiments with real world data, which demonstrated a promising capability for the incremental acquisition of topological maps enriched with semantic information and for the categorization of places based on this information.
15

Aprendizagem de máquina aplicada a métodos de classificação de supernovas.

SILVA, R. D. 06 September 2018 (has links)
Made available in DSpace on 2018-09-11T12:25:58Z (GMT). No. of bitstreams: 1 tese_12581_Dissertação Rodrigo Duarte Silva - PPGFis.pdf: 7836357 bytes, checksum: dd128e0cf54e3d58e169b4f2492da434 (MD5) Previous issue date: 2018-09-06 / Futuras pesquisas observacionais com investimentos, telescópios e tecnologias nunca antes vistos, estão sendo propostas na tentativa de se desvendar os mistérios do Universo. Em nosso trabalho, fornecemos um panorama desse cenário, com especial atenção para a classificação de supernovas que será feita pelo LSST (Large Synoptic Survey Telescope) a partir de 4244. Inicialmente introduzimos a física que envolve o evento da Supernova e sua observação, com o objetivo de tratar o problema da classificação fotométrica de supernovas didaticamente. Fornecemos importantes referências no uso de diferentes aprendizagens de máquina e redes neurais para esse propósito. Incluímos resultados do uso de alguns dos métodos computacionais e a teoria por trás deles, destacando suas potencialidades e vunerabilidades. Os métodos de aprendizagem de máquina podem envolver supervisão ou não. Objetivamos descrever a aplicação destas poderosas ferramentas, na análise de dados observacionais e verificamos resultados inesperados.
16

Algoritmo AdaBoost robusto ao ruído : aplicação à detecção de faces em imagens de baixa resolução / Noise robust AdaBoost algorithm : applying to face detection in low resolution images

Fernandez Merjildo, Diego Alonso, 1982- 12 June 2013 (has links)
Orientador: Lee Luan Ling / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-24T05:09:39Z (GMT). No. of bitstreams: 1 FernandezMerjildo_DiegoAlonso_M.pdf: 6281716 bytes, checksum: 6e22526557511699a8961e5b44949c78 (MD5) Previous issue date: 2013 / Resumo: O presente trabalho propõe um algoritmo AdaBoost modificado, que minimiza o efeito do overfitting no treinamento produzido por amostras ruidosas. Para este fim, a atualização da distribuição de pesos é feita baseado na fragmentação do erro de treinamento, o qual permite atualizar efetivamente as amostras classificadas incorretamente para cada nível de taxa de erro. Subsequentemente, o algoritmo desenvolvido é aplicado no processo de detecção de faces, utilizando os Padrões Binários Locais Multi-Escala em Blocos (Multiscale Block Local Binary Patterns (MB-LBP)) como padrões característicos para formação de uma cascata de classificadores. Os resultados experimentais mostram que o algoritmo proposto é simples e eficiente, evidenciando vantagens sobre os algoritmos AdaBoost clássicos, em termos de maior capacidade de generalização, prevenção de overfitting e maiores taxas de acerto em imagens de baixa resolução / Abstract: This work aims a modification to the AdaBoost algorithm applied to face detection. Initially, we present the approaches used in face detection, highlighting the success of methods based on appearance. Then, we focus on the AdaBoost algorithm, its performance and the improvements realized by author as published literature. Despite the indisputable success of Boosting algorithms, it is affected by the high sensitivity to noisy samples. In order to avoid overfitting of noisy samples, we consider that the error rate is divided into fragmentary errors. We introduce a factor based on misclassified samples, to update the weight distribution in the training procedure. Furthermore, the algorithm developed is applied to face detection procedure, for which it is used Block Multiscale Local Binary Patterns (MB-LBP) in feature extraction as well as a cascade of classifiers. The experimental results show that the proposal to include a factor based on the frequency of misclassified samples, is simple and efficient, showing advantages over classical AdaBoost algorithms, which include ability to generalize, preventing overfitting and higher hit rates in images of low resolution / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
17

Combinação de kernels para predição de interações em redes biológicas

NASCIMENTO, André Câmara Alves do 09 November 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:31:30Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE André Câmara Alves do Nascimentos.pdf: 4823168 bytes, checksum: 2c30ae331ec29f390824052ea069109b (MD5) / Made available in DSpace on 2016-04-22T19:31:30Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE André Câmara Alves do Nascimentos.pdf: 4823168 bytes, checksum: 2c30ae331ec29f390824052ea069109b (MD5) Previous issue date: 2015-11-09 / CAPES / Redes droga-proteína têm recebido bastante atenção nos últimos anos, dada sua relevância para a inovação farmacêutica e produção de novos fármacos. Muitas abordagens in silico distintas para predição de interações droga-proteína têm sido propostas, muitas das quais baseadas em uma classe particular de métodos de aprendizagem de máquina chamada de métodos de kernel. Estes algoritmos de classificação de padrões são capazes de incorporar conhecimento prévio na forma de funções de similaridade, i.e., um kernel, e têm tido sucesso em diversos problemas de aprendizagem supervisionada. A seleção da função de kernel adequada e seus respectivos parâmetros pode ter grande influência no desempenho do classificador construído. Recentemente, a aprendizagem de múltiplos kernels (Multiple Kernel Learning - MKL) tem sido introduzida para solucionar este problema, permitindo a utilização de múltiplos kernels, ao invés de considerar apenas um kernel para uma dada tarefa. A principal motivação para tal abordagem é similar a considerada na combinação de múltiplos classificadores: ao invés de restringir-se a um único kernel, é preferível utilizar um conjunto de kernels distintos, e deixar que um algoritmo selecione os melhores, ou sua respectiva combinação. Abordagens MKL também podem ser vistas como uma estratégia de integração de dados. Apesar dos avanços técnicos nos últimos anos, as abordagens propostas anteriormente não são capazes de lidar com os grandes espaços de interação entre drogas e proteínas e integrar múltiplas fontes de informação simultaneamente. Neste trabalho, é proposto um método de aprendizagem de múltiplos kernels para a combinação não esparsa de kernels na predição de interações em redes droga-proteína. O método proposto permite a integração de múltiplas fontes heterogêneas de informação para a identificação de novas interações, e também pode ser aplicado em redes de tamanhos arbitrários. Além disso, o método proposto pode também selecionar automaticamente os kernels mais relevantes, retornando pesos que indiquem a sua importância na predição de interações droga-proteína na rede em questão. A análise empírica em quatro bases de dados, utilizando vinte kernels distintos indicou que o método proposto obteve desempenho comparável ou superior a todos os métodos avaliados. Ademais, os pesos associados aos kernels analisados refletiram a qualidade preditiva obtida por cada kernel em experimentos exaustivos para cada par de kernels, um indicativo do sucesso do método em identificar automaticamente fontes de informação biológica relevantes. Nossas análises demonstraram que a estratégia de integração de dados é capaz de melhorar a qualidade das interações preditas, e pode acelerar a identificação de novas interações, bem como identificar informações relevantes para a tarefa. / Drug-target networks are receiving a lot of attention in late years, given its relevance for pharmaceutical innovation and drug lead discovery. Many different in silico approaches for the identification of new drug-target interactions have been proposed, many of them based on a particular class of machine learning algorithms called kernel methods. These pattern classification algorithms are able to incorporate previous knowledge in the form of similarity functions, i.e., a kernel, and it has been successful in a wide range of supervised learning problems. The selection of the right kernel function and its respective parameters can have a large influence on the performance of the classifier. Recently, Multiple Kernel Learning algorithms have been introduced to address this problem, enabling one to use multiple kernels instead of a single one for a given task. The main motivation for such approach is similar to the one considered in ensemble methods: instead of being restricted to only one kernel, it is preferrable to use a set of distinct kernels, and let the algorithm choose the best ones, or its combination. The MKL approach can also be seen as a data integration strategy. Despite technical advances in the latest years, previous approaches are not able to cope with large drug-target interaction spaces and integrate multiple sources of biological information simultaneously. In this work, we propose a new multiple kernel learning algorithm for the non-sparse combination of kernels in bipartite link prediction on drug-target networks. This method allows the integration of multiple heterogeneous information sources for the identification of new interactions, and can also work with networks of arbitrary size. Moreover, our method can also automatically select the more relevant kernels, returning weights indicating their importance in the drug-target prediction at hand. Empirical analysis on four data sets, using twenty distinct kernels indicates that our method has higher or comparable predictive performance than all evaluated methods. Moreover, the predicted weights reflect the predictive quality of each kernel on exhaustive pairwise experiments, which indicates the success of the method to automatically indicate relevant biological information sources. Our analysis show that the proposed data integration strategy is able to improve the quality of the predicted interactions, and can speed up the identification of new drug-target interactions as well as identify relevant information for the task
18

Identificação e controlo de objectos em ambiente interior

Ribeiro, José Carlos Costa Pinto January 2008 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores - Major em Telecomunicações. Faculdade de Engenharia. Universidade do Porto. 2008
19

Propostas para controle de congestionamento em rede LTE ocasionado pela comunicação máquina-a-máquina / Proposals for Congestion Control in LTE Network Generated by Machine-to-Machine Communication

Aragão, David Bôto Paz January 2015 (has links)
ARAGÃO, David Bôto Paz. Propostas para controle de congestionamento em rede LTE ocasionado pela comunicação máquina-a-máquina. 2015. 83 f. Dissertação (Mestrado em Ciências da Computação)-Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Jairo Viana (jairo@ufc.br) on 2016-12-21T18:38:15Z No. of bitstreams: 1 2015_dis_dbparagao.pdf: 3605749 bytes, checksum: 9cc000dd2773ba3d5f2835984902f89a (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2016-12-21T18:39:32Z (GMT) No. of bitstreams: 1 2015_dis_dbparagao.pdf: 3605749 bytes, checksum: 9cc000dd2773ba3d5f2835984902f89a (MD5) / Made available in DSpace on 2016-12-21T18:39:32Z (GMT). No. of bitstreams: 1 2015_dis_dbparagao.pdf: 3605749 bytes, checksum: 9cc000dd2773ba3d5f2835984902f89a (MD5) Previous issue date: 2015 / Machine-to-machine (M2M) is a communication model that will play an important role in vision of the Internet of Things (IoT). The Long-term Evolution (LTE) is expected to become a potential access networks for the M2M communication. A problem that arises from this scenario is the congestion caused by the huge number of M2M devices trying to access the network. Many solutions can be found in the literature that addresses this problem. However, only few mechanisms define priority among the different type of devices or present a dynamic approach to dynamically allocate resources of the random access channel. In this paper, we propose five mechanisms that aim to reduce the congestion caused by LTE network in the context of M2M devices. The first mechanism is centered in the devices and aim to control the access device to the network based in the congestion level presented by the network. The other four mechanisms model the scarcity of the time and preamble resources as a bankruptcy problem. For each resource, two approaches are proposed. The solutions presented to the bankruptcy problem follow from two an axiomatic approach and a cooperative game strategy. The impact over the H2H devices, the energy efficiency, and the prioritization among the different types of M2M devices are some of the main aspects analyzed by the proposed mechanisms. The result obtained through simulation show that the proposed mechanisms present advantages in one or more of the aspects analyzed. All approaches were simulated in the network simulator NS-3. / O modelo de comunicação máquina-a-máquina (M2M) desempenhará um papel importante na visão da Internet das Coisas (IoT - Internet of Things). As redes Long-term Evolution (LTE) apresentam-se como potenciais redes de acesso para o M2M. Um dos problemas que emergem dessa integração é o congestionamento gerado pelo excesso de dispositivos M2M solicitando acesso a essas redes. Muitas são as soluções já apresentadas para este problema. Contudo, aspectos como priorização inter e intraclasses entre os dispositivos e estratégias para alocação dinâmica de recursos ainda são pouco explorados. Neste trabalho são propostos cinco mecanismos para controlar o congestionamento ocasionado pelos dispositivos M2M no contexto das redes LTE. O primeiro mecanismo proposto utiliza uma abordagem centrada nos dispositivos para controlar o uso dos recursos do canal de acesso aleatório. Os outros quatro mecanismos modelam a escassez dos recursos de tempo e preâmbulos para atender a demanda dos dispositivos como um problema de falência. Para cada tipo de recurso, tempo e preâmbulo, duas propostas são apresentadas. O problema da falência é abordado a partir de uma solução axiomática e usando uma estratégia utilizando jogos cooperativos. O impacto sobre os dispositivos H2H, a eficiência energética e a priorização entre as classes de dispositivos M2M são alguns dos principais aspectos analisados pelos mecanismos propostos. Com base nos resultados obtidos através de simulação, os mecanismos propostos apresentam vantagens em relação a um ou mais dos aspectos analisados. Todos os mecanismos foram simulados no simulador de rede NS-3.
20

Uma análise das contribuições da Ciência da Informação brasileira aos estudos relativos às máquinas sociais

LIMA, Camila Oliveira de Almeida 15 February 2017 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-05-18T21:18:47Z No. of bitstreams: 1 DISSERTAÇÃO Camila Oliveira de Almeida Lima.pdf: 2165455 bytes, checksum: d701930550a886f21d8719b56a6e60bd (MD5) / Made available in DSpace on 2018-05-18T21:18:47Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO Camila Oliveira de Almeida Lima.pdf: 2165455 bytes, checksum: d701930550a886f21d8719b56a6e60bd (MD5) Previous issue date: 2017-02-15 / Esta pesquisa tem como objetivo investigar como o arcabouço das Máquinas Sociais, à luz da teoria de Burégio, Meira e Rosa (2013), e os vinte e seis elementos que estão inseridos em três categorias (i) Software Sociais, (ii) Software como Entidades Sociáveis e (iii) Pessoas como Unidades Computacionais estão sendo pesquisados no âmbito nacional da Ciência da Informação (CI). O tema se justifica a partir da observação de pesquisas esparsas na CI referentes a Internet que não estão consolidadas, fazendo-se necessário observar, a partir do arcabouço máquinas sociais, identificar quais contribuições para esta área já foram publicados em veículos nacionais dedicados à CI. Para tal intento, esta pesquisa foi conduzida a partir da realização de um Mapeamento Sistemático da Literatura (MSL) referente às Máquinas Sociais e suas categorias em bases de dados nacionais da CI. A abordagem de pesquisa adotada foi indutiva, quanto ao tipo de pesquisa, esta se caracteriza como qualitativa, quanto aos meios é uma pesquisa bibliográfica e quanto aos fins é uma pesquisa descritiva. O método de pesquisa utilizado foi o MSL, a técnica de coleta de dados adotada foi a análise documental e o método de análise utilizado foi a análise temática. Foram analisados cinquenta artigos e identificados pesquisas sobre onze dos elementos referentes às Máquinas Sociais: (i) redes sociais, (ii) blogs, (iii) microblogs, (iv) wiki, (v) compartilhamento de vídeo, (vi) plataformas colaborativas, (vii) mash up, (viii) sistemas de aquisição do conhecimento, (ix) crowdsourcing, (x) sistemas baseados em dados sociais e (xi) plataformas de API abertas. Foi possível destacar as redes sociais, blogs e microblogs, que eram objetos de pesquisa da maioria dos artigos analisados; Aos demais elementos foi dada uma menor atenção, não se identificando tantas contribuições. Os outros quinze destes elementos sequer foram citados nos artigos investigados. Percebeu-se que as pesquisas relacionadas ao contexto da Internet na área da CI dão uma maior ênfase às redes sociais e a web 2.0, estando descontextualizadas de qualquer arcabouço teórico, sendo pesquisadas isoladamente como objetos de estudos sem conexão com outros contextos mais amplos, como, por exemplo, as máquinas sociais. / This research aims to investigate how Social Machines, in the light of the theory of Buregio, Meira and Rosa (2013), and its twenty-six elements that are related in three categories (i) Social Software, (ii) Software as Sociable Entities and (iii) People as Computational Units are being researched in Brazilian scope of Information Science (IS). The subject is justified by the observation of research in IS related to Internet are not consolidated and it is necessary to observe, from social machines perspectives, identify which contributions have already been published in national vehicles dedicated to IS. For such, this research was carried out a Systematic Literature Mapping (SLM) referring to Social Machines and their categories in national IS databases. The research approach adopted was inductive; the type of the research is characterized as qualitative; the means is a bibliographical research and the purposes are a descriptive research. The research method used was the SLM, the technique of data collection adopted was the documentary analysis and the analysis method used was thematic analysis. Fifty articles were analyzed and eleven of them were related to eleven Social Machine elements: (i) social networks, (ii) blogs, (iii) microblogs, (iv) wiki, (v) video sharing, (vi) collaborative platforms, (Vii) mashup, (viii) knowledge acquisition systems, (ix) crowdsourcing, (x) social data systems, and (xi) open API platforms. Some points can be highlighteds such as social networks, blogs and microblogs which are central subjects of most of the articles analyzed, the other elements is given less attention and not have so many contributions. Fifteen of these elements are not even mentioned in the investigated articles. It was noticed that the research related to the context of the Internet in the area of IS emphasizes social networks and web 2.0, being decontextualized of any theoretical framework, being researched in isolation as objects of studies without connection with other broader contexts, such as, for example, social machines.

Page generated in 0.0509 seconds