• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 9
  • 5
  • 4
  • Tagged with
  • 121
  • 121
  • 63
  • 61
  • 27
  • 24
  • 24
  • 23
  • 22
  • 20
  • 19
  • 18
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Aprendizado por esforço aplicado ao combate em jogos eletrônicos de estratégia em tempo real

Botelho Neto, Gutenberg Pessoa 28 March 2014 (has links)
Made available in DSpace on 2015-05-14T12:36:51Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 4482656 bytes, checksum: 11b85e413d691749edd8d5be0d8f56d4 (MD5) Previous issue date: 2014-03-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Electronic games and, in particular, real-time strategy (RTS) games, are increasingly seen as viable and important fields for artificial intelligence research because of commonly held characteristics, like the presence of complex environments, usually dynamic and with multiple agents. In commercial RTS games, the computer behavior is mostly designed with simple ad hoc, static techniques that require manual definition of actions and leave the agent unable to adapt to the various situations it may find. This approach, besides being lengthy and error-prone, makes the game relatively predictable after some time, allowing the human player to eventually discover the strategy used by the computer and develop an optimal way of countering it. Using machine learning techniques like reinforcement learning is a way of trying to avoid this predictability, allowing the computer to evaluate the situations that occur during the games, learning with these situations and improving its behavior over time, being able to choose autonomously and dynamically the best action when needed. This work proposes a modeling for the use of SARSA, a reinforcement learning technique, applied to combat situations in RTS games, with the goal of allowing the computer to better perform in this fundamental area for achieving victory in an RTS game. Several tests were made with various game situations and the agent applying the proposed modeling, facing the game's default AI opponent, was able to improve its performance in all of them, developing knowledge about the best actions to choose for the various possible game states and using this knowledge in an efficient way to obtain better results in later games / Jogos eletrônicos e, em especial, jogos de estratégia em tempo real (RTS), são cada vez mais vistos como campos viáveis e importantes para pesquisas de inteligência artificial por possuírem características interessantes para a área, como a presença de ambientes complexos, muitas vezes dinâmicos e com múltiplos agentes. Nos jogos RTS comerciais, o comportamento do computador é geralmente definido a partir de técnicas ad hoc simples e estáticas, com a necessidade de definição manual de ações e a incapacidade de adaptação às situações encontradas. Esta abordagem, além de demorada e propícia a erros, faz com que o jogo se torne relativamente previsível após algum tempo, permitindo ao jogador eventualmente descobrir a estratégia utilizada pelo computador e desenvolver uma forma ótima de enfrentá-lo. Uma maneira de tentar combater esta previsibilidade consiste na utilização de técnicas de aprendizagem de máquina, mais especificamente do aprendizado por reforço, para permitir ao computador avaliar as situações ocorridas durante as partidas, aprendendo com estas situações e aprimorando seu conhecimento ao longo do tempo, sendo capaz de escolher de maneira autônoma e dinâmica a melhor ação quando necessário. Este trabalho propõe uma modelagem para a utilização de SARSA, uma técnica do aprendizado por reforço, aplicada a situações de combate em jogos RTS, com o objetivo de fazer com o que o computador possa se portar de maneira mais adequada nessa área, uma das mais fundamentais para a busca da vitória em um jogo RTS. Nos testes realizados em diversas situações de jogo, o agente aplicando a modelagem proposta, enfrentando o oponente padrão controlado pela IA do jogo, foi sempre capaz de melhorar seus resultados ao longo do tempo, obtendo conhecimento acerca das melhores ações a serem tomadas a cada momento decisório e aproveitando esse conhecimento nas suas partidas futuras
92

Análise de textura em imagens de ressonância magnética na predição de recorrência tumoral em pacientes portadores de adenomas hipofisários clinicamente não funcionantes / Magnetic Resonance Imaging Texture Analysis in the Prediction of Tumor Recurrence in Patients with Non-functioning Pituitary Adenomas

Leonardo Ferreira Machado 28 November 2017 (has links)
O presente trabalho propõe o uso de parâmetros de textura extraídos computacionalmente de IRM como biomarcadores de imagem na predição de recorrência tumoral em pacientes de adenomas pituitários clinicamente não funcionantes (APNF). Para isso, esse estudo analisou imagens de RM de 15 pacientes de APNF retrospectivamente separados em dois grupos: O grupo de pacientes recorrentes, definido por 7 pacientes que exibiram recorrência tumoral em um período de 4, 640 +- 0, 653 anos (média +- erro padrão) de acompanhamento clínico após a primeira abordagem cirúrgica; e o grupo de pacientes estáveis, formado por 8 pacientes com lesões consideradas estáveis em um período de 4,512 +- 0, 536 anos. Uma máscara de segmentação tridimensional da lesão tumoral foi construída manualmente por um especialista sobre a imagem 3D T1-W DCE pré-operatória para cada paciente. Em seguida, essa segmentação e a própria imagem de ressonância foram usadas para extrair 48 características numéricas de textura. Adicionalmente, 4 características clínicas foram consideradas no estudo: a imunohistoquímica, invasividade, idade na primeira cirurgia e sexo, totalizando 52 características. Cada uma destas 52 características fora testada através de testes estatísticos convencionais univariados para ver se existia evidencias do poder discriminatório dessas características para diferenciar esses dois grupos de pacientes. Mais adiante, diferentes subconjuntos dessas características foram usados para construir modelos de predição baseados na teoria de aprendizagem de máquinas (usando os algoritmos k-nearest neighbor (kNN), decision tree (DTC), e random forest (RFC)) para investigar um modelo de classificação capaz de identificar os pacientes que experimentariam recorrência tumoral após a primeira cirurgia. 9 características de textura foram consideradas individualmente significantes (p < 0, 05) na diferenciação dos grupos de paciente recorrente e estável. Afirmando esses achados, a análise com a curva ROC para cada uma das 9 características exibiu medidas de AUC de 0,803 a 0,857 significando uma boa performance de classificação. A idade, imunoistoquímica, invasividade e sexo não mostraram evidencias de associação com recorrência tumoral. As melhores performances com algoritmos de classificação foram com kNN e RFC, ambos atingiram uma especificidade de 1,000 conservando alta acurácia (0,933) e obtendo 0,991 na análise com a curva ROC, o que caracteriza uma performance de classificação quase perfeita. DTC não mostrou nenhuma melhora se comparado com os resultados das classificações univariadas. Esses resultados permitem concluir que parâmetros de textura são úteis na predição de recorrência tumoral após a primeira cirurgia em pacientes de APNF. E que os valores de predição dessas características podem ser observados por testes estatísticos univariados convencionais e por análises multivariadas através de algoritmos baseados em aprendizagem de máquinas / The present work proposes the usage of texture features computationally extracted from MRI as imaging biomarkers in the prediction of tumor recurrence in patients with non-functioning pituitary adenomas (NFPA). With this purpose, this study analyzed MR images from 15 patients of NFPA retrospectively separated in two groups: the recurrent patient group, formed by seven (7) patients who exhibited tumor recurrence in a period of 4,640 +- 0,653 years (mean +- standard error) of follow-up period after the first surgical approach; and the stable patient group formed by eight (8) patients with lesions considered stable in a period of 4,512 +- 0,536 years. A three-dimensional segmentation mask of the tumor lesion was manually performed by a specialist over preoperative 3D T1-W DCE MR image for each patient. Next, this segmentation and the preoperative MRI itself were used to extract 48 numerical textural features. Additionally, 4 clinical features were considered in the study: immunohistochemistry, invasiveness, age at first surgery, and gender, totalizing 52 features. Each one of those 52 features were tested through conventional univariate statistical tests to see if there were evidence of their discrimination power to differentiate these two patient groups. Moreover, different subsets of those features were used to build machine learning prediction models (using k-nearest neighbor (kNN), decision tree (DTC), and random forest (RFC) algorithms) to investigate a classification model capable of identifying the patients that would experience tumor recurrence after the first surgery. 9 quantitative textural features were found to be individually significant (p < 0,05) in the differentiation of recurrent and stable patient group. Affirming these findings, the ROC curve analysis for each one of those 9 features exhibited an AUC score from 0.803 to 0.857 meaning a good classification performance. Age, immunohistochemistry and invasiveness status, and gender did not show evidence of association with tumor recurrence. The best performances with classification algorithms were obtained with kNN and RFC, both reached specificity of 1.000 conserving high accuracy (0.933) and scoring 0.991 in ROC curve analysis, what characterizes an almost perfect classification performance. DTC did not show any improvement compared to the univariate classification results. These findings allow to conclude that textural features are useful in the prediction of tumor recurrence after first surgery in NFPA patients. And that the prediction value of those features can be observed with both conventional univariate statistical tests and multivariate analyses through machine learning algorithms
93

Sistema de predição de estados de transdutores para ambientes inteligentes

FREITAS, Marcelo Bassani de 26 August 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-04-06T18:16:38Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SISTEMA DE PREDIÇÃO DE ESTADOS DE TRANSDUTORES PARA AMBIEN.pdf: 2277201 bytes, checksum: 566bf1bfadd889426473a7471d98ef39 (MD5) / Made available in DSpace on 2016-04-06T18:16:38Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SISTEMA DE PREDIÇÃO DE ESTADOS DE TRANSDUTORES PARA AMBIEN.pdf: 2277201 bytes, checksum: 566bf1bfadd889426473a7471d98ef39 (MD5) Previous issue date: 2015-08-26 / CNPq / Nos Ambientes Inteligentes, os dispositivos colaboram entre si para auxiliar o usuário de forma não intrusiva. Uma forma de auxílio é antecipar as ações do usuário e realizá-las por ele ou facilitar a sua realização. Esse trabalho propõe um framework para a predição das ações do usuário pelo aprendizado do seu comportamento e hábitos enquanto ele interage com o Ambiente Inteligente. As ações do usuário é considerada como sendo a troca do valor de um transdutor (sensor ou atuador). A interação do usuário com o Ambiente Inteligente produz o contexto que é utilizado para a predição das ações. O preditor é um algoritmo de classificação supervisionada que aprende os padrões de comportamento do habitante do Ambiente Inteligente. Portanto, a solução proposta pode prover um serviço personalizado e adaptativo ao invés de um conjunto de regras predefinido por humanos. O preditor trabalha apenas com um transdutor alvo e para prever valores de mais transdutores, mais preditores devem ser treinados. A solução proposta é projetada para funcionar automaticamente sem a necessidade de interferência humana. Isso faz com que o habitante do Ambiente Inteligente sinta-se mais confortável já que sua privacidade estará protegida. Todas as informações para treinar o preditor podem ser obtidas diretamente dos transdutores do Ambiente Inteligente. Não existe a necessidade de anotação manual dos dados e nem dados extras como tipo do transdutor, localização do transdutor ou objeto ao qual o transdutor está acoplado. Isso aumenta a facilidade de instalação dos transdutores no Ambiente Inteligente. A saída do preditor pode tanto controlar diretamente um atuador ou ser enviada a um agente de software. Esse agente pode verificar condições de segurança ou requisitos de gerenciamento de energia antes de tomar a decisão. O foco desse trabalho é a geração de uma base de dados com os dados do contexto para o treinamento do preditor responsável por decidir se o transdutor alvo deverá ou não mudar seu valor. Vários parâmetros são considerados como o tamanho do período de treinamento, quantidade de ativações passadas que serão consideradas e quais são os transdutores mais relevantes para a predição. A solução proposta atinge uma melhora significativa para todos os transdutores estudados e a maioria das combinações de parâmetros da geração da base de dados possuem resultados melhores que o caso base. Além disso, os nossos resultados são superiores às outras soluções da literatura. / Smart environments possess devices that collaborate to help the user non-intrusively. One possible aid smart environment offer is to anticipate user’s tasks and perform them on his/her behalf or facilitate the action completion. In this work, we propose a framework that predicts user’s actions by learning his/her behavior when interacting with the smart environment. The user actions are considered as being the value change of a transducer (sensor or actuator). The user interaction with the smart environment produces the context used to predict the actions. The predictor is a supervised classification algorithm that learns the smart environment inhabitant behavior patterns. Therefore, the proposed solution can provide a personalized and adaptive service instead of a human predefined set of rules. The predictor works with only one transducer and to predict the values of several transducers, more predictors must be trained. The proposed solution is designed to work automatically without the need of human interference. That makes the smart environment inhabitant more comfortable since his/her privacy is protected. All the information needed to train the predictor can be obtained directly from the smart environment transducers. There is no need for manual data annotation or extra data such as transducer type, transducer location or which object the transducer is attached to. This facilitates the transducer installation in the smart environment. The predictor output can either control directly an actuator or be sent to an software agent. This software agent can check for security or energy constraints before making the decision. This work focus on prepare datasets and train a predictor that is responsible to decide whether a target transducer value should be changed or not. Several parameters are considered such as the training period size, amount of previous transducer activations considered and which are the most relevant transducers for the prediction. Our solution achieves a significant improvement for all target transducers studied and most combinations of parameters yields better results than the base case. Our results are superior to other solutions in the literature.
94

Using supervised machine learning and sentiment analysis techniques to predict homophobia in portuguese tweets

Pereira, Vinicius Gomes 16 April 2018 (has links)
Submitted by Vinicius Pereira (viniciusgomespe@gmail.com) on 2018-06-26T20:56:26Z No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-07-11T12:40:51Z (GMT) No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Made available in DSpace on 2018-07-16T17:48:51Z (GMT). No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) Previous issue date: 2018-04-16 / Este trabalho estuda a identificação de tweets homofóbicos, utilizando uma abordagem de processamento de linguagem natural e aprendizado de máquina. O objetivo é construir um modelo preditivo que possa detectar, com razoável precisão, se um Tweet contém conteúdo ofensivo a indivı́duos LGBT ou não. O banco de dados utilizado para treinar os modelos preditivos foi construı́do agregando tweets de usuários que interagiram com polı́ticos e/ou partidos polı́ticos no Brasil. Tweets contendo termos relacionados a LGBTs ou que têm referências a indivı́duos LGBT foram coletados e classificados manualmente. Uma grande parte deste trabalho está na construção de features que capturam com precisão não apenas o texto do tweet, mas também caracterı́sticas especı́ficas dos usuários e de expressões coloquiais do português. Em particular, os usos de palavrões e vocabulários especı́ficos são um forte indicador de tweets ofensivos. Naturalmente, n-gramas e esquemas de frequência de termos também foram considerados como caracterı́sticas do modelo. Um total de 12 conjuntos de recursos foram construı́dos. Uma ampla gama de técnicas de aprendizado de máquina foi empregada na tarefa de classificação: Naive Bayes, regressões logı́sticas regularizadas, redes neurais feedforward, XGBoost (extreme gradient boosting), random forest e support vector machines. Depois de estimar e ajustar cada modelo, eles foram combinados usando voting e stacking. Voting utilizando 10 modelos obteve o melhor resultado, com 89,42% de acurácia. / This work studies the identification of homophobic tweets from a natural language processing and machine learning approach. The goal is to construct a predictive model that can detect, with reasonable accuracy, whether a Tweet contains offensive content to LGBT or not. The database used to train the predictive models was constructed aggregating tweets from users that have interacted with politicians and/or political parties in Brazil. Tweets containing LGBT-related terms or that have references to open LGBT individuals were collected and manually classified. A large part of this work is in constructing features that accurately capture not only the text of the tweet but also specific characteristics of the users and language choices. In particular, the uses of swear words and strong vocabulary is a quite strong predictor of offensive tweets. Naturally, n-grams and term weighting schemes were also considered as features of the model. A total of 12 sets of features were constructed. A broad range of machine learning techniques were employed in the classification task: naive Bayes, regularized logistic regressions, feedforward neural networks, extreme gradient boosting (XGBoost), random forest and support vector machines. After estimating and tuning each model, they were combined using voting and stacking. Voting using 10 models obtained the best result, with 89.42% accuracy.
95

Uma abordagem para monitoramento de anuros baseada em processamento digital de sinais bioacústicos

Colonna, Juan Gabriel, (92) 98416-0589 15 September 2017 (has links)
Submitted by Márcia Silva (marcialbuquerq@yahoo.com.br) on 2017-11-16T18:57:52Z No. of bitstreams: 1 Tese_completa_JuanGColonna.pdf: 14919946 bytes, checksum: e525d20972ecf19b31a0f8f85772dbe0 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-11-16T20:14:41Z (GMT) No. of bitstreams: 1 Tese_completa_JuanGColonna.pdf: 14919946 bytes, checksum: e525d20972ecf19b31a0f8f85772dbe0 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-11-16T20:17:45Z (GMT) No. of bitstreams: 1 Tese_completa_JuanGColonna.pdf: 14919946 bytes, checksum: e525d20972ecf19b31a0f8f85772dbe0 (MD5) / Made available in DSpace on 2017-11-16T20:17:46Z (GMT). No. of bitstreams: 1 Tese_completa_JuanGColonna.pdf: 14919946 bytes, checksum: e525d20972ecf19b31a0f8f85772dbe0 (MD5) Previous issue date: 2017-09-15 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / Wildlife monitoring is often used by biologists and ecologists to acquire information about animals and their natural habitats. In survey programs, specialists collect environmental information to infer about animal population status and their variations over time. The main goal of such programs is to identify environmental problems in early stages. However, acquiring the necessary data for this purpose is a manual work and must be carried out by groups of experts in areas of di cult access during long periods of time. In this context, Wireless Sensor Networks (WSNs) are useful alternatives to alleviate the manual work. Such networks are made up of small sensors with transmission, storage, and local processing capabilities. These networks enable bioacoustic methods for automatic species recognition to be embedded in the sensor nodes in order to automate and simplify the monitoring task. Since animal sounds usually provide a species ngerprint, it can be used to recognize the presence or absence of a target species in a site. Accordingly, in this thesis, we present an approach that combines machine learning methods, WSNs and bioacoustic signal processing techniques for wildlife monitoring based on animal calls. As a proof-of-concept, we choose anurans as the target animals. The reason is that anurans are already used by biologists as an early indicator of ecological stress, since they provide relevant information about terrestrian and aquatic ecosystems. Our solution integrates four fundamental steps: noise ltering and bioacoustic signal enhancement, automatic signal segmentation, acoustic features extraction, and classi cation. We also consider the WSNs limitations, trying to reduce the communication and processing load to extend the sensors' lifetime. To accomplish with the restriction imposed by the hardware, we represent the acoustic signals by a set of low-level acoustic descriptors (LLDs or features). This representation allows us to identify speci c signal patterns of each species, reducing the amount of information necessary to classify it. The adverse environmental conditions of the rainforest pose additional challenges, such as noise ltering. We developed a ltering method based on Singular Spectrum Analysis (SSA). This choice was based on several comparisons with other ltering methods. The SSA method has additional advantages: it is non-parametric, it adapts to the di erent input signals, and it has an equivalent / O monitoramento de animais silvestres em seu habitat natural é objeto de estudo de biólogos e ecólogos que coletam informações ambientais para inferir o estado das popula ções animais e suas variações ao longo do tempo. Um objetivo especí co desses estudos é identi car problemas ecológicos em estágios iniciais. No entanto, a coleta das informações é um trabalho manual que deve ser realizado por um grupo de especialistas em áreas de difícil acesso durante períodos de tempo prolongados. Neste contexto, as Redes de Sensores Sem Fio (RSSF) são uma alternativa viável ao monitoramento manual. Estas redes são constituídas por pequenos sensores com capacidade de transmissão, armazenamento e processamento local. Isto possibilita que métodos bioacústicos para reconhecimento automático de espécies sejam embarcados nos nós sensores para automatizar e simpli car a tarefa de monitoramento. Como os sons produzidos pelos animais oferecem uma impressão digital bioacústica, esta pode ser usada para identi car a presença ou ausência de uma espécie particular em uma região. Neste trabalho, apresentamos uma abordagem que utiliza aprendizagem de máquina, RSSF e processamento digital de sinais bioacústicos para reconhecer espécies animais com base em suas vocalizações. Como prova-de-conceito, aplicamos nossa solução para identi- car de forma automática diferentes espécies de anuros. Escolhemos anuros uma vez que são utilizados como indicadores precoces de estresse ecológico, pelo fato de serem sensíveis às mudanças do habitat e oferecerem informações sobre os ecossistemas terrestre e aquático. Nossa abordagem integra quatro operações fundamentais: filtragem de ruídos e aprimoramento dos sinais acústicos, segmentação automática desses sinais, extração de descritores acústicos e classificação. Além disso, nossa solução considera as limitações de RSSF, buscando reduzir a carga de processamento e comunicação para prolongar o tempo de vida dos sensores. Portanto, representamos os sinais por um conjunto de descritores acústicos de baixo nível (Low-Level Acoustic Descriptors - LLDs) conhecidos como Mel Frequency Cepstral Coe cients (MFCCs). A técnica escolhida para filtrar os ruídos ambientais foi o Singular Spectrum Analysis (SSA), esta escolha foi baseada nas diversas comparações que zemos com outros métodos de filtragem. Além disso, o SSA é não paramétrico, se adapta ao coaxar de cada espécie e possui um esquema equivalente na teoria de ltros FIR, o que possibilita ter uma implementação com complexidade computacional constante. Ainda no método de ltragem, desenvolvemos uma versão robusta do SSA. Esta nova versão é mais tolerante aos diferentes ruídos ambientais, sejam estes Gaussianos ou não. A robustez também permitiu identi car os componentes acústicos causados pelos ruídos ambientais associados com as baixas frequências. No que diz respeito à segmentação, primeiro realizamos uma comparação entre diferentes LLDs baseados na teoria da informação. Nesta etapa, desenvolvemos um método não supervisionado capaz de se adaptar às diferentes condições de ruídos ambientais, sejam estes branco ou coloridos. Na segunda etapa, adaptamos dois dos LLDs comparados para funcionamento incremental. Assim, foi possível de nir uma metodologia para segmentar os sinais acústicos em tempo real com custo de memória constante, ideal para ser embarcado em um nó sensor de baixo custo e obter as porções dos áudios que possuem as informações relevantes para o reconhecimento das espécies. Finalmente, avaliamos diferentes estratégias de classi cação e propusemos uma nova forma de validação cruzada para avaliar a capacidade de generaliza ção do método. Portanto, a validação cruzada tradicional de sílaba-por-sílaba foi substituída por uma validação cruzada que separa diferentes indivíduos nos conjuntos de teste e treinamento. Isto viabilizou uma avaliação mais justa e permitiu estimar o comportamento nal que o método de classi cação embarcado no nó sensor teria em uma situação real. Dentre os métodos de classi cação planos comparados descobrimos que SVM e kNN são os mais promissores. Todavia, propomos e desenvolvemos uma estratégia de classi cação hierárquica multirótulo para decompor e simpli car o espaço de decisões do classi cador e simultaneamente reconhecer a família, o gênero e a espécie de cada amostra. Isto nos permite concluir que nossa abordagem é exível o su ciente para se adaptar aos diferentes cenários monitorados, sem deixar de otimizar a relação custo-benefício da solução de monitoramento proposta.
96

Detecção de Cross-Site Scripting em páginas Web

Nunan, Angelo Eduardo 14 May 2012 (has links)
Made available in DSpace on 2015-04-11T14:03:18Z (GMT). No. of bitstreams: 1 Angelo Eduardo Nunan.pdf: 2892243 bytes, checksum: 5653024cae1270242c7b4f8228cf0d2c (MD5) Previous issue date: 2012-05-14 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Web applications are currently an important environment for access to services available on the Internet. However, the security assurance of these resources has become an elementary task. The structure of dynamic websites composed by a set of objects such as HTML tags, script functions, hyperlinks and advanced features in web browsers may provide numerous resources and interactive services, for instance e-commerce, Internet banking, social networking, blogs, forums, among others. On the other hand, these features helped to increase the potential security risks and attacks, which are the results of malicious codes injection. In this context, Cross-Site Scripting (XSS) is highlighted at the top of the lists of the greatest threats to web applications in recent years. This work presents a method based on supervised machine learning techniques to detect XSS in web pages. A set of features extracted from URL contents and web document are employed in order to discriminate XSS patterns and to successfully classify both malicious and non-malicious pages / As aplicações web atualmente representam um importante ambiente de acesso aos serviços oferecidos na Internet. Garantir a segurança desses recursos se tornou uma tarefa elementar. A estrutura de sites dinâmicos constituída por um conjunto de objetos, tais como tags de HTML, funções de script, hiperlinks e recursos avançados em navegadores web levou a inúmeras funcionalidades e à interatividade de serviços, tais como e-commerce, Internet banking, redes sociais, blogs, fóruns, entre outros. No entanto, esses recursos têm aumentado potencialmente os riscos de segurança e os ataques resultantes da injeção de códigos maliciosos, onde o Cross-Site Scripting aparece em destaque, no topo das listas das maiores ameaças para aplicações web nos últimos anos. Este trabalho apresenta um método baseado em técnicas de aprendizagem de máquina supervisionada para detectar XSS em páginas web, a partir de um conjunto de características extraídas da URL e do documento web, capazes de discriminar padrões de ataques XSS e distinguir páginas web maliciosas das páginas web normais ou benignas
97

Uma abordagem para classificação de anuros baseada em vocalizações

Colonna, Juan Gabriel 06 March 2012 (has links)
Made available in DSpace on 2015-04-11T14:03:20Z (GMT). No. of bitstreams: 1 JUAN_G_Colonna.pdf: 4938138 bytes, checksum: 3d27bcde3035f46e94b9cbed83b4935d (MD5) Previous issue date: 2012-03-06 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Wildlife monitoring is often used by biologist to acquire information about animals and their habitat. In this context, animal sounds and vocalizations usually provide a specie fingerprint that is used for classifying the target species in a given site. For that matter, Wireless Sensor Networks (WSNs) represent an interesting option for automa- tically classifying animal species based on their vocalizations. In this work, we provide a solution that applies machine learning and signal processing techniques for classifying wildlife based on their vocalization. As a proof-of-concept, we choose anurans as the target animals. The reason is that anurans are already used by biologists as an early indicator of ecological stress, since they provide relevant information about terrestrian and aquatic ecosystems. Any solution must consider WSN limitations, trying to reduce the communication load to extend the network lifetime. Therefore, our solution repre- sents the acoustic signals by a set of features. This representation allows us to identifiy specific signal patterns for each specie, reducing the amount of information necessary to classify it. Identifying such features, and/or combinations among them, is a key point to improve the solution benefit-cost ratio. As a consequence, we implemented and compared sets of existing features based on Fourier and Wavelet transforms. In our analysis, we first compare the sets of spectral and temporal characteristic, by using the entropy as a criterion for generating the combinations. Second, we reduce the set of features by using genetic algorithm. The proposed framework contains three steps: (i) the pre-processing to prepare the signals and perform the extraction of syllables, (ii) the extraction of features, and (iii) the species classification, using k-NN or SVM. Our experiments comprise four case studies, evaluating the effect of sampling frequency of the hardware and the number of bits used to represent each sample. This enable us to conclude that, in enviromental monitoring using WSNs, the set of Mel coefficients is the most appropriate for classifying anuran calls. / O monitoramento de animais selvagens é frequentemente usado por biólogos para cole- tar informações a cerca dos animais e seus habitats. Neste contexto, os sons produzidos pelos animais oferecem uma impressão biométrica que pode ser usada para classificar os animais em uma dada região. Assim, Redes de Sensores Sem Fio (RSSFs) representam uma importante alternativa para a classificação automática de animais, baseando-se nos sons por eles produzidos. Neste trabalho, apresentamos uma solução, que usa aprendizagem de máquina e processamento de sinais, para classificar animais selva- gens com base em suas vocalizações. Como prova-de-conceito, aplicamos a solução para classificar anuros. O motivo é que anuros já são utilizados por biólogos como indicador precoce de estresse ecológico, oferecendo informação a cerca de ecossistemas terrestre e aquático. Além disso, a solução deve considerar as limitações de RSSFs, buscando reduzir a carga de comunicação para prolongar o tempo de vida da rede. Portanto, representamos os sinais acústicos por conjuntos de características. Esta re- presentação nos permite identificar padrões específicos que descrevem cada uma das espécies monitoradas, reduzindo, assim, o volume de informação a ser trafegado na rede. A identificação destas características, ou combinações delas, é um ponto chave para aprimorar a relação custo-benefício da solução. Em nossa análise, primeiramente comparamos os conjuntos de características temporais e espectrais, usando a entropia como critério para geração das combinações. A seguir, reduzimos o conjunto de ca- racterísticas, usando algoritmos genéticos. O framework proposto contém três passos: (i) pré-processamento, para preparar os sinais e extrair unidades chamadas sílabas; (ii) extração de características; e (iii) classificação, usando k-NN ou SVM. Os experimentos consistem de quatro estudos de casos, avaliando o efeito da quantização e o número de bits usados para representar o sinal quantizado. Isto nos permite concluir que, para os cenários avaliados, o conjunto de coeficientes Mel é o mais adequado para classificar vocalizações de anuros.
98

Mineração de dados para o reconhecimento da origem e do tipo de alimentos e outras substâncias com base em sua composição química / Data mining for the recognition of origin and type of food and other substances based on its chemical composition

Maione, Camila 29 March 2016 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2016-07-13T15:55:18Z No. of bitstreams: 2 Dissertação - Camila Maione - 2016.pdf: 1989404 bytes, checksum: 187d52e34bf79b7242d8bc18a287ef49 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-07-14T11:35:01Z (GMT) No. of bitstreams: 2 Dissertação - Camila Maione - 2016.pdf: 1989404 bytes, checksum: 187d52e34bf79b7242d8bc18a287ef49 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-07-14T11:35:01Z (GMT). No. of bitstreams: 2 Dissertação - Camila Maione - 2016.pdf: 1989404 bytes, checksum: 187d52e34bf79b7242d8bc18a287ef49 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-03-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / A practical way to characterize consumable substances is through its chemical elements in its composition and theirs concentrations. By using these elements as feature variables, it is possible to arrange these substances samples in a data matrix in which data mining and statistical techniques can be applied for predictive analysis. The classification of consumable substances based on its chemical components is an interesting problem and provides useful information for various purposes, as: recognition of geographical origin of a substance; validation and authenticity; determination of the characteristics of a product which can aid companies in the quality control and preservation; differentiation of categories of a product, and others. This study presents a methodology for predictive analysis of substances and food based on its chemical components, using data mining concepts and techniques allied to ICPMS. Four applications of the proposed methodology are described: recognition of the geographical origin of Brazilian white rice produced in São Paulo and Goiás states; differentiation of organic and conventional Brazilian grape juice; differentiation of organic and conventional Brazilian chocolate, and analysis of its toxic and essential elements; recognition of the source of ecstasy tablets apprehended in two cities from Sao Paulo state, Ribeirão Preto and Campinas. For all applications presented, the classification models obtained showed high predictive performance (over 85%), which attest the efficiency of the proposed methodology, and the variable selection techniques used helped us to identify the chemical elements which are more important to the differentiation of the analyzed samples. For the purpose of distinguishing food samples into organic and conventional, our approach is pioneer and yielded good results. / Uma maneira prática de caracterizar substâncias é através dos elementos químicos em sua composiçã. Utilizando estes elementos como variáveis descritoras, é possível organizarmos amostras de substâncias em uma matriz de dados para ser analisada por técnicas de mineração de dados e estatística. A classificação de substâncias baseada em sua composição química provê uma variedade de informações úteis para diversos propósitos, como reconhecimento da origem geográfica de uma determinada substância, verificação de autenticidade, identificar características de produtos que auxiliem empresas no controle de qualidade e preservação, diferenciação de categorias de produtos, entre outros. Este trabalho apresenta uma metodologia para análise preditiva de dados de substâncias e alimentos com base em sua composição química, utilizando técnicas de mineração de dados aliada a espectrometria de massa por plasma indutivamente acoplado (ICP-MS). Quatro aplicações diretas da metodologia são apresentadas: reconhecimento geográfico do arroz branco brasileiro produzido nos estados do Rio Grande do Sul e Goiás; classificação do suco de uva brasileiro em orgânico e convencional; diferenciação do chocolate brasileiro em orgânico e convencional e análise de seus elementos tóxicos e essenciais; reconhecimento da origem de tabletes de ecstasy entre duas cidades de apreensão do estado de São Paulo, Campinas e Ribeirão Preto. Em todas as aplicações, os modelos de classificação obtidos apresentaram alto desempenho de predição (superior a 85%), o que atesta a eficiência da metodologia proposta, e os algoritmos de seleção de variáveis utilizados ajudaram a identificar os elementos químicos mais importantes para a diferenciação das amostras. No âmbito de diferenciação de amostras de alimento entre orgânico e convencional, a nossa abordagem é pioneira e gerou bons resultados.
99

Análise de sentimento e desambiguação no contexto da tv social

Lima, Ana Carolina Espírito Santo 14 December 2012 (has links)
Made available in DSpace on 2016-03-15T19:37:43Z (GMT). No. of bitstreams: 1 Ana Carolina Espirito Santo Lima.pdf: 2485278 bytes, checksum: 9843b9f756f82c023af6a2ee291f2b1d (MD5) Previous issue date: 2012-12-14 / Fundação de Amparo a Pesquisa do Estado de São Paulo / Social media have become a way of expressing collective interests. People are motivated by the sharing of information and the feedback from friends and colleagues. Among the many social media tools available, the Twitter microblog is gaining popularity as a platform for in-stantaneous communication. Millions of messages are generated daily, from over 100 million users, about the most varied subjects. As it is a rapid communication platform, this microblog spurred a phenomenon called television storytellers, where surfers comment on what they watch on TV while the programs are being transmitted. The Social TV emerged from this integration between social media and television. The amount of data generated on the TV shows is a rich material for data analysis. Broadcasters may use such information to improve their programs and increase interaction with their audience. Among the main challenges in social media data analysis there is sentiment analysis (to determine the polarity of a text, for instance, positive or negative), and sense disambiguation (to determine the right context of polysemic words). This dissertation aims to use machine learning techniques to create a tool to support Social TV, contributing specifically to the automation of sentiment analysis and disambiguation of Twitter messages. / As mídias sociais são uma forma de expressão dos interesses coletivos, as pessoas gostam de compartilhar informações e sentem-se valorizadas por causa disso. Entre as mídias sociais o microblog Twitter vem ganhando popularidade como uma plataforma para comunicação ins-tantânea. São milhões de mensagens geradas todos os dias, por cerca de 100 milhões de usuá-rios, carregadas dos mais diversos assuntos. Por ser uma plataforma de comunicação rápida esse microblog estimulou um fenômeno denominado narradores televisivos, em que os inter-nautas comentam sobre o que assistem na TV no momento em que é transmitido. Dessa inte-gração entre as mídias sociais e a televisão emergiu a TV Social. A quantidade de dados gera-dos sobre os programas de TV formam um rico material para análise de dados. Emissoras podem usar tais informações para aperfeiçoar seus programas e aumentar a interação com seu público. Dentre os principais desafios da análise de dados de mídias sociais encontram-se a análise de sentimento (determinação de polaridade em um texto, por exemplo, positivo ou negativo) e a desambiguação de sentido (determinação do contexto correto de palavras polis-sêmicas). Essa dissertação tem como objetivo usar técnicas de aprendizagem de máquina para a criação de uma ferramenta de apoio à TV Social com contribuições na automatização dos processos de análise de sentimento e desambiguação de sentido de mensagens postadas no Twitter.
100

Um modelo para recomendação de cursos de especialização baseado no perfil profissional do candidato

Souza, Antonio Eduardo Rodrigues de 27 August 2013 (has links)
Made available in DSpace on 2016-03-15T19:37:46Z (GMT). No. of bitstreams: 1 Antonio Eduardo Rodrigues de Souza.pdf: 1430416 bytes, checksum: 7625e34085fd9ad09014886b876642c3 (MD5) Previous issue date: 2013-08-27 / Economic globalization has made products and services markets more competitive, demanding a better qualification of manpower. Consequently, companies are in need of best qualified professionals to meet specific demands. In this context, specialization courses options have been sought by professionals to acquire and update knowledge. However, diversification of courses offered by various institutions in various areas, targeted to specific audiences or general, or the lack of objective information, hinder the understanding of the important factors in the decision to be taken by a candidate. A poorly chosen option may incur factors that can trigger the change or even dropping out of the course. The topic is current and relevant to Higher Education Institutions (HEIs), showing the importance of offering specialized courses that are aligned to the skills of educational institutions and the interests of the professional training and retraining. Therefore, this paper proposes to study professional factors that influence candidates in choosing a course, and develop a recommendation model, using artificial intelligence techniques to practical use in HEIs, which assists applicants in the choice of courses, as well as serve as support and guidance to staff in the selection of candidates. It was applied a methodology based on processes Knowledge Discovery in Databases (KDD) and Cross-Industry Standard Process for Data Mining (CRISP-DM) in the evaluation of the historical data of candidates freshmen at a private university in the city of São Paulo, and proposed a recommendation model, which will identify the most suitable course of a candidate's profile, using a technique of data mining based on decision trees for the discovery of relevant knowledge from database. The completion of this project has allowed to propose courses that would be more suitable to professional profiles of the candidates, based on the professional and educational historical information which were considered more important for the candidate selection. It is expected, therefore, that the counseling service will become more accurate and more responsive to the selection of candidates, assisting to reduce the number of abandonments, dropouts or changes in specialization courses offered by the studied university. / A globalização da economia tornou os mercados de produtos e serviços mais competitivos, demandando uma melhor qualificação da mão-de-obra. Consequentemente, as empresas têm necessitado de profissionais mais bem qualificados para atender a demandas específicas. Neste contexto, os cursos de especialização têm sido opções procuradas por profissionais para adquirir e atualizar o conhecimento. Contudo, a diversificação de cursos, oferecidos por diversas instituições de ensino, nas mais variadas áreas, direcionados a públicos específicos ou gerais, ou a falta de informações objetivas, dificultam a compreensão de fatores importantes na decisão a ser tomada por um candidato. Uma opção mal escolhida pode incorrer em fatores que podem desencadear a mudança ou até mesmo a desistência do curso. O tema é atual e relevante para as Instituições de Ensino Superior (IES), mostrando a importância de se ofertar cursos de especialização que estejam alinhados às competências das instituições de ensino e aos interesses de capacitação e requalificação do profissional. Portanto, o presente trabalho propõe estudar as características profissionais que influenciam os candidatos na escolha de um curso, e desenvolver um modelo de recomendação, utilizando-se técnicas de inteligência artificial, para uso prático nas IES, que auxilie os candidatos na escolha dos cursos, assim como sirva de apoio aos coordenadores na orientação e seleção dos candidatos. Será aplicada uma metodologia baseada nos processos Knowledge Discovery in Databases (KDD) e CRoss-Industry Standard Process for Data Mining (CRISPDM) para análise e avaliação dos dados históricos de candidatos ingressantes em uma universidade particular, na cidade de São Paulo, e proposto um modelo de recomendação, que identificará o curso mais adequado ao perfil de um candidato, utilizando-se uma técnica de mineração de dados baseada em árvores de decisão para a descoberta de conhecimento relevante do banco de dados. A conclusão do projeto permitiu propor cursos que seriam mais adequados aos perfis profissionais dos candidatos, tomando-se como base as informações do histórico profissional e educacional que foram consideradas mais importantes para a seleção dos candidatos. Espera-se, com isso, tornar mais preciso o serviço de aconselhamento de cursos, e mais ágil a seleção de candidatos, contribuindo para a redução do número de abandonos, desistências ou mudanças nos cursos de especialização oferecidos pela universidade estudada.

Page generated in 0.048 seconds