• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 990
  • 63
  • 50
  • 27
  • 20
  • 11
  • 11
  • 11
  • 8
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 1169
  • 625
  • 447
  • 413
  • 239
  • 212
  • 141
  • 140
  • 132
  • 123
  • 123
  • 119
  • 116
  • 109
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Aplicação de técnicas de aprendizagem de máquina na geração de índices para sistemas de busca

Carvalho, André Luiz Costa 26 November 2012 (has links)
Submitted by Lúcia Brandão (lucia.elaine@live.com) on 2015-07-27T17:43:06Z No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:37:39Z (GMT) No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:47:09Z (GMT) No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Made available in DSpace on 2015-07-28T18:47:09Z (GMT). No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) Previous issue date: 2012-11-26 / CNPq - Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico / Search engines station between main Ways to Get INFORMATION on the Internet, receiving Million daily queries. This volume Query topping generates a considerable burden In Query processors of search machines, that should NOT JUST worry with a quality fi nal ANSWER received by users, but Also with a latency This consultation, JA What A delay excessive on MAY rhythm harm a RESPONSE Experience Users ITS. In the Last Year HAS A considerable effort been Research in Technical Application Machine Learning During Query Processing, aiming mainly um increase in the fi nal quality of YOUR answers. This thesis studied the Technical Application machine learning During the generation of indexes, rather than apply them to processing Queries, therefore opening a new front for the Technical Application of Learning Machine in search systems. Within the study, we propose two techniques for the Application Machine learning in the Document Indexing in search of machines with Showing THAT That there Space paragraph enhance an indexing with the use of these techniques. The advantage of this approach is that as THAT Processing And Done Before Consultations Made to be looking machine, Regardless of how costly this computationally BE Process, THIS IS NOT re fl directly etirá In Query Processing Time. We propose here Two techniques: LePrEF, One Evidence Fusion Technique Indexing Time Who Has As a search Purpose Machines Performance Improvement During Processing Consultations, THROUGH indexes Generation que CODI fi cam a Better importance of each term Each Document, AND A phrasal TERMS detection technique (phrases OS), with the objective of improve the quality of the responses obtained FOR THEM. The Technical LePrEF Performs a Relevance of Evidence Sources Fusion pace in Indexing using for both machine learning. The need for evidence of fusion not Drift Query Processing What do FACT search Systems in General Several use Evidence Sources To compute answers YOUR Such As the text of web pages, the text of IN pointers received each page, pointing Analysis Methods As the PageRank, Among many others. However, the recent increase Evidence Sources lev Also one New custodian processing. This is, coupled with the constant growth in the Content Quantity / Máquinas de busca estão entre as principais formas de se obter informações na internet,recebendo milhões de consultas diárias. Este volume avantajado de consultas gera uma considerável carga nos processadores de consultas das máquinas de busca, que devem não apenas se preocupar com a qualidade da resposta final recebida pelos usuários, mas também com a latência desta consulta ,já que uma demora excessiva no tempo de resposta pode prejudicar a experiência de seus usuários. Nos últimos anos tem havido um considerável esforço de pesquisa na aplicação de técnicas de aprendizado de máquina durante o processamento de consultas, objetivando-se principalmente um aumento na qualidade final de suas respostas. Nesta tese estudamos a aplicação de técnicas de aprendizagem de máquina durante a geração de índices, ao invés de aplicá-las ao processamento de consultas, abrindo portanto uma nova frente para a aplicação de técnicas de aprendizagem de máquina em sistemas de busca. Dentro do estudo, propomos duas técnicas para a aplicação de aprendizado de máquina na indexação de documentos em máquinas de busca, mostrando com isso que há espaço para melhorar a indexação com o uso dessas técnicas. A vantagem de tal abordagem é que, como esse processamento é feito antes das consultas serem feitas à maquina de busca, independente de quão custoso computacionalmente seja este processo, isto não refletirá diretamente no tempo de processamento de consultas. Propomos aqui duas técnicas: LePrEF, uma técnica de fusão de evidências em tempo de indexação que tem como objetivo a melhoria do desempenho de máquinas de busca durante o processamento de consultas, por meio da geração de índices que codificam melhor a importância de cada termo em cada documento, e uma técnica de detecção de termos frasais (os sintagmas), com o objetivo de melhorar a qualidade das respostas obtidas por elas. A técnica LePrEF realiza a fusão de fontes de evidência de relevância em tempo de indexação utilizando para tanto aprendizagem de máquina. A necessidade da fusão de evidências no processamento de consultas deriva do fato de que sistemas de busca em geral utilizam diversas fontes de evidência para computar suas respostas, tais como o texto das páginas web, o texto dos apontadores recebidos por cada página, métodos de análise de apontadores como o PageRank, dentre muitos outros. Porém, o acréscimo de novas fontes de evidência leva também a novos custos de processamento. Isto, aliado ao constante crescimento na quantidade de conteúdo
92

Modelagem de propensão ao atrito no setor de telecomunicações / Modeling Attrition Propensity in the Telecommunication Sector

Arruda, Rodolfo Augusto da Silva 12 March 2019 (has links)
A satisfação dos clientes é fundamental para a manutenção do relacionamento com a empresa. Quando eles precisam resolver algum problema, a empresa necessita proporcionar bom atendimento e ter capacidade de resolutividade. No entanto, o atendimento massificado, muitas vezes, impossibilita soluções sensíveis às necessidades dos clientes. A metodologia estatística pode ajudar a empresa na priorização de clientes com perfil a reclamar em um órgão de defesa ao consumidor (ODC), evitando assim uma situação de atrito. Neste projeto, foi realizada a modelagem do comportamento do cliente com relação à propensão ao atrito. Foram testadas as técnicas de Regressão Logística, Random Forest e Algoritmos Genéticos. Os resultados mostraram que os Algoritmos Genéticos são uma boa opção para tornar o modelo mais simples (parcimonioso), sem perda de performance, e que o Random Forest possibilitou ganho de performance, porém torna o modelo mais complexo, tanto do ponto de vista computacional quanto prático no que tange à implantação em sistemas de produção da empresa. / Customer satisfaction is key to maintaining the relationship with the company. When these need to solve some problem, the company needs to provide good service and have resolving capacity. However, the mass service often makes it impossible. The statistical methodology can help the company in the prioritization of clients with profile to complain in ODC, thus avoiding a situation of attrition. In this project was carried out the modeling of the behavior of the client in relation to the propensity to attrition. Logistic Regression, Random Forest and Genetic Algorithms were tested. The results showed that the Genetic Algorithms are a good option to make the model simpler (parsimonious) without loss of performance and that Random Forest allowed performance gain, but it makes the model more complex, both from the point of view computational and practical in relation to the implantation in production systems of the company.
93

Discretização e geração de gráficos de dados em aprendizado de máquina / Attribute discretization and graphics generation in machine learning

Voltolini, Richardson Floriani 17 November 2006 (has links)
A elevada quantidade e variedade de informações adquirida e armazenada em meio eletrônico e a incapacidade humana de analizá-las, têm motivado o desenvolvimento da área de Mineracão de Dados - MD - que busca, de maneira semi-automática, extrair conhecimento novo e útil de grandes bases de dados. Uma das fases do processo de MD é o pré-processamento dessas bases de dados. O pré-processamento de dados tem como alguns de seus principais objetivos possibilitar que o usuário do processo obtenha maior compreensão dos dados utilizados, bem como tornar os dados mais adequados para as próximas fases do processo de MD. Uma técnica que busca auxiliar no primeiro objetivo citado é a geracão de gráficos de dados, a qual consiste na representação gráfica dos registros (exemplos) de uma base de dados. Existem diversos métodos de geracão de gráficos, cada qual com suas características e objetivos. Ainda na fase de pré-processamento, de modo a tornar os dados brutos mais adequados para as demais fases do processo de MD, diversas técnicas podem ser aplicadas, promovendo transformações nesses dados. Uma delas é a discretização de dados, que transforma um atributo contínuo da base de dados em um atributo discreto. Neste trabalho são abordados alguns métodos de geração de gráficos e de discretização de dados freqüentemente utilizados pela comunidade. Com relação aos métodos de geração de gráficos, foi projetado e implementado o sistema DISCOVERGRAPHICS que provê interfaces para a geração de gráficos de dados. As diferentes interfaces criadas permitem a utilização do sistema por usuários avançados, leigos e por outros sistemas computacionais. Com relação ao segundo assunto abordado neste trabalho, discretização de dados, foram considerados diversos métodos de discretização supervisionados e não-supervisionados, freqüentemente utilizados pela comunidade, e foi proposto um novo método não-supervisionado denominado K-MeansR. Esses métodos foram comparados entre sí por meio da realização de experimentos e analise estatística dos resultados, considerando-se diversas medidas para realizar a avaliação. Os resultados obtidos indicam que o método proposto supera vários dos métodos de discretização considerados / The great quantity and variety of information acquired and stored electronically and the lack of human capacity to analyze it, have motivated the development of Data Mining - DM - a process that attempts to extract new and useful knowledge from databases. One of the steps of the DM process is data preprocessing. The main goals of the data preprocessing step are to enable the user to have a better understanding of the data being used and to transform the data so it is appropriate for the next step of the DM process related to pattern extraction. A technique concerning the first goal consists of the graphic representation of records (examples) of databases. There are various methods to generate these graphic representations, each one with its own characteristics and objectives. Furthermore, still in the preprocessing step, and in order to transform the raw data into a more suitable form for the next step of the DM process, various data discretization technique methods which transform continuous database attribute values into discrete ones can be applied. This work presents some frequently used methods of graph generation and data discretization. Related to the graph generation methods, we have developed a system called DISCOVERGRAPHICS, which offers different interfaces for graph generation. These interfaces allow both advanced and beginner users, as well as other systems, to access the DISCOVERGRAPHICS system facilities. Regarding the second subject of this work, data discretization, we considered various supervised and unsupervised methods and proposed a new unsupervised data discretization method called K-MeansR. Using different evaluation measures and databases, all these methods were experimentally compared to each other and statistical tests were run to analyze the experimental results. These results showed that the proposed method performed better than many of the other data discretization methods considered in this work
94

Avaliação automática da qualidade de escrita de resumos científicos em inglês / Automatic evaluation of the quality of English abstracts

Genoves Junior, Luiz Carlos 01 June 2007 (has links)
Problemas com a escrita podem afetar o desempenho de profissionais de maneira marcante, principalmente no caso de cientistas e acadêmicos que precisam escrever com proficiência e desembaraço não somente na língua materna, mas principalmente em inglês. Durante os últimos anos, ferramentas de suporte à escrita, algumas com enfoque em textos científicos, como o AMADEUS e o SciPo foram desenvolvidas e têm auxiliado pesquisadores na divulgação de suas pesquisas. Entretanto, a criação dessas ferramentas é baseada em córpus, sendo muito custosa, pois implica em selecionar textos bem escritos, além de segmentá-los de acordo com sua estrutura esquemática. Nesse mestrado estudamos, avaliamos e implementamos métodos de detecção automática da estrutura esquemática e de avaliação automática da qualidade de escrita de resumos científicos em inglês. Investigamos o uso de tais métodos para possibilitar o desenvolvimento de dois tipos de ferramentas: de detecção de bons resumos e de crítica. Nossa abordagem é baseada em córpus e em aprendizado de máquina supervisionado. Desenvolvemos um detector automático da estrutura esquemática, que chamamos de AZEA, com taxa de acerto de 80,4% eKappa de 0,73, superiores ao estado da arte (acerto de 73%, Kappa de 0,65). Experimentamos várias combinações de algoritmos, atributos e diferentes seções de um artigo científicos. Utilizamos o AZEA na implementação de duas dimensões de uma rubrica para o gênero científico, composta de 7 dimensões, e construímos e disponibilizamos uma ferramenta de crítica da estrutura de um resumo. Um detector de erros de uso de artigo também foi desenvolvido, com precisão é de 83,7% (Kappa de 0,63) para a tarefa de decidir entre omitir ou não um artigo, com enfoque no feedback ao usuário e como parte da implementação da dimensão de erros gramaticais da rubrica. Na tarefa de detectar bons resumos, utilizamos métodos usados com sucesso na avaliação automática da qualidade de escrita de redações com as implementações da rubrica e realizamos experimentos iniciais, ainda com resultados fracos, próximos à baseline. Embora não tenhamos construído um bom avaliador automático da qualidade de escrita, acreditamos que este trabalho indica direções para atingir esta meta, e forneça algumas das ferramentas necessárias / Poor writing may have serious implications for a professional\'s career. This is even more serious in the case of scientists and academics whose job requires fluency and proficiency in their mother tongue as well as in English. This is why a number of writing tools have been developed in order to assist researchers to promote their work. Here, we are particularly interested in tools, such as AMADEUS and SciPo, which focus on scientific writing. AMADEUS and SciPo are corpus-based tools and hence they rely on corpus compilation which is by no means an easy task. In addition to the dificult task of selecting well-written texts, it also requires segmenting these texts according to their schematic structure. The present dissertation aims to investigate, evaluate and implement some methods to automatically detect the schematic structure of English abstracts and to automatically evaluate their quality. These methods have been examined with a view to enabling the development of two types of tools, namely: detection of well-written abstracts and a critique tool. For automatically detecting schematic structures, we have developed a tool, named AZEA, which adopts a corpus-based, supervised machine learning approach. AZEA reaches 80.4% accuracy and Kappa of 0.73, which is above the highest rates reported in the literature so far (73% accuracy and Kappa of 0.65). We have tested a number of different combinations of algorithms, features and different paper sections. AZEA has been used to implement two out of seven dimensions of a rubric for analyzing scientific papers. A critique tool for evaluating the structure of abstracts has also been developed and made available. In addition, our work also includes the development of a classifier for identifying errors related to English article usage. This classifier reaches 83.7% accuracy (Kappa de 0.63) in the task of deciding whether or not a given English noun phrase requires an article. If implemented in the dimension of grammatical errors of the above mentioned rubric, it can be used to give users feedback on their errors. As regards the task of detecting well-written abstracts, we have resorted to methods which have been successfully adopted to evaluate quality of essays and some preliminary tests have been carried out. However, our results are not yet satisfactory since they are not much above the baseline. Despite this drawback, we believe this study proves relevant since in addition to offering some of the necessary tools, it provides some fundamental guidelines towards the automatic evaluation of the quality of texts
95

Fusão computacional de observações afetivas. / Multimodal fusion of affective observations.

Cueva, Diego Ruivo 23 May 2013 (has links)
Este trabalho tem como objetivo discutir o estado da arte e propor melhorias em uma área de grande potencial e de crescimento recente na computação: a análise do estado emocional do usuário de um sistema de informação e a aplicação dessa observação em cenários ricos de interação homem-máquina. Para foco em um escopo tratável, escolheu-se o estudo das técnicas atuais de captação afetiva através de três sensores diferentes (expressões faciais, expressões vocais e contexto semântico) e de como sua combinação poderia resultar em dados mais robustos sobre o estado emocional do usuário, em uma aplicação conhecida como Fusão Multimodal. Nesse sentido, o trabalho levanta não apenas a bibliografia recente sobre o estado da arte da aquisição de dados nas três áreas e em fusão, mas também aplica algumas das ferramentas existentes (tanto comerciais como abertas) para melhor compreensão do nível atual da tecnologia acessível ao público acadêmico. Dada a inexistência de uma aplicação facilmente disponível para análise de emoções no contexto semântico, desenvolveu-se uma ferramenta dedicada à pesquisa, nomeada emoCrawler, a qual utiliza redes sociais para avaliação do caráter emocional que palavras indiretamente podem acarretar em uma discussão. O emoCrawler busca avaliar as emoções evocadas em usuários de Twitter e as compara com um dicionário emocional conhecido, baseado em contribuições acadêmicas diversas, gerando um resultado quantitativo útil ao escopo do trabalho. Por fim, o trabalho lançou mão da ferramenta emoCrawler e das outras ferramentas selecionadas para análise de expressões faciais e vocais na criação de um sistema de fusão sensorial que aumente a confiabilidade global da emoção detectada. Para isso, inicialmente um corpus de áudio e vídeo disponível foi tratado e reduzido para o escopo da pesquisa. Em seguida, diferentes técnicas de fusão baseadas em algoritmos de classificação foram aplicadas (redes neurais, Naive Bayes e Support Vector Machine), com abordagens distintas de treinamento para busca de resultados melhores dos que os encontrados nas aplicações unimodais. Os resultados verificados de fato indicam para uma melhor taxa de detecção quando é aplicado o algoritmo de fusão. Nesse processo, a presença de dados fornecidos pelo emoCrawler parece ter contribuído positivamente. / This work aims at discussing the state of the art and proposing improvements in a field of great potential and recent growth in computing: the analysis of the emotional state of the user of an information system and the application of such observations in rich scenarios of human-machine interaction. In a tractable scope of research, this work evaluates the current techniques of affective observation applied on three different inputs (facial expressions, speech features and semantic context) and comprehends how their combination can result in more robust affirmations on the actual emotional status of the user an application called Multimodal Fusion. In this sense, the work presents not only the recent literature on the state of the art in data acquisition in the three aforementioned areas and in fusion, but also applies some of the existing tools (both commercial and open) for a better understanding of the current level of technology available to the academic audience. Given the lack of an application readily available for the analysis of semantic context in emotions, a dedicated piece of software to the research was developed, entitled emoCrawler, which uses social networks as a means to evaluate the emotional signature that words may leave in a discussion. emoCrawler aims at evaluating emotions evoked in Twitter users and comparing them with an emotion dictionary built around academic contributions, generating a quantitative result useful to this research. Finally, this work made use of emoCrawler and the other selected tools for both facial and speech expressions in the creation of a sensor fusion system to enhance the global reliability of the affective detection. To achieve this, an audiovisual database was initially processed and condensed. Then, different fusion techniques based on classification algorithms with distinct learning approaches (neural networks, naïve Bayes and Support Vector Machine) were applied in the pursuit of better outcomes than the unimodal applications. The final results indeed point to a better rate of detection when fusion algorithms are applied. In this process, the data provided by emoCrawler seems to have contributed positively.
96

Tecnicas basicas para interações 3D atraves do mouse

Velasquez Alegre, Delia Perla Patricia 21 December 1997 (has links)
Orientador: Wu Shin-Ting / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-23T05:30:51Z (GMT). No. of bitstreams: 1 VelasquezAlegre_DeliaPerlaPatricia_M.pdf: 6738386 bytes, checksum: 4ca18a4b629bc01e1a35bfa6613fc5cb (MD5) Previous issue date: 1997 / Resumo: Neste trabalho foi formalizado e implementado um conjunto de técnicas de interação 3D que permite ao usuário comunicar-se diretamente com um ambiente 3D - modelado por computador - através de dispositivos convencionais como o mouse e a tela bidimensional. Estas técnicas permitem a identificação e posicionamento das entidades gráficas de objetos 3D no espaço do mundo real (WC) a partir do espaço bidimensional dos dispositivos convencionais (DC). As técnicas abordadas foram: identificação ordenada, movimentos circulares, particionamento do espaço imagem e plano de trabalho. Para auxiliar ao usuário nas suas interações com o espaço 3D foram usadas ferramentas visuais tais como grades e eixos 3D. Para permitir a reutilização das técnicas em interfaces gráficas tridimensionais, a estratégia de desenvolvimento das mesmas se deu na forma de componentes de interface. Essas componentes são integrantes da biblioteca IQLT para interações com o ambiente 3D. Uma destas técnicas - a técnica dos movimentos circulares - foi integrada à interface gráfica interativa ProSIm (Prototipação de Síntese de Imagens Fotorealísticas) apresentando o uso de uma estratégia para manipulação interativa da câmera. Acredita-se que a formalização das técnicas de interação nas suas diferentes coordenadas de visualização, abre a possibilidade que elas sejam exploradas em diferentes contextos da manipulação, tanto no espaço objeto (WC) quanto no espaço imagem (DC), nos trabalhos futuros / Abstract: A kit of 3D interaction tools that allow direct communication between the user and a computer modeled 3D enviroment has been formalized and implemented for conventional devices like mouse and bidimensional screen. These tools allow identification and positioning of graphical entities of 3D objects on the real world space (WC) from the bidimensional space of conventional devices (DC). The interactive tools studied are: ordered identification, circular movemets, partitioning of image space and working plane. Visual tools like 3D grids and 3D axis were used to improve the user interaction with the 3D space. To assure the reusability of these tools for 3D graphical interfaces the studied tools were implemented as widgets. These widgets are integrated in the toolkit named IQLT. The circular movement tool interactive has been applied on the interactive graphical interface ProSlm (Photorealistic Images Sintesis Prototipation) to manipulate interactively the movements of camera. We believe that the formalization of interaction tools in different visualization coordinates open the possibility to exploit the applicability of these tools in distinguished 3D contexts in future works / Mestrado / Mestre em Engenharia Elétrica
97

Automação residencial online para portadores de esclerose lateral amiotrófica - uma proposta / Online home automation for patients with amyotrophic lateral sclerosis - A proposal (Inglês)

Oliveira Junior, Wilson Gomes de 25 June 2018 (has links)
Made available in DSpace on 2019-03-30T00:23:06Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-06-25 / Smart devices are already present in all areas of knowledge sometimes making the main role, sometimes the supporting role. Regardless of their performance, they talk to other devices, monitor and control everything in the physical world. In this way, the Internet of Things (IoT) has been gaining ramifications. And the one that is in increasing ascension is the area of health that has been popularizing like IoHT. With this, several auxiliary treatments using computer technology have been built all over the world. This work proposes a mobile application called ALSHelp that integrates with a brain wave sensor and tied to an IoT infrastructure allows patients with amyotrophic lateral sclerosis (ALS) to perform simple tasks, which is not possible at a certain stage of the disease by reducing the force of muscles, in order to increase their self-esteem, as well as, give autonomy in some aspects of their life, functioning as a complementary tool to traditional medical treatment. Keywords: Amiotrophic Lateral Sclerosis, brain machine interface, Internet of things, Internet of Health Things. / Os dispositivos inteligentes já estão presentes em todas as áreas do conhecimento fazendo por vezes o papel principal, por vezes o papel de coadjuvante. Independente da sua atuação, eles conversam com outros dispositivos, monitoram e controlam tudo aquilo que está no mundo físico. Dessa forma, a internet das coisas (IoT) vêm ganhando ramificações. E a que está em crescente ascensão é a área da saúde que vem se popularizando como IoHT. Com isso diversos tratamentos auxiliares com uso da informática vem sendo construído em todo o mundo. Este trabalho propõe um aplicativo mobile denominado ALSHelp que integrado com um sensor de ondas cerebrais e atrelado a uma infraestrutura IoT permite que pacientes com esclerose lateral amiotrófica (ELA) possam realizar tarefas simples, que não é possível em determinado estágio da doença por reduzir a força dos músculos, de forma a aumentar sua autoestima, bem como, dar autonomia em alguns aspectos da sua vida, funcionando assim como uma ferramenta complementar ao tratamento médico tradicional. Palavras-chave: Esclerose lateral amiotrófica, interface cérebro-máquina, Internet das coisas, Internet das coisas da saúde.
98

Análise de alternativas de projeto de interação aplicando análise verbal de decisões

Carvalho, Ana Lisse Assunção de 29 September 2008 (has links)
Made available in DSpace on 2019-03-29T23:13:08Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-09-29 / This work presents a strategy for analysis of alternative solutions for interaction design, structured in Verbal Decision Analysis. Design multiple solutions has been considered a way to get creative and innovative interfaces, however the analysis of these solutions is generally performed in a quantitative way. Many papers recognize the difficulty in assessing qualitative aspects of subjective experiences of users and their preferences. This work propose applying Verbal Decision Analysis, which support decisions based on subjective questions, to aid the designer in the analysis of alternative interaction project. The result of this strategy is a set of alternatives and criteria ordered as the preferences of users. Designers use this information to understand the experiences of users and to design interaction projects according to the user's interest. A study over a real case problem was conducted analyzing prototypes that simulate a mobile Portal for Access to Digital Television. This experiment assesses the potentialities of the approach. Final considerations and suggestions of future work are presented at the end of this work. / Este trabalho apresenta uma estratégia para análise de soluções alternativas de projeto de interação, estruturada na Análise Verbal de Decisões. Projetar múltiplas soluções tem sido considerado uma forma de obter interfaces criativas e inovadoras, entretanto a análise dessas soluções é geralmente realizada de forma quantitativa. Autores de diversos trabalhos reconhecem a dificuldade em avaliar qualitativamente aspectos subjetivos das experiências dos usuários e suas preferências. Essa dissertação propõe a aplicação da Análise Verbal de Decisão, que compreende métodos de multicritério que apóiam a tomada de decisão fundamentada em questões subjetivas, para auxiliar o projetista na análise de alternativas de projeto de interação. O resultado dessa estratégia é um conjunto de alternativas e critérios ordenados conforme as preferências dos usuários. Os designers utilizam essas informações para compreender as experiências dos usuários e conceber projetos de interação que despertem o interesse dos usuários. O estudo de caso foi aplicado em protótipos que simulam um Portal de Acesso à Televisão Digital Móvel. Considerações finais e sugestões de trabalhos futuros são apresentadas ao final do trabalho. Palavras-chave: Interface homem máquina, análise multicritério, tomada de decisão, televisão digital móvel.
99

Análise do conhecimento extraído de classificadores simbólicos utilizando medidas de avaliação e de interessabilidade.

Gomes, Alan Keller 02 May 2002 (has links)
Com o avanço da tecnologia, grandes volumes de dados estão sendo coletados e acumulados numa velocidade espantosa. Data Mining constitui um campo de pesquisa recente em Inteligência Artificial, cujo objetivo é extrair conhecimento de grandes bases de dados. Um dos tópicos tratados em Data Mining para extrair conhecimento é o uso de algoritmos de Aprendizado de Máquina em grandes volumes de dados. Alguns algoritmos de Aprendizado de Máquina são capazes de criar generalizações, ou descrever conceitos, a partir de um conjunto de dados previamente rotulados. Esses algoritmos são conhecidos como indutores e são capazes de induzir uma hipótese (ou classificador). Um classificador pode estar descrito sob uma forma simbólica explícita, e assim, apresentar uma explicação do conceito aprendido de forma inteligível ao ser humano. Uma dessas formas de representação simbólica explícita são as regras de conhecimento. Especialmente em Data Mining, o volume de regras de conhecimento que descrevem um classificador simbólico pode ser muito grande. Isso dificulta muito a análise de regras individuais ou de um grupo de regras por parte do usuário desse conhecimento. No intuito de propor uma solução para essa dificuldade, a análise automática de regras, utilizando medidas de avaliação e de interessabilidade, destaca-se como uma das fontes de resultados positivos da aplicação do Aprendizado de Máquina na área de Data Mining. Neste trabalho é apresentado o RuleSystem, um sistema computacional protótipo que implementa funcionalidades voltadas para Aprendizado de Máquina e Data Mining. Uma dessas funcionalidades, implementadas no RuleSystem, refere-se à análise automática de regras. O Módulo de Análise de regras, proposto neste trabalho, implementa diversas medidas de avaliação e de interessabilidade de regras, permitindo assim realizar uma análise tanto quantitativa quanto qualitativa das regras que constituem a(s) hipótese(s) induzida(s) por algoritmos de Aprendizado de Maquina simbólico.
100

Análise de botnet utilizando plataforma de simulação com máquinas virtuais visando detecção e contenção. / Analysis of botnet using simulation platform with virtual machines for detection and containment.

Muzzi, Fernando Augusto Garcia 09 December 2010 (has links)
As redes de computadores e a internet são ambientes cada vez mais complexos e surgem a cada dia novos serviços, usuários e infraestruturas. A segurança e a privacidade da Informação tornam-se fundamentais para a evolução desses ambientes. O anonimato, a fragilidade da segurança e outros fatores muitas vezes estimulam indivíduos mal-intencionados a criarem ferramentas e técnicas de ataque a sistemas computacionais, resultando em prejuízos de diversas naturezas. A internet cresceu muito nos últimos anos e junto com esse crescimento surgiram novas ameaças, por exemplo, as botnets. Botnet é uma rede formada por bots (robôs), que tornam o computador da vítima infectado e monitorado por agente externo. O grande problema das botnets é que podem ser usadas por grupos mal-intencionados para promover ataques, com efeito prejudicial às pessoas, entidades, organizações e nações. Todavia, apesar de uma grande quantidade de estudos realizados pela comunidade de segurança nos últimos anos, há necessidade de mais estudos sobre o comportamento, propagação e contenção, até pelo fato de haver uma grande variação de métodos de infecção e propagação nesse tipo de ataque. Nesse contexto, esta tese analisa o comportamento da botnet Rxbot e implementa serviços de segurança, como IDS, regras de filtro de pacotes, para analisar e conter a propagação das botnets. É utilizada para análise uma plataforma de simulação, utilizando máquinas virtuais que provêem um ambiente com sistema operacional Windows. As principais contribuições são a detecção e contenção da propagação da botnet utilizando diversos serviços de segurança e análise da propagação dos pacotes do tipo SMTP, por meio da utilização da plataforma de simulação. / Computer networks and the Internet are increasingly complex and new services, users and infrastructure appear every day. The security and privacy of information become critical for the evolution of these infrastructures and services. The anonymity, the fragility of security, and other factors often encourage the malintentioned persons to create tools and techniques to attack computer systems, resulting in losses of various kinds. The Internet has grown in recent years and along with this growth come new threats, such as botnets. Botnet is a network of bots (robots) that make the victim\'s computer become infected and monitored or controled by an external agent. The big problem of botnets is that they can be used by groups to promote malicious attacks, with detrimental effect to people, groups, organizations and nations. However, despite a large amount of studies conducted by the security community in recent years, there is need for further studies on the behavior, spread and containment, due to variation of methods of infection and spread in such attacks. In this context, this thesis analyzes the behavior of botnet Rxbot and implements security services such as IDS, packet filter rules, to analyze and contain the spread of botnets. A simulation platform with virtual machine, providing Windows operating system environment is used. The main contributions are the detection and containment of the spread of botnet using various security services and propagation analysis packages like SMTP by using the simulation platform.

Page generated in 0.0318 seconds