Spelling suggestions: "subject:"recuperacao"" "subject:"recuperaçao""
141 |
Um modelo de fusão de rankings baseado em análise de preferência / A model to ranking fusion based on preference analysisDutra Junior, Elmário Gomes January 2008 (has links)
O crescente volume de informações disponíveis na rede mundial de computadores, gera a necessidade do uso de ferramentas que sejam capazes de localizá-las e ordenálas, de forma cada vez mais precisa e que demandem cada vez menos recursos computacionais. Esta necessidade tem motivado pesquisadores a estudar e desenvolver modelos e técnicas que atendam esta demanda. Estudos recentes têm sinalizado que utilizar vários ordenamentos (rankings) previamente montados possibilita o retorno e ordenação de objetos de qualquer natureza com mais eficiência, principalmente pelo fato de haver uma redução no custo da busca pela informação. Este processo, conhecido como fusão de rankings, permite que se obtenha um ordenamento com base na opinião de diversos juízes (critérios), o que possibilita considerar um grande número de fontes, tanto geradas automaticamente como por especialistas. Entretanto os modelos propostos até então tem apresentado várias limitações na sua aplicação: desde a quantidade de rankings envolvidos até, principalmente, a utilização de rankings parciais. A proposta desta dissertação é apresentar um modelo de fusão de rankings que busca estabelecer um consenso entre as opiniões (rankings) dos diferentes juízes envolvidos, considerando distintos graus de relevância ou importância entre eles. A base desta proposta está na Análise de Preferência, um conjunto de técnicas que permite o tratamento da multidimensionalidade dos dados envolvidos. Ao ser testado em uma aplicação real, o modelo mostrou conseguir suprir algumas limitações apresentadas em outras abordagens, bem como apresentou resultados similares aos das aplicações originais. Esta pesquisa, ainda contribui, com a especificação de um sistema Web baseado em tecnologias open source, o qual permite que qualquer pessoa possa realizar a fusão de rankings. / The growing volume of available information on the web creates the need to use tools that are capable of retrieve and ordering this information, ever more precise and using less computer resources. This need has motivated researchers to study and develop models and techniques that solve this problem. Recent studies have indicated that use multiple rankings previously mounted makes possible the return and sorting of the objects of any kind with more efficiency, mainly because there is a reduction in the cost of searching for information. This process, called ranking fusion, provide a ranking based on the opinion of several judges (criteria), considering a large number of sources, both generated automatically and also by specialists. However the proposed models have shown severe limitations in its application: from the amount involved rankings to the use of partial rankings. The proposal of this dissertation is to show a model of ranking fusion that seeks to establish a consensus between the judgement (rankings) of the various judges involved, considering different degrees of relevance or importance among them. The baseline of this proposal is the Preference Analysis, a set of techniques that allows the treatment of multidimensional data handling. During tests in a real application, the model supplied some limitations presented by other approaches, and presented results similar to the original applications. Additionally, this research contributes with the specification of a web system based on open-sources technologies, enabling the realization of fusion rankings by anyone.
|
142 |
O estudo e desenvolvimento do protótipo de uma ferramenta de apoio a formulação de consultas a bases de dados na área da saúde / The study and development of the prototype of a tool for supporting query formulation to databases in the health areaWebber, Carine Geltrudes January 1997 (has links)
O objetivo deste trabalho é, através do estudo de diversas tecnologias, desenvolver o protótipo de uma ferramenta capaz de oferecer suporte ao usuário na formulacdo de uma consulta a MEDLINE (Medical Literature Analysis and Retrieval System On Line). A MEDLINE é um sistema de recuperação de informações bibliográficas, na área da biomedicina, desenvolvida pela National Library of Medicine. Ela é uma ferramenta cuja utilizando tem sido ampliada nesta área em decorrência do aumento da utilizando de literatura, disponível eletronicamente, por profissionais da área da saúde. As pessoas, em geral, buscam informação e esperam encontrá-la exatamente de acordo com as suas expectativas, de forma ágil e utilizando todas as fontes de recursos disponíveis. Foi com este propósito que surgiram os primeiros Sistema de Recuperação de Informação (SRI) onde, de forma simplificada, um usuário constrói uma consulta, a qual expressa sua necessidade de informação, em seguida o sistema a processa e os resultados obtidas através dela retornam ao usuário. Grande parte dos usuários encontram dificuldades em representar a sua necessidade de informação de forma a obter resultados satisfatórios em um SRI. Os termos que o usuário escolhe para compor a consulta nem sempre são os mesmos que o sistema reconhece. A fim de que um usuário seja bem sucedido na definição dos termos que compõem a sua consulta é aconselhável que ele conheça a terminologia que foi empregada na indexação dos itens que ele deseja recuperar ou que possa contar com um intermediário que possua esse conhecimento. Em situações em que nenhuma dessas possibilidades seja verdadeira recursos que viabilizem uma consulta bem sucedida se fazem necessários. Este trabalho, inicialmente, apresenta um estudo geral sobre os Sistemas de Recuperação de Informações (SRI), enfocando todos os processos envolvidos e relacionados ao armazenamento, organização e a própria recuperação. Posteriormente, são destacados aspectos relacionados aos vocabulários e classificações medicas em uso, os quais serão Úteis para uma maior compreensão das dificuldades encontradas pelos usuários durante a interação com um sistema com esta finalidade. E, finalmente, é apresentado o protótipo do Sistema para Formulação de Consultas a MEDLINE, bem como seus componentes e funcionalidades. O Sistema para Formulação de Consultas a MEDLINE foi desenvolvido com o intuito de permitir que o usuário utilize qualquer termo na formulação de uma consulta destinada a MEDLINE. Ele possibilita a integração de diferentes terminologias médicas, originárias de vocabulários e classificações disponíveis em língua portuguesa e atualmente em uso. Esta abordagem permite a criação de uma terminologia biomédica mais completa, sendo que cada termo mantém relacionamentos, os quais descrevem a sua semântica, com outros. / The goal of this work is, through the study of many technologies, to develop the prototype of a tool able to offer support to the user in query formulation to the MEDLINE (Medical Literature Analysis and Retrieval System On Line). The MEDLINE is a bibliographical information retrieval system in the biomedicine area developed by National Library of Medicine. It is a tool whose usefulness has been amplifyed in this area by the increase of literature utilization, eletronically available, by health care profissionals. People, in general, look for information and are interested in finding it exactly like their expectations, in an agile way and using every single information source available. With this purpouse the first Information Retrieval System (IRS ) emerged, where in a simplifyed way, a user defines a query, that expresses an information necessity and, one step ahead, the system processes it and returns to the user answers from the query. Most of the users think is difficult to represent their information necessity in order to be succesful in searching an IRS. The terms that the user selects to compose the query are not always the same that the system recognizes. In order to be successfull in the definition of the terms that will compose his/her query is advisable that the user know the terminology that was employed in the indexing process of the wanted items or that he/she can have an intermediary person who knows about it. In many situations where no one of these possibilities can be true, resources that make a successfull query possible will be needed. This work, firstly, presents a general study on IRS focusing all the process involved and related to the storage, organization and retrieval. Lately, aspects related to the medical classifications and vocabulary are emphasized, which will be usefull for a largest comprehension of the difficulties found by users during interaction with a system like this. And, finally, the prototype of the Query Formulation System to MEDLINE is presented, as well as its components and funcionalities. The Query Formulation System to MEDLINE was developed with the intention of allowing the user to use any term in the formulation of a query to the MEDLINE. It allows the integration of different medical terminologies originated from classifications and vocabulary available in Portuguese language and in use today. This approach permits the creation of a more complete biomedical terminology in which each term maintains relationships that describe its semantic.
|
143 |
Cinética da liberação de O2 de oxidantes sólidos, contendo peróxido de magnésio, em condições abióticas e bióticas, para aplicação no controle do souring em reservatórios de petróleo em offshoreDecorato, Fábio La Falce January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Alimentos, Florianópolis, 2012 / Made available in DSpace on 2013-07-16T03:41:52Z (GMT). No. of bitstreams: 1
317483.pdf: 2452052 bytes, checksum: e039a52504abedb66e048141c6057204 (MD5) / Peróxido de magnésio (MgO2) é um composto utilizado na remediação de águas subterrâneas, sendo uma alternativa viável para prevenir a produção de ácido sulfídrico (H2S), pois pode inibir a ação de Bactérias Redutoras de Sulfato (BRS), uma vez que em contato com a água, O2 é liberado lentamente tornando o ambiente aeróbio. O objetivo do presente estudo foi investigar a velocidade de liberação de O2 do MgO2 em condições abióticas e verificar a viabilidade como potencial inibidor das BRS, em condições bióticas. Os ensaios foram realizados em duas etapas. Na 1ª etapa realizaram-se experimentos, em condições abióticas, em frascos do tipo erlenmeyers adaptados com três aberturas para: a sonda do oxímetro, o eletrodo do pHmetro e o amostrador. Os oxidantes sólidos utilizados contendo MgO2 foram: Oxygen Release Compound (ORC®), 2 compostos sintetizados pela Universidade Federal do Paraná (UFPR-1 e UFPR-2) e o reagente Sigma-Aldrich. Inicialmente fluiu-se gás argônio no meio líquido e no headspace para a exaustão do O2. Em seguida, adicionaram-se os produtos numa concentração de 0,4, 4 e 10 g.L-1, divididos em fases de A a F (em duplicata). Leituras de pH e oxigênio dissolvido foram realizadas nos reatores. Quando atingida a concentração máxima de O2, sulfito de sódio foi adicionado para a eliminação do O2. As maiores velocidades de liberação de O2 dos oxidantes sólidos foram obtidas quando ORC® foi utilizado, determinadas pela quantidade de MgO2 contido nos produtos investigados, bem como pela concentração de produto adicionado na água do mar. Concomitante a isso, o aumento da concentração dos íons H+, promovido pela a correção do pH com HCl, foi um fator decisivo para obtenção de maiores velocidades de liberação de O2. Na 2ª etapa, em condições bióticas, foram empregados reatores erlenmeyers de 250 mL, utilizando o lactato como fonte de carbono para as BRS na ausência de luz. Um dos reatores foi conduzido sem a adição do ORC®, denominado controle, e o outro com a suplementação de MgO2. Em cada biorreator foi adicionado água do mar e um consórcio microbiano enriquecido de BRS e aplicaram-se sucessivas quantidades de ORC®. As concentrações de sulfato e sulfeto presentes no efluente foram determinadas, assim como pH e OD. Com o emprego do ORC® pode-se verificar que 10 g.L-1 foi capaz de inibir a formação de sulfeto durante 10 dias. Sendo assim, a alternativa de aplicação do MgO2 para evitar o souring em offshore não inativa e não impede o crescimento das BRS, apenas inibe-as de maneira eficaz, enquanto as condições de aerobiose forem mantidas. <br> / Abstract : Magnesium peroxide (MgO2) is a compound used in the remediation of groundwater and is a viable method for preventing the production of hydrogen sulphide (H2S), as it can inhibit the action of sulphate-reducing bacteria (SRB), since in contact with water, O2 is released slowly turning the aerobic environment. The aim of this study was to investigate the speed of release of O2 MgO2 in abiotic conditions and verify the feasibility as a potential inhibitor of BRS in biotic conditions. Assays were performed in two stages. In the 1st stage experiments were performed in abiotic conditions in erlenmeyeres flasks adapted with three openings: the oximeter probe, the electrode of the pHmeter and sampler. The solids oxidants containing MgO2 used were: Oxygen Release Compound (ORC®), 2 compounds synthesized by the Federal University of Paraná (UFPR-1 and UFPR-2) and Sigma-Aldrich reagent. Initially argon gas flowed up through the liquid and headspace to exhaust O2. Therefore, the products were added in a concentration of 0.4, 4 and 10 g.L-1, split into phases A to F (in duplicate). Readings of pH and dissolved oxygen were carried out in the reactors. When reaching the maximum concentration of O2, sodium sulfite was added to eliminate O2. The highest speed of release of oxidants O2 solids were obtained when ORC® was used, determined by the amount of MgO2 contained in the investigated products, as well as by the concentration of product added to the seawater. Concomitant to this, increasing the concentration of H+ ions, sponsored by the correction of the pH with HCl, was a decisive factor in achieving higher speeds release of O2. In Step 2, under biotic, were employed reactors of 250 mL erlenmeyeres flasks, using lactate as the carbon source for the BRS in the absence of light. One of the reactors was conducted without the addition of ORC®, called control, and the other with supplementation MgO2. In each bioreactor was added seawater and a microbial consortium enriched BRS and applied successive amounts of ORC®. The concentrations of sulfate and sulfite in the effluent were determined as well as pH and DO. With the use of the ORC® can be seen that 10 g.L-1 was capable of inhibiting the formation of sulfide for 10 days. Therefore, the alternative use of MgO2 to avoid souring offshore not inative and does not prevent the growth of BRS only inhibits them effectively, while aerobic conditions are maintained.
|
144 |
Combinando métricas baseadas em conteúdo e em referências para a detecção de plágio em artigos científicos / Combining content- and citation-based metrics for plagiarism detection in scientific papersPertile, Solange de Lurdes January 2015 (has links)
A grande quantidade de artigos científicos disponíveis on-line faz com que seja mais fácil para estudantes e pesquisadores reutilizarem texto de outros autores, e torna mais difícil a verificação da originalidade de um determinado texto. Reutilizar texto sem creditar a fonte é considerado plágio. Uma série de estudos relatam a alta prevalência de plágio no meio acadêmico e científico. Como consequência, inúmeras instituições e pesquisadores têm se dedicado à elaboração de sistemas para automatizar o processo de verificação de plágio. A maioria dos trabalhos existentes baseia-se na análise da similaridade do conteúdo textual dos documentos para avaliar a existência de plágio. Mais recentemente, foram propostas métricas de similaridade que desconsideram o texto e analisam apenas as citações e/ou referências bibliográficas compartilhadas entre documentos. Entretanto, casos em que o autor não referencia a fonte original pode passar despercebido pelas métricas baseadas apenas na análise de referências/citações. Neste contexto, a solução proposta é baseada na hipótese de que a combinação de métricas de similaridade de conteúdo e de citações/referências pode melhorar a qualidade da detecção de plágio. Duas formas de combinação são propostas: (i) os escores produzidos pelas métricas de similaridade são utilizados para ranqueamento dos pares de documentos e (ii) os escores das métricas são utilizados para construir vetores de características que serão usados por algoritmos de Aprendizagem de Máquina para classificar os documentos. Os experimentos foram realizados com conjuntos de dados reais de artigos científicos. A avaliação experimental mostra que a hipótese foi confirmada quando a combinação das métricas de similaridade usando Aprendizagem de Máquina é comparada com a combinação simples. Ainda, ambas as combinações apresentaram ganhos quando comparadas com as métricas aplicadas de forma individual. / The large amount of scientific documents available online makes it easier for students and researchers reuse text from other authors, and makes it difficult to verify the originality of a given text. Reusing text without crediting the source is considered plagiarism. A number of studies have reported on the high prevalence of plagiarism in academia. As a result, many institutions and researchers have developed systems that automate the plagiarism detection process. Most of the existing work is based on the analysis of the similarity of the textual content of documents to assess the existence of plagiarism. More recently, similarity metrics that ignore the text and just analyze the citations and/or references shared between documents have been proposed. However, cases in which the author does not reference the original source may go unnoticed by metrics based only on the references/citations analysis. In this context, the proposed solution is based on the hypothesis that the combination of content similarity metrics and references/citations can improve the quality of plagiarism detection. Two forms of combination are proposed: (i) scores produced by the similarity metrics are used to ranking of pairs of documents and (ii) scores of metrics are used to construct feature vectors that are used by algorithms machine learning to classify documents. The experiments were performed with real data sets of papers. The experimental evaluation shows that the hypothesis was confirmed when the combination of the similarity metrics using machine learning is compared with the simple combining. Also, both compounds showed gains when compared with the metrics applied individually.
|
145 |
Instanciação de atividades de atuação em um modelo de processo de negócio e seleção de serviços web em ambientes de Home Care / Instantiation of actuation activities in a business process model and selection of web services in home care environmentsSilva, Júlia Kikuye Kambara da January 2015 (has links)
Atualmente existem muitos estudos sendo conduzidos na área de Home Care, onde casas providas com sensores e atuadores podem ajudar o paciente em suas tarefas diárias, mesmo aqueles portadores de doenças crônicas ou limitações cognitivas e físicas. No contexto de Home Care, dispositivos domésticos controláveis podem agir como atuadores. Um importante desafio nessa área é a coordenação desses atuadores, para que os mesmos possam ser utilizados na prestação de cuidados ao paciente em sua casa. Para prestar auxílio em tarefas, deve ser levado em consideração o contexto do paciente e dos dispositivos presentes na casa. Este trabalho apresenta uma nova abordagem, sensível ao contexto, para selecionar a funcionalidade, de um dispositivo, mais adequada para a execução de uma atuação em um ambiente de Home Care. Nessa abordagem, as funcionalidades dos dispositivos são representadas por serviços Web, e modelos de processos de negócio são utilizados como roteiros das atividades que devem ser realizadas para gerir uma determinada situação. Desta forma, o problema de selecionar dispositivos e funcionalidades adequadas para executar uma determinada atividade de atuação de um modelo de processo de negócio é tratado através da seleção de serviços Web com base em aspectos sintáticos, semânticos e contextuais. A abordagem é avaliada através da simulação de cenários de aplicação extraídos da literatura, de forma a verificar a sua viabilidade. / There are many studies currently being conducted within the field of Home Care, where houses fulfilled with actuators and sensors can help patients in their daily lives, even the ones who suffer from chronicle diseases or cognitive and physical disabilities. In the Home Care context, controllable domestic devices can perform as actuators. An important challenge to this area refers to the coordination of such actuators so they can be used to assist patients in their home. In order to assist the patient daily live we need to take into consideration the patient and the context of household devices. This work presents a novel context-aware approach for selecting the most appropriate device functionality to execute the actuation needed in a Home Care environment. In this approach, device functionalities are described and represented by Web services, and business process models are used as guidelines for the activities that should be realized to manage a determined situation. Therefore, the issue of selecting devices and adequate functionalities to execute determined activity in a business process model is treated as an approach to select Web services based on their syntactic and semantic aspects in a context-aware manner. The approach is evaluated by simulation of application scenarios extracted from the literature in order to check its viability.
|
146 |
Atributos discriminantes baseados em sentimento para a predição de pesquisas eleitorais : um estudo de caso no cenário brasileiro / Sentiment-based features for predicting election polls : a case study on the brazilian scenarioTumitan, Diego Costa January 2014 (has links)
O sucesso da mineração de opiniões para processar automaticamente grandes quantidades de conteúdo opinativo disponíveis na Internet tem sido demonstrado como uma solução de baixa latência e mais barata para a análise de opinião pública. No presente trabalho foi investigado se é possível prever variações de intenção de voto com base em séries temporais de sentimento extraídas de comentários de notícias, utilizando três eleições brasileiras como estudo de caso. As contribuições deste estudo de caso são: a) a comparação de duas abordagens para a mineração de opiniões em conteúdo gerado por usuários em português do Brasil; b) a proposta de dois tipos de atributos discriminantes para representar o sentimento em relação a candidatos políticos a serem usados para a previsão, c) uma abordagem para prever variações de intenção de voto que é adequada para cenários de dados esparsos. Foram desenvolvidos experimentos para avaliar a influência dos atributos discriminantes propostos em relação a acurácia da previsão, e suas respectivas preparações. Os resultados mostraram uma acurácia de 70% na previsão de variações de intenção de voto positivas e negativas. Estas contribuições são importantes passos em direção a um framework que é capaz de combinar opiniões de diversas fontes para encontrar a representatividade de uma população alvo, de modo que se possa obter previsões mais confiáveis. / The success of opinion mining for automatically processing vast amounts of opinionated content available on the Internet has been demonstrated as a less expensive and lower latency solution for gathering public opinion. In this work, we investigate whether it is possible to predict variations in vote intention based on sentiment time series extracted from news comments, using three Brazilian elections as case study. The contributions of this case study are: a) the comparison of two approaches for opinion mining in user-generated content in Brazilian Portuguese; b) the proposition of two types of features to represent sentiment behavior towards political candidates that can be used for prediction, c) an approach to predict polls vote intention variations that is adequate for scenarios of sparse data. We developed experiments to assess the influence on the forecasting accuracy of the proposed features, and their respective preparation. Our results display an accuracy of 70% in predicting positive and negative variations. These are important contributions towards a more general framework that is able to blend opinions from several different sources to find representativeness of the target population, and make more reliable predictions.
|
147 |
Extração de metadados utilizando uma ontologia de domínio / Metadata extraction using a domain ontologyOliveira, Luis Henrique Gonçalves de January 2009 (has links)
O objetivo da Web Semântica é prover a descrição semântica dos recursos através de metadados processáveis por máquinas. Essa camada semântica estende a Web já existente agregando facilidades para a execução de pesquisas, filtragem, resumo ou intercâmbio de conhecimento de maior complexidade. Dentro deste contexto, as bibliotecas digitais são as aplicações que estão iniciando o processo de agregar anotações semânticas às informações disponíveis na Web. Uma biblioteca digital pode ser definida como uma coleção de recursos digitais selecionados segundo critérios determinados, com alguma organização lógica e de modo acessível para recuperação distribuída em rede. Para facilitar o processo de recuperação são utilizados metadados para descrever o conteúdo armazenado. Porém, a geração manual de metadados é uma tarefa complexa e que demanda tempo, além de sujeita a falhas. Portanto a extração automática ou semi-automática desses metadados seria de grande ajuda para os autores, subtraindo uma tarefa do processo de publicação de documentos. A pesquisa realizada nesta dissertação visou abordar esse problema, desenvolvendo um extrator de metadados que popula uma ontologia de documentos e classifica o documento segundo uma hierarquia pré-definida. A ontologia de documentos OntoDoc foi criada para armazenar e disponibilizar os metadados extraídos, assim como a classificação obtida para o documento. A implementação realizada focou-se em artigos científicos de Ciência da Computação e utilizou a classificação das áreas da ACM na tarefa de classificação dos documentos. Um conjunto de exemplos retirados da Biblioteca Digital da ACM foi gerado para a realização do treinamento e de experimentos sobre a implementação. As principais contribuições desta pesquisa são o modelo de extração de metadados e classificação de documentos de forma integrada e a descrição dos documentos através de metadados armazenados em um ontologia, a OntoDoc. / The main purpose of the Semantic Web is to provide machine processable metadata that describes the semantics of resources to facilitate the search, filter, condense, or negotiate knowledge for their human users. In this context, digital libraries are applications where the semantic annotation process of information available in the Web is beginning. Digital library can be defined as a collection of digital resources selected by some criteria, with some organization and available through distributed network retrieval. To facilitate the retrieval process, metadata are applied to describe stored content. However, manual metadata generation is a complex task, time-consuming and error-prone. Thus, automatic or semiautomatic metadata generation would be great help to the authors, subtracting this task from the document publishing process. The research in this work approached this problem through the developing of a metadata extractor that populates a document ontology and classify the document according to a predefined hierarchy. The document ontology OntoDoc was created to store and to make available all the extracted metadata, as well as the obtained document classification. The implementation aimed on Computer Science papers and used the ACM Computing Classification system in the document classification task. A sample set extracted from the ACM Digital Libray was generated for implementation training and validation. The main contributions of this work are the integrated metadata extraction and classification model and the description of documents through a metadata stored in an ontology.
|
148 |
Integração de recursos da web semântica e mineração de uso para personalização de sites / Integrating semantic web resources and web usage mining for websites personalizationRigo, Sandro Jose January 2008 (has links)
Um dos motivos para o crescente desenvolvimento da área de mineração de dados encontra-se no aumento da quantidade de documentos gerados e armazenados em formato digital, estruturados ou não. A Web contribui sobremaneira para este contexto e, de forma coerente com esta situação, observa-se o surgimento de técnicas específicas para utilização nesta área, como a mineração de estrutura, de conteúdo e de uso. Pode-se afirmar que esta crescente oferta de informação na Web cria o problema da sobrecarga cognitiva. A Hipermídia Adaptativa permite minorar este problema, com a adaptação de hiperdocumentos e hipermídia aos seus usuários segundo suas necessidades, preferências e objetivos. De forma resumida, esta adaptação é realizada relacionando-se informações sobre o domínio da aplicação com informações sobre o perfil de usuários. Um dos tópicos importantes de pesquisa em sistemas de Hipermídia Adaptativa encontra-se na geração e manutenção do perfil dos usuários. Dentre as abordagens conhecidas, existe um contínuo de opções, variando desde cadastros de informações preenchidos manualmente, entrevistas, até a aquisição automática de informações com acompanhamento do uso da Web. Outro ponto fundamental de pesquisa nesta área está ligado à construção das aplicações, sendo que recursos da Web Semântica, como ontologias de domínio ou anotações semânticas de conteúdo podem ser observados no desenvolvimento de sistemas de Hipermídia Adaptativa. Os principais motivos para tal podem ser associados com a inerente flexibilidade, capacidade de compartilhamento e possibilidades de extensão destes recursos. Este trabalho descreve uma arquitetura para a aquisição automática de perfis de classes de usuários, a partir da mineração do uso da Web e da aplicação de ontologias de domínio. O objetivo principal é a integração de informações semânticas, obtidas em uma ontologia de domínio descrevendo o site Web em questão, com as informações de acompanhamento do uso obtidas pela manipulação dos dados de sessões de usuários. Desta forma é possível identificar mais precisamente os interesses e necessidades de um usuário típico. Integra o trabalho a implementação de aplicação de Hipermídia Adaptativa a partir de conceitos de modelagem semântica de aplicações, com a utilização de recursos de serviços Web, para validação experimental da proposta. / One of the reasons for the increasing development observed in Data Mining area is the raising in the quantity of documents generated and stored in digital format, structured or not. The Web plays central role in this context and some specific techniques can be observed, as structure, content and usage mining. This increasing information offer in the Web brings the cognitive overload problem. The Adaptive Hypermedia permits a reduction of this problem, when the contents of selected documents are presented in accordance with the user needs, preferences and objectives. Briefly put, this adaptation is carried out on the basis of relationship between information concerning the application domain and information concerning the user profile. One of the important points in Adaptive Hypermedia systems research is to be found in the generation and maintenance of the user profiles. Some approaches seek to create the user profile from data obtained from registration, others incorporate the results of interviews, and some have the objective of automatic acquisition of information by following the usage. Another fundamental research point is related with the applications construction, where can be observed the use of Web semantic resources, such as semantic annotation and domain ontologies. This work describes the architecture for automatic user profile acquisition, using domain ontologies and Web usage mining. The main objective is the integration of usage data, obtained from user sessions, with semantic description, obtained from a domain ontology. This way it is possible to identify more precisely the interests and needs of a typical user. The implementation of an Adaptive Hypermedia application based on the concepts of semantic application modeling and the use of Web services resources that were integrated into the proposal permitted greater flexibility and experimentation possibilities.
|
149 |
Abordagem baseada na análise de redes sociais para estimativa da reputação de fontes de informação em saúdeSilva, Leila Weitzel Coelho da January 2013 (has links)
Internet tem sido uma importante fonte para as pessoas que buscam informações de saúde. Isto é particularmente problemático na perspectiva da Web 2.0. A Web 2.0 é a segunda geração da World Wide Web, onde os usuários interagem e colaboram uns com os outros como criadores de conteúdo. A falta de qualidade das informações médicas na Web 2.0 tem suscitado preocupações com os impactos prejudiciais que podem acarretar. São muitos os aspectos relacionados à qualidade da informação que devem ser investigados, como por exemplo, existe alguma evidência de que o autor tem alguma autoridade no domínio da saúde? Há indícios de que os autores são tendenciosos? Como saber se a fonte de informação tem reputação, como separar as fontes de boa qualidade das outras? Esses questionamentos se tornam mais evidentes quando se faz buscas no Twitter. O usuário precisa por si só selecionar o conteúdo que acredita que tenha qualidade entre as centenas de resultados. Nesse contexto, o principal objetivo deste trabalho é propor e avaliar uma abordagem que permita estimar a reputação de fontes de informação no domínio da saúde. Acredita-se que discussões sobre reputação só fazem sentido quando possuem um propósito e estão inseridas em um contexto. Sendo assim, considera-se que reputação é um atributo que um usuário se apropria quando a informação que ele divulga é crível e digna de confiança. As contribuições desta tese incluem uma nova metodologia para estimar a reputação e uma estrutura topológica de rede baseada no grau de interação entre atores sociais. O estudo permitiu compreender como as métricas afetam o ordenamento da reputação. Escolher a métrica mais apropriada depende basicamente daquilo que se quer representar. No nosso caso, o Pagerank funcionou como um “contador de arcos” representando apenas uma medida de popularidade daquele nó. Verificou-se que popularidade (ou uma posição de destaque na rede) não necessariamente se traduz em reputação no domínio médico. Os resultados obtidos evidenciaram que a metodologia de ordenamento e a topologia da rede obtiveram sucesso em estimar a reputação. Além disso, foi verificado que o ambiente Twitter desempenha um papel importante na transmissão da informação e a “cultura” de encaminhar uma mensagem permitiu inferir processos de credibilidade e consequentemente a reputação. / The Internet is an important source for people who are seeking healthcare information. This is particularly problematic in era of Web 2.0. The Web 2.0 is a second generation of World Wide Web, where users interact and collaborate with each other as creators of content. Many concerns have arisen about the poor quality of health-care information on the Web 2.0, and the possibility that it leads to detrimental effects. There are many issues related to information quality that users continuously have to ask, for example, is there any evidence that the author has some authority in health domain? Are there clues that the authors are biased? How shall we know what our sources are worth, how shall we be able to separate the bad sources from the good ones? These questions become more obvious when searching for content in Twitter. The user then needs to manually pick out high quality content among potentially thousands of results. In this context, the main goal of this work is to propose an approach to infer the reputation of source information in the medical domain. We take into account that, discussion of reputation is usually not meaningful without a specific purpose and context. Thus, reputation is an attribute that a user comprises, and the information disseminated by him is credible and worthy of belief. Our contributions were to provide a new methodology to Rank Reputation and a new network topological structure based on weighted social interaction. The study gives us a clear understanding of how measures can affect the reputation rank. Choosing the most appropriate measure depends on what we want to represent. In our case, the PageRank operates look alike “edges counts” as the “popularity” measures. We noticed that popularity (or key position in a graph) does not necessarily refer to reputation in medical domain. The results shown that our rank methodology and the network topology have succeeded in achieving user reputation. Additionally, we verified that in Twitter community, trust plays an important role in spreading information; the culture of “retweeting” allowed us to infer trust and consequently reputation.
|
150 |
Redução do espaço de busca de estruturas de coalizão a partir de informações sobre o domínio : uma aplicação em smart grids / Reduction of coalition structures’ search space based on domain information: an application in smart gridsRamos, Gabriel de Oliveira January 2013 (has links)
Redes elétricas desempenham um papel fundamental no que tange à distribuição de energia elétrica. Entretanto, as redes elétricas convencionais são muito antigas, apresentando uma série de deficiências e inseguranças. Neste cenário surgem as redes elétricas inteligentes, mais conhecidas como smart grids. Smart grids são uma evolução para as redes elétricas tradicionais, apresentando como grande diferencial a presença intensiva de tecnologia de ponta para monitorar cada elemento que a compõe. Uma das principais características de smart grids é seu fluxo bidirecional de energia e informação, que permite a qualquer elemento tanto consumir quanto fornecer energia para a rede, seja um aerogerador ou mesmo uma residência. Tal característica vai de encontro à necessidade de se distribuir a produção energética, tornando-a mais robusta e tolerante a falhas. Uma tecnologia que surgiu em meio ao desenvolvimento de smart grids denomina-se Veículo-Para-Rede (V2G, do inglês Vehicle-To-Grid). Através de sessões V2G, veículos elétricos (EVs, em inglês electric vehicles) podem vender a energia de suas baterias para a rede, obtendo lucro com este procedimento. Existem duas vantagens nesta tecnologia. Por um lado, proprietários de EVs podem obter lucro com a venda de energia, reduzindo os custos de se manter seu veículo. Por outro lado, a rede como um todo se beneficia, pois as baterias podem ser utilizadas para aumentar a estabilidade da rede. Entretanto, para que estas vantagens sejam expressivas, é necessário utilizar-se de mecanismos para aumentar a eficiência do processo V2G, uma vez que baterias são muito caras. Uma alternativa que tem sido muito explorada é a formação de coalizões entre os EVs. A proposta deste trabalho é utilizar informações sobre o domínio de smart grids de modo a impor restrições no processo de formação de coalizões de EVs, visando à redução do espaço de busca de estruturas de coalizão. Especificamente, estabelece-se a distância máxima que pode haver entre dois EVs de uma mesma coalizão, através da qual é possível identificar e podar porções inválidas do espaço de busca. Para tanto, é proposto o algoritmo CPCSG, capaz de identificar restrições entre os EVs e de podar o espaço de busca. A abordagem proposta pode ser utilizada em conjunto com algoritmos de geração de estruturas de coalizão para torná-los mais rápidos e eficientes. Com base em experimentos, percebe-se que a abordagem proposta proporciona um ganho notável de desempenho e uma redução expressiva no uso de memória em relação a outros algoritmos para geração de estruturas de coalizão. Em geral, quanto mais restritiva a rede e quanto maior o número de agentes, maior será o percentual do espaço de busca passível de ser podado. Resultados mostram, ainda, que quando comparada com outros algoritmos de geração de estruturas de coalizão, a técnica proposta chega a superar o tempo dos demais em diversas ordens de magnitude. / Electric grids play a key role in the energy distribution process. However, conventional grids are very old, which causes the onset of weaknesses and uncertainties. In such a scenario the smart grid concept arises. Smart grids are an evolution to the ageing electric grids, whose major breakthrough is the intensive use of technology to monitor every element that comprises it. One of the main features of smart grids is its bi-directional flow of electricity and information, which allows any element to consume and even supply energy to the grid, regardless of being a wind turbine or even a residence. Such a characteristic meets the need to make the energy production more distributed, making it more robust and fault tolerant. Amidst the development of smart grids emerged the concept of Vehicle-To-Grid (V2G). Through V2G sessions, electric vehicles (EVs) can sell the surplus energy of their batteries to the grid, making a profit. Two advantages arise from this technology. First, EVs’ owners can make a profit from the sale of energy, reducing their vehicles’ maintenance cost. Second, the network as a whole is benefited as batteries could be used to increase the network stability. However, in order to benefit from such advantages, it is necessary the use mechanisms to increase the efficiency of the V2G process, since batteries are very expensive. One way that has been explored is the coalition formation among EVs. The proposal of this work is to use smart grids’ domain information to impose constraints on the coalition formation process in order to reduce the coalition structures’ search space. Specifically, we define a maximum distance that can exist between two EVs of a given coalition, through which it is possible to identify and prune invalid portions of the search space. To this end, we propose the CPCSG algorithm, which has the capability of identifying constraints among EVs and pruning the search space. The proposed approach can be used together with coalition structure generation algorithms to make them faster and more efficient. Based on experiments, it can be seen that our approach provides a noticeable performance gain and a significant memory usage reduction compared to other coalition structure generation algorithms. In general, the more restrictive the grid and the greater the number of agents, the greater the percentage of the search space that can be pruned. Results also show that when compared with other coalition structure generation algorithms, the proposed technique is able to overcome the other in time by several orders of magnitude.
|
Page generated in 0.0726 seconds