• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 18
  • 18
  • 13
  • 13
  • 12
  • 12
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 629
  • 629
  • 376
  • 373
  • 243
  • 110
  • 104
  • 104
  • 103
  • 102
  • 90
  • 89
  • 87
  • 81
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Um estudo sobre a predição da estrutura 3D aproximada de proteínas utilizando o método CReF com refinamento

Dall'Agno, Karina Cristina da Motta January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:36Z (GMT). No. of bitstreams: 1 000438289-Texto+Completo-0.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups.A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinformática Estrutural é entender como a informação decodificada em uma sequência linear de aminoácidos, ou estrutura primária de uma proteína, possibilita a formação de sua estrutura tridimensional. Muitos algoritmos buscam propor soluções para o problema complexo da classe NP-completo. Dentre eles, está o método CReF (Central Residue Fragment-based method) que realiza a predição da estrutura 3D aproximada de proteínas ou polipeptídios. O método usa técnicas de mineração de dados para agrupar dados de estruturas, apresentando boa predição de estruturas secundárias, bom desempenho em máquina de baixo custo, mas enfrenta problemas na predição das regiões de voltas e alças e na usabilidade. Valorizando as características diferenciadas do método e buscando sua evolução, este trabalho propôs-se a realizar melhorias no CReF. Após uma etapa inicial de entendimento e adaptações para tornar a ferramenta executável na situação atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias técnicas tiveram por objetivo automatizar a ferramenta, adaptá-la ao ambiente e ao usuário enfatizando usabilidade. Para melhorias no método realizaram-se testes com variação na quantidade de grupos identificados na etapa de mineração de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conformações iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usuário a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regiões não permitidas na análise do resultado da mineração de dados.A nova versão do CReF, gerada pela implementação dessas melhorias, também padronizou o método de predição de estrutura secundária, passando a utilizar o método Porter. Como consequência, as regras para escolha do grupo resultante da mineração a representar cada aminoácido foram adaptadas e ampliadas para atender novas situações. A nova versão manteve o desempenho de predição e execução iniciais do CReF, entretanto, manteve o problema das voltas e alças. Este problema de otimização das regiões de voltas e alças foi endereçado por meio do desenho e aplicação de um protocolo de refinamento, baseado em simulações pelo método da dinâmica molecular, o qual apresentou um resultado expressivo para a proteína alvo de código PDB 1ZDD.
22

Um ambiente integrador para análise de processos de negócio

Tristão, Cristian January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:06Z (GMT). No. of bitstreams: 1 000394031-Texto+Completo-0.pdf: 3211775 bytes, checksum: 8e122c8440a9621f48abe25377d2f4c2 (MD5) Previous issue date: 2006 / The processes analysis has performed an essential role in businesses management. The majority of research efforts and existing solutions for this analysis focus very exclusively on the quantitative analysis of processes through performance metrics and quality indicators. Few of them investigate resources that allow understanding the reasons of the observed behavior. Data mining techniques have an important role in this context, offering resources for behavior causal analysis. However, the analysis and monitoring techniques of business processes have been a disjoint use. Indeed, there is not an information integration or synergy among different knowledge discovery approaches. Moreover they do not support the sequence analysis of execution flows, harming anomaly investigate and specific behaviors. This work proposes an environment for the analysis of business processes taking into account related resources. Such environment permits the synergic exploration among information originated from the employment of sequential mining techniques, previously used by Web Usage Mining, with those from processes, activities and resources measurements. / A análise de processos tem desempenhado um papel fundamental na gestão dos negócios. A maior parte das pesquisas e soluções existentes para essa análise focaliza muito exclusivamente na análise quantitativa de processos através de métricas de desempenho e indicadores de qualidade, possuindo menos recursos investigativos que permitam compreender o porquê do comportamento observado. Técnicas de mineração de dados possuem um papel importante neste contexto, oferecendo recursos para análise causal de comportamento. No entanto, as técnicas de análise e monitoração de processos de negócio são utilizadas de forma disjunta, ou seja, não existe uma integração ou complementação de informação entre as diferentes abordagens de descoberta de conhecimento. Além disso, não suportam a análise seqüencial dos fluxos de execução, prejudicando a investigação de anomalias e comportamentos específicos. Este trabalho propõe um ambiente para a análise de processos de negócio com recursos, que combinam e permitem explorar, de forma sinérgica, as informações advindas da aplicação de técnicas de mineração seqüencial, originalmente propostas para a Mineração do Uso da Web, com aquelas sobre mensuração de processos, atividades e recursos.
23

Exploring the use of co-change clusters in software comprehension tasks

Oliveira, Marcos César de 03 September 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-06-15T18:11:05Z No. of bitstreams: 1 2015_MarcosCésardeOliveira.pdf: 2100208 bytes, checksum: afd0bf07cd06fda6ddc2ab3603c8bea0 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-02-14T19:20:43Z (GMT) No. of bitstreams: 1 2015_MarcosCésardeOliveira.pdf: 2100208 bytes, checksum: afd0bf07cd06fda6ddc2ab3603c8bea0 (MD5) / Made available in DSpace on 2017-02-14T19:20:43Z (GMT). No. of bitstreams: 1 2015_MarcosCésardeOliveira.pdf: 2100208 bytes, checksum: afd0bf07cd06fda6ddc2ab3603c8bea0 (MD5) / O desenvolvimento de software orientado a características (FOSD) é um paradigma que pode ser usado, entre outros, para estruturar um sistema de software em torno de características que podem representar pequenas funcionalidades do software bem como requisitos não funcionais. Além do seu papel na estruturação do software, o uso de FOSD habilita a ativação e desativação de features individuais em uma dada configuração de software. Essa vantagem pode ser útil em cenários onde a variabilidade do software é necessária. Por outro lado, a adoção da abordagem FOSD pode ser feita em um sistema de software existente, torna-se necessária a aplicação de alguma técnica de engenharia reversa para extração de features de uma base de código legada, bem como o mapeamento dessas features para suas implementações. Essa dissertação apresenta uma nova abordagem para auxiliar nessa atividade de engenharia reversa, a qual relaciona dados históricos extraídos de sistemas de controle de tarefas de desenvolvimento e de mudanças em código-fonte. A abordagem se baseia em técnicas de Mineração de Repositórios de Software (MSR), especificamente o agrupamento baseado em dependências evolucionárias entre elementos do código-fonte, que leva ao descobrimento de grupos de co-mudança. Assim, o objetivo deste trabalho é descobrir as propriedades dos grupos de co-mudança que podem ser úteis no processo de extração de features. Especificamente, um conjunto de termos, associados com os grupos, que revelam conceitos que podem ajudar a identificar features. De acordo com os resultados obtidos, os grupos de co-mudança não possuem vantagem quando usa- dos como unidades de modularização, mas podem revelar novas dependências que são ocultas ao desenvolvedor. Também mostram que os grupos de co-mudança possuem coesão conceitual, e que podem ser usados para extrair conceitos e termos associados com eles. Por fim, os conceitos extraídos dos grupos de co-mudança podem ser usados para construir um mapeamento entre eles e o código-fonte, e que podem ser usados como uma lista de sementes de entrada para métodos de expansão de features. / Feature-oriented software development (FOSD) is a paradigm that can be used, among others, to structure a software system around the feature concept that can represents small functionalities and non-functional requirements. Besides their role in software structure, FOSD enables the activation and deactivation of individual features in a given configuration of the software. This advantage can be useful in scenarios where the variability of the software is required. On the other hand, the adoption of FOSD can be done for an existing software system, thus, becomes necessary to apply some reverse engineering technique to extract features from a legacy code base, and also the mapping between these features and their implementations. This dissertation presents a new approach to aid in the reverse engineering activity, that relates historical data from issue tracking systems and source-code changes. The approach relies upon Mining Software Repositories (MSR) techniques, specifically the clustering based on co-evolutionary dependencies between source-code elements, which leads to the discover of co-change clusters. Thus, the goal of this work is to discover the properties of the co-change clusters that can be useful in a feature extraction process. Specifically, a set of terms, associated with the clusters, which reveal concepts that can help to identify features. According to the study results, co-change clusters have no advantage when used as a modular unit, but can reveal new dependencies that is hidden to the developer. They also show that the co-change clusters have conceptual cohesion, and can be used to extract concepts and the terms associated with them. In the end, the concepts extracted from co-change clusters can be used to build a mapping from them and the source-code, and that can be used as a input seed list to feature expansion methods.
24

Um Modelo semi-automático para a construção e manutenção de ontologias a partir de bases de documentos não estruturados

Ceci, Flávio 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T13:59:19Z (GMT). No. of bitstreams: 1 288245.pdf: 2591906 bytes, checksum: c3dbb43b6de7c291f4347684d0eda539 (MD5) / Considerando-se que grande parte do conhecimento de uma organização ou daquele disponível na web são documentos textuais, estes se tornam uma importante fonte para modelos de manutenção de ontologias. Nota-se ainda que o uso das ontologias como meio de representar formalmente o conhecimento vem crescendo em importância no desenvolvimento de sistemas baseados em conhecimento. Nesse sentido, o presente trabalho utiliza técnicas de extração de informação e agrupamento de documentos para explicitar entidades que podem tornar-se instâncias de uma ontologia de domínio. Para as fases de validação e classificação das instâncias encontradas, é proposta a utilização de bases de conhecimento colaborativas, contando-se com o auxílio de especialistas de domínio, o que se caracteriza como um processo semiautomático. Visando demonstrar a viabilidade do modelo proposto, foi desenvolvido um protótipo para suportar as fases de extração, validação e classificação dos resultados. O protótipo foi aplicado em um estudo de caso utilizando résumés de alguns pesquisadores, assim como em um estudo experimental mais amplo com résumés de pesquisadores da área de Biotecnologia. Por fim, foram analisados seis trabalhos similares com foco na aprendizagem e na população das ontologias com vistas a propiciar uma avaliação comparativa ante o modelo proposto. De modo geral, verificou-se que o modelo proposto auxilia tanto na construção inicial de uma ontologia de domínio, levando em consideração coleções de documentos (bases de dados não estruturadas), quanto no processo de manutenção de ontologias.
25

Data Mining no Varejo: estudo de caso para loja de materiais de construção

Schaeffer, André Gustavo January 2003 (has links)
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
26

Mineração de dados educacionais para geração de alertas em ambientes virtuais de aprendizagem como apoio à prática docente

Kampff, Adriana Justin Cerveira January 2009 (has links)
A Educação a Distância (EAD) no país apresenta-se em franca expansão. Cresce, a cada dia, o número de alunos que estudam por meio dessa modalidade. Gerenciar seus processos de aprendizagem em Ambientes Virtuais de Aprendizagem (AVA), com qualidade de interação e de acompanhamento, exige cada vez mais do professor. Esta tese descreve uma pesquisa que identifica, por meio de Mineração de Dados (MD) gerados pela interação em AVA, comportamentos e características de alunos com risco de evasão ou reprovação e, então, alerta o professor. Tais alertas são gerados a partir de agrupamentos de alunos com características similares, para que o professor possa estabelecer comunicação personalizada e contextualizada com esses sujeitos. O trabalho propõe uma arquitetura para sistemas de alertas em AVA, com alertas pré-definidos e outros gerados a partir da mineração de dados. Para validação da arquitetura, foram utilizados dados de 1564 alunos, de edições anteriores de uma mesma disciplina a distância, para mineração e extração de regras de classificação. As regras foram aplicadas para gerar os alertas durante o acompanhamento de 230 alunos em turmas em andamento. De cada aluno, cerca de 230 atributos foram analisados. Ao final, foi possível comprovar que as intervenções realizadas pelo professor, a partir dos alertas, direcionadas a grupos que compartilhavam necessidades específicas, contribuíram para a melhoria dos índices de aprovação e para redução dos índices de evasão dos alunos na disciplina acompanhada. / Distance Education is increasing very fast in Brazil. It grows every day the number of students engaged in this educacional mode. The professor must manage the teaching and the learning processes in Learning Management System (LMS), with quality of monitoring and interaction. This thesis describes a study that identifies, by Data Mining (DM) of educacional data generated by the interaction at LMS, profiles of students in risk of dropout or fail, and then alerts the professor. These alerts are based on groups of students with similar characteristics, so the professor can communicate with them in a personalized and contextualized way. The research proposes an architecture for warning systems in LMS, with pre-defined alerts and other generated from data mining. To validate the architecture, it was used data from 1564 students from previous editions of the same distance course, for data mining and extraction of classification rules. The rules were applied to generate alerts during the monitoring of 230 students in classes in progress. From each student, about 230 attributes were analyzed. In the end, it was possible to demonstrate that the interventions by the professor, based on the alerts, to groups that shared needs, contribute to higher rates of sucess and to reduce the dropout rates of students in the course.
27

Gremlin : uma estratégia baseada em mineração de subgrafos para inferir padrões de interação na interface proteína-ligante / Gremlin : a subgraph mining strategy based to infer interaction patterns in protein-ligand interface

Santana, Charles Abreu 03 March 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2017-04-17T11:56:27Z No. of bitstreams: 1 texto completo.pdf: 3558749 bytes, checksum: aa66edeb3d2987adf6a55e8769e7933f (MD5) / Made available in DSpace on 2017-04-17T11:56:27Z (GMT). No. of bitstreams: 1 texto completo.pdf: 3558749 bytes, checksum: aa66edeb3d2987adf6a55e8769e7933f (MD5) Previous issue date: 2017-03-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Interações proteína-ligante, de alta relevância em vários processos biológicos, são responsáveis pelo reconhecimento molecular, influenciando diretamente em mudan- ças de conformação das estruturas e, consequentemente, mudanças em sua atividade funcional. Entender essas interações é um passo importante para a predição de li- gantes, identificação de alvos biológicos e projeto de fármacos. Esta dissertação propõe GReMLIN, uma estratégia baseada em mineração de subgrafos frequentes, para encontrar padrões em interações proteína-ligante. Aqui, investigamos se é pos- sível encontrar padrões que caracterizam interações em um conjunto específico de proteínas. Se tais padrões existem, acreditamos que eles podem representar um passo importante na predição de interações. As interfaces proteína-ligante foram modeladas como grafos bipartidos, em que os vértices são átomos da proteína ou do ligante e as arestas são interações entre os átomos. Os vértices e arestas foram rotulados com suas propriedades físico-químicas. Um algoritmo de agrupamento foi executado sobre os dados dos grafos a fim de caracterizá-los de acordo com suas similaridades e diferenças e, em sequência, foi utilizado um algoritmo de mineração de subgrafos para buscar padrões relevantes nas estruturas de cada grupo. Para validar esta estratégia e verificar sua aplicabilidade em cenário real, foram coletados dados estruturais de complexos de proteínas com ligantes no Protein Data Bank. Foram usadas duas bases de dados, Ricina e CDK2, ambas com relevância biológica. GReMLIN foi capaz de encontrar subestruturas frequentes nos dados de Ricina e CDK2, contendo resíduos importantes determinados experimentalmente. / Interaction between proteins and ligands are relevant in many biological process. Such interactions have gained more attention as the comprehension of protein-ligand molecular recognition is an important step to ligand prediction, target identification and drug design. This work proposes GreMLIN, a strategy to search patterns in protein-ligand interactions based on frequent subgraph mining. Here, we investiga- ted if it is possible to find patterns that characterize protein-ligand interactions in a set of selected proteins. Moreover, if such patterns exist, we believe that they can represent an important step in the prediction of protein-ligand interactions. Our strategy models protein-ligand interfaces as bipartite graphs where nodes represent protein or ligand atoms, and edges represent interactions among them. Nodes and edges are labeled with physicochemical properties of atoms and a distance criteria. A clustering analysis is performed on graphs to characterize them according their similarities and differences, and a subgraph mining algorithm is applied to search for relevant patterns in protein-ligand interfaces in each cluster. We collected struc- tural data of protein-ligand complexes in Protein Data Bank (PDB) to validate our strategy and show their applicability. Both datasets have biological relevance, but with different characteristics. Our strategy was able to find frequent substructures with considerable cardinality in the protein-ligand interfaces for the CDK and Ricin datasets.
28

Algoritmo não supervisionado para segmentação e remoção de ruído de páginas web utilizando tag paths

Velloso, Roberto Panerai January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:44:43Z (GMT). No. of bitstreams: 1 329914.pdf: 1331548 bytes, checksum: 83651130b0ac80ced63647347769e15a (MD5) Previous issue date: 2014 / Segmentação e remoção de ruído de páginas web são etapas essenciais no processo de extração de dados estruturados. Identificar a região principal da página, eliminando o que não é importante (menus, anúncios,etc.), pode melhorar significativamente o desempenho do processo de extração. Para essa tarefa e proposto um novo algoritmo, totalmente automático, que utiliza uma sequência de tag paths (TPS) como representação da página web. A TPS é composta por uma sequência de símbolos (string), cada um representando um tag path diferente. O algoritmo proposto procura por posições na TPS onde é possível dividi-la em duas regiões de tal forma que seus alfabetos não se intersectem, o que significa que as regiões têm conjuntos de tag paths completamente distintos e, portanto, são regiões diferentes da página. Os resultados mostram que o algoritmo é muito efetivo em identificar o conteúdo principal de vários sites, e melhora a precisão da extração, removendo resultados irrelevantes.<br> / Abstract: Web page segmentation and data cleaning are essential steps in structured web data extraction. Identifying a web page main content region, removing what is not important (menus, ads, etc.), can greatly improve the performance of the extraction process. We propose, for this task, a novel and fully automatic algorithm that uses a tag path sequence (TPS) representation of the web page. The TPS consists of a sequence of symbols (string), each one representing a diferent tag path. The proposed technique searches for positions in the TPS where it is possible to split it in two regions where each region's alphabet do not intersect, which means that they have completely dierent sets of tag paths and, thus, are diferent regions. The results show that the algorithm is very effective in identifying the main content block of several major web sites, and improves the precision of the extraction step by removing irrelevant results.
29

Reposicionamento de fármacos para maláriaum método que identifica alvos no domínio das doenças negligenciadas

Barçante, Eduardo January 2015 (has links)
Made available in DSpace on 2016-03-01T13:52:40Z (GMT). No. of bitstreams: 2 eduardo_barcante_ioc_mest_2015.pdf: 3851112 bytes, checksum: df620d888b1f70d08dc498ece76896b1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2016-02-23 / Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Rio de Janeiro, RJ, Brasil / O atual cenário da Biologia Computacional conta com o know-how de diversas áreas tecnológicas voltadas para informação, computação e, especialmente, para construção e uso de bancos de dados na Internet como MEDLINE, PubMed, PDB. Na medida em que essas bases de dados possibilitam o aumento no registro de produção, estoque e circulação de dados genéticos, também viabilizam, em anos recentes, ambientes para acessar, integrar e produzir o novo conhecimento. O reuso desses dados, isto é, a transformação e o emprego desses dados em um processo diferente do qual os dados foram originalmente concebidos, torna-se um desafio em pesquisas na área biológica. Os problemas surgem pela falta de estrutura textual ou marcação para processamento por computadores. Neste trabalho, foi desenvolvido um método que identifica nomes de proteínas que servirão de substrato às práticas laboratoriais de reposicionamento de medicamentos. Dentre as fontes citadas, foram empregados, inicialmente, documentos textuais digitais do PubMed, a principal fonte de informação das ciências da saúde da Biblioteca Nacional de Medicina (National Library of Medicine). Esta base foi explorada com métodos e recursos da mineração de textos que são amplamente empregados para extrair termos relacionados aos nomes de proteínas no domínio das doenças negligenciadas. Os resultados obtidos após o processamento de 8444 artigos relacionados ao termo malaria do PubMed revelaram 254 fármacos candidatos ao reposicionamento. Dentre estes, três fármacos (Amitriptyline, Trimethoprim e Methrotrexate) foram comprovados, por meio de uma busca não exaustiva na literatura biomédica, que são utilizados em experimentos para o tratamento de malária. Por outro lado foi possível sugerir um conjunto de proteínas ou moléculas que poderão servir de insumos na fase inicial da cadeia de produção de medicamentos que é o screening de moléculas / The current scenario of computational biology relies on the know - how of many technological areas, w ith focus on information, computing, and, particularly on the construction and use of existing Internet databases such as MEDLINE, PubMed and PDB. In recent years, these databases provide an environment to access, integrate and produce new knowledge by sto ring ever increasing volumes of genetic or protein data The transformation and management of these data in a different way from the one that were originally thought can be a challenge for research in biology. The problems appear by the lack of textual stru cture or appropriate markup tags. In this study, It aimed to develop a method that identifies proteins names that will serve as a substrate to laboratory practices for drug repositioning. Among the sources cited , It was initially explored digital text do cuments from PubMed, the main source of information about Health Sciences of the National Library Medicine. This base was explored with text mining methods and resources that are widely used to extract terms related to proteins names in domain of neglected diseases. The results obtained after the processing of 8444 articles related to term malaria in PubMed revealed 254 drugs candidates for repositioning. Among these, three drugs (Amitriptyline, Trimethoprim and Methrotrexate) were confirmed by a non - exhaus tive search in the biomedical literature, that are used in experiments to treat malaria. On the other hand we can suggest a set of proteins or molecules that can serve as inputs in screening of molecules, the early stage of the drug production chain
30

Descoberta de padrões de perseguição em trajetórias de objetos móveis

Siqueira, Fernando de Lucca 04 March 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-03-04T18:14:18Z (GMT). No. of bitstreams: 1 305188.pdf: 4197506 bytes, checksum: 1eb0b6f76914bc6894c05f5cec429b4e (MD5) / Tecnologias como celulares, GPS e redes de sensores estão ficando cada vez mais populares. Estes dispositivos geram uma grande quantidade de dados chamados de Trajetórias de Objetos Móveis. Uma trajetória é um conjunto de pontos localizados no espaço e no tempo. Estes dados são normalmente volumosos e confusos, sendo necessário criar métodos e algoritmos para extrair informações interessantes destes dados. Vários estudos tem focado na descoberta de padrões em trajetórias como flocks, desvios, recorrência, liderança, etc. Neste trabalho é proposto um novo tipo de padrão: comportamento de perseguição em trajetórias. Mais especificamente, são apresentadas definições formais do comportamento e são definidos diferentes tipos de perseguição, bem como um algoritmo para identificar o padrão. As principais características consideradas são o tempo, a distância e a velocidade, que são utilizadas de forma diferente em relação a trabalhos existentes. O trabalho é validado com experimentos sobre dados sintéticos e dados reais, demonstrando que o método encontra padrões não identificados por outras abordagens.

Page generated in 0.0906 seconds