• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6156
  • 341
  • 174
  • 151
  • 151
  • 146
  • 78
  • 73
  • 62
  • 59
  • 58
  • 58
  • 7
  • 3
  • 3
  • Tagged with
  • 6646
  • 2725
  • 1380
  • 1042
  • 911
  • 895
  • 859
  • 753
  • 748
  • 692
  • 685
  • 659
  • 621
  • 609
  • 567
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Otimizações qualitativas e quantitativas nas fases de leitura e análise em pipelines metagenômicos

Dias, Raquel January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:29Z (GMT). No. of bitstreams: 1 000444045-Texto+Completo-0.pdf: 8676416 bytes, checksum: 5dc6fddb810c5c4102aeef934f1d8983 (MD5) Previous issue date: 2012 / Metagenomic sequencing technologies are advancing rapidly and the size of output data from high-throughput genetic sequencing has increased substantially over the years. Our optimízations and performance evaluations are focused in some of the most critical and time-consuming steps of a metagenomic analysís: pre-processing, taxonomic classification assignment and post-processing of classification results. Optimizations and functions were implemented and introduced in a new architecture, PANGEA+, based on the PANGEA metagenomic pipeline. The main improvements of the present tool are: support of new input file formats and NCBI taxonomy database, new species classification methods, consensus analysis, implementation of distributed memory (MPI) for species classification step, and low complexity optimizations for the post-processing of classification results. The evaluation of the new architecture, shows remarkable improvements in many features and, mainly, in the species classification accuracy and performance. / As tecnologias de sequenciamento metagenômico tem avançado rapidamente e a quantidade de dados gerados a partir do sequenciamento em larga escala tem aumentado substancialmente ao longo dos anos. As presentes otimizações e avaliações de desempenho tem foco em algumas das etapas mais críticas e que consomem mais tempo em uma análise metagenômica: pré-processamento, classificação taxonômica e pós - processamento dos resultados de classificação. Otimizações e funções foram implementadas e introduzidas em uma nova arquitetura, PANGEA+, baseada no pipeline metagenômico PANGEA. Os principais melhoramentos alcançados com a presente ferramenta foram: suporte a vários formatos de arquivos de entrada e a base de dados taxonômicos do NCBI, novos métodos de classificação de espécies incluídos, análise consenso, implementação de memória distribuída para a fase de classificação de espécies, otimizações de baixa complexidade para o pós-processamento dos resultados de classificação. A avaliação da nova arquitetura, PANGEA+, demonstra melhoramentos consideráveis em várias funcionalidades e, principalmente, na etapa de classificação de espécies, tanto em exatidão quanto em desempenho computacional.
72

Um ambiente integrador para análise de processos de negócio

Tristão, Cristian January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:06Z (GMT). No. of bitstreams: 1 000394031-Texto+Completo-0.pdf: 3211775 bytes, checksum: 8e122c8440a9621f48abe25377d2f4c2 (MD5) Previous issue date: 2006 / The processes analysis has performed an essential role in businesses management. The majority of research efforts and existing solutions for this analysis focus very exclusively on the quantitative analysis of processes through performance metrics and quality indicators. Few of them investigate resources that allow understanding the reasons of the observed behavior. Data mining techniques have an important role in this context, offering resources for behavior causal analysis. However, the analysis and monitoring techniques of business processes have been a disjoint use. Indeed, there is not an information integration or synergy among different knowledge discovery approaches. Moreover they do not support the sequence analysis of execution flows, harming anomaly investigate and specific behaviors. This work proposes an environment for the analysis of business processes taking into account related resources. Such environment permits the synergic exploration among information originated from the employment of sequential mining techniques, previously used by Web Usage Mining, with those from processes, activities and resources measurements. / A análise de processos tem desempenhado um papel fundamental na gestão dos negócios. A maior parte das pesquisas e soluções existentes para essa análise focaliza muito exclusivamente na análise quantitativa de processos através de métricas de desempenho e indicadores de qualidade, possuindo menos recursos investigativos que permitam compreender o porquê do comportamento observado. Técnicas de mineração de dados possuem um papel importante neste contexto, oferecendo recursos para análise causal de comportamento. No entanto, as técnicas de análise e monitoração de processos de negócio são utilizadas de forma disjunta, ou seja, não existe uma integração ou complementação de informação entre as diferentes abordagens de descoberta de conhecimento. Além disso, não suportam a análise seqüencial dos fluxos de execução, prejudicando a investigação de anomalias e comportamentos específicos. Este trabalho propõe um ambiente para a análise de processos de negócio com recursos, que combinam e permitem explorar, de forma sinérgica, as informações advindas da aplicação de técnicas de mineração seqüencial, originalmente propostas para a Mineração do Uso da Web, com aquelas sobre mensuração de processos, atividades e recursos.
73

Business Intelligence: comparação de ferramentas

Barreto, David Guaspari January 2003 (has links)
Cada vez mais o tempo acaba sendo o diferencial de uma empresa para outra. As empresas, para serem bem sucedidas, precisam da informação certa, no momento certo e para as pessoas certas. Os dados outrora considerados importantes para a sobrevivência das empresas hoje precisam estar em formato de informações para serem utilizados. Essa é a função das ferramentas de “Business Intelligence”, cuja finalidade é modelar os dados para obter informações, de forma que diferencie as ações das empresas e essas consigam ser mais promissoras que as demais. “Business Intelligence” é um processo de coleta, análise e distribuição de dados para melhorar a decisão de negócios, que leva a informação a um número bem maior de usuários dentro da corporação. Existem vários tipos de ferramentas que se propõe a essa finalidade. Esse trabalho tem como objetivo comparar ferramentas através do estudo das técnicas de modelagem dimensional, fundamentais nos projetos de estruturas informacionais, suporte a “Data Warehouses”, “Data Marts”, “Data Mining” e outros, bem como o mercado, suas vantagens e desvantagens e a arquitetura tecnológica utilizada por estes produtos. Assim sendo, foram selecionados os conjuntos de ferramentas de “Business Intelligence” das empresas Microsoft Corporation e Oracle Corporation, visto as suas magnitudes no mundo da informática.
74

ORION : uma abordagem eficaz e robusta para aquisição de valores de atributos de entidades do mundo real / ORION: an effective and robust approach for acquiring attribute values of real-world entities

Manica, Edimar January 2017 (has links)
Página-entidade é uma página Web que publica dados que descrevem uma entidade de um tipo particular. Adquirir os valores dos atributos de entidades do mundo real publicados nessas páginas é uma tarefa estratégia para diversas empresas. Essa aquisição envolve as tarefas de encontrar as páginas-entidade nos sites e extrair os valores dos atributos publicados nessas páginas. Os trabalhos que discorrem sobre como realizar as tarefas de descoberta das páginasentidade e de extração dos dados de forma integrada possuem aplicação limitada porque são específicos para um domínio de aplicação ou porque requerem anotações a priori. Tendo em vista essa lacuna, esta Tese apresenta Orion, uma abordagem para aquisição de valores de atributos de entidades do mundo real a partir de páginas-entidade baseadas em template. Orion descobre as páginas-entidade nos sites e extrai os valores dos atributos publicados nessas páginas. A principal originalidade da abordagem Orion é realizar as tarefas de descoberta das páginas-entidade e de extração dos dados de forma integrada, independentemente de domínio de aplicação e de anotação a priori. A abordagem Orion inclui uma etapa de descoberta de páginas-entidade que combina características de HTML e URL sem a necessidade de intervenção do usuário para definição dos limiares de similaridade entre as páginas. A etapa de descoberta utiliza uma nova função de similaridade entre páginas baseada na URL que atribui diferentes pesos para os termos de URL de acordo com a capacidade de distinção de páginas-entidade das demais páginas. A abordagem Orion também inclui uma etapa de extração de valores de atributos a partir de consultas Cypher em um banco de dados orientado a grafos. Essa etapa infere as consultas automaticamente. A abordagem Orion é robusta porque inclui uma etapa adicional de reforço que realiza o tratamento de atributos com variação de template. Esse reforço é realizado por meio de uma combinação linear de diferentes funções de similaridade. A fim de avaliar a eficácia de cada etapa da abordagem isoladamente e da abordagem de forma integral, foram realizados experimentos exaustivos utilizando sites reais. Nesses experimentos, a abordagem Orion foi numérica e estatisticamente mais eficaz que os baselines. / Entity-page is a Web page which publishes data that describe an entity of a specific type. Acquiring the attribute values of the real-world entities that are published in these pages is a strategic task for various companies. This acquisition involves the tasks of discovering the entitypages in the websites and extracting the attribute values that are published in them. However, the current approaches that carry out the tasks of discovering entity-pages and extracting data in an integrated way have limited applications because they are restricted to a particular application domain or require an a priori annotation. This thesis presents Orion, which is an approach to acquire the attribute values of real-world entities from template-based entity-pages. Orion discovers the entity-pages in the websites and extracts the attribute values that are published in them. What is original about the Orion approach is that it carries out the tasks of discovering entity-pages and extracting data in a way that is integrated, domain-independent, and independent of any a priori annotation. The Orion approach includes an entity-page discovery stage that combines the HTML and URL features without requiring the user to define the similarity threshold between the pages. The discovery stage employs a new URL-based similarity function that assigns different weights to the URL terms in accordance with their capacity to distinguish entity-pages from other pages. Orion also includes a stage during which the attribute values are extracted by means of Cypher queries in a graph database. This stage automatically induces the queries. It should be noted that the Orion approach is robust because it includes an additional reinforcement stage for handling attributes with template variations. This stage involves exploring a linear combination of different similarity functions. We carried out exhaustive experiments through real-world websites with the aim of evaluating the effectiveness of each stage of the approach both in isolation and in an integrated manner. It was found that the Orion approach was numerically and statistically more effective than the baselines.
75

Um meta esquema para especificação do Modelo Temporal de versões em XML

Rossetti, Lialda Lúcia Fernandes January 2002 (has links)
As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.
76

Modelo temporal de versionamento com suporte à evolução de esquemas

Galante, Renata de Matos January 2003 (has links)
A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.
77

A utilização de raciocínio baseado em casos para a análise de crédito e cobrança

Isolani, Marcelo Costa January 2002 (has links)
Data Warehouse (DW) é um processo que aglutina dados de fontes heterogêneas, incluindo dados históricos e dados externos para atender à necessidade de consultas estruturadas e ad-hoc, relatórios analíticos e de suporte de decisão. Já um Case-Based Reasoning (CBR) é uma técnica de Inteligência Artificial (AI – Artificial Intelligence) para a representação de conhecimento e inferência, que propõe a solução de novos problemas adaptando soluções que foram usadas para resolver problemas anteriores. A descrição de um problema existente, ou um caso é utilizado para sugerir um meio de resolver um novo problema, avisar o usuário de possíveis falhas que ocorreram anteriormente e interpretar a situação atual. Esta dissertação tem por objetivo apresentar um estudo do uso de um DW combinado com um CBR para a verificação de “risco” de inadimplência no setor de telecomunicações. Setor este que devido as grandes mudanças que ocorreram no mercado, que passam desde a privatização do setor e a entrada de novas operadoras fixas e celulares, criando um ambiente de concorrência, anteriormente inexistente, possibilitando assim ao cliente trocar de operadora ou até mesmo deixar a telefonia fixa e ficar somente com a celular, e vai até ao fato da estabilização econômica e as novas práticas de mercado, que determinou a baixa das multas, tornando assim compensador aos clientes deixar as faturas vencidas a perder juros de aplicações ou pagar juros bancários para quitar a sua dívida, visto que a empresa telefônica só pode aplicar as sanções com o prazo de 30 dias. Este trabalho mostra o desenvolvimento de um CBR para aplicação na área de Crédito e Cobrança, onde são detalhados os vários passos, a utilização do mesmo junto ao um DW, o que proporciona a comparação com desenvolvimento de outros sistemas similares e as diferenças (vantagens e desvantagens) que isso traz ao mesmo.
78

Extração de informação sobre bases de dados textuais

Zambenedetti, Christian January 2002 (has links)
Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.
79

Um Mecanismo de notificação e propagação de mudanças para um modelo de versões

Fonseca, Ana Clara Gottfried da January 2000 (has links)
Um dos requisitos naturais na modelagem de diversas aplicações na área de banco de dados é a utilização de um mecanismo para controle de versões. Esse mecanismo fornece suporte a um processo evolutivo. Tal suporte permite armazenar os diferentes estágios de uma entidade em tempos distintos, ou sob diferentes pontos de vista. Estudos recentes nessa área mostram a importância de incorporar ao modelo conceitual de banco de dados, um mecanismo para auxiliar no controle da evolução de versões. A evolução de versões apresenta problemas principalmente quando ocorre em uma hierarquia de composição. Por exemplo, se existem objetos compostos fazendo referência à objetos componentes que representam versões, então modificações nos componentes podem causar alterações nos objetos que os referenciam. Normalmente as ações relativas a essas modificações são a notificação ou a propagação de mudanças. Algumas propostas adicionam mecanismos de notificação e propagação ao modelo conceitual utilizado por aplicações não convencionais. Isso é importante porque mecanismos deste tipo auxiliam no controle da integridade de dados e na divulgação de informações sobre as mudanças realizadas no banco de dados. O objetivo do trabalho aqui descrito é apresentar um mecanismo de notificação e propagação, que trata da evolução de dados, para um modelo de versões. É definido um modelo de classes com propriedades e operações que permitem manter e manipular subscrições de eventos referentes à evolução de objetos e versões e reagir diante da ocorrência destes eventos. Para atender os requisitos das diferentes aplicações, esta proposta especifica três estratégias. Cada uma delas apresenta diferentes funcionalidades: notificação ativa (enviar mensagens sobre mudanças ocorridas); notificação passiva (armazenar informações sobre mudanças ocorridas) e propagação (alterar o conteúdo do banco de dados automaticamente). Para validar o mecanismo proposto, uma implementação é apresentada para o sistema Oracle 8.
80

Uma Infra-estrutura para controle de versões e adaptação de páginas web

Moro, Rodrigo Giacomini January 2003 (has links)
Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.

Page generated in 0.0322 seconds