• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1419
  • 26
  • 17
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 1
  • Tagged with
  • 1491
  • 822
  • 215
  • 179
  • 171
  • 168
  • 167
  • 146
  • 138
  • 121
  • 114
  • 109
  • 108
  • 107
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Uma plataforma para suporte às bibliotecas digitais de eventos científicos com foco na extração de informação

ALVES, Neide Ferreira 16 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:18:29Z No. of bitstreams: 2 TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:18:29Z (GMT). No. of bitstreams: 2 TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-16 / A presente tese descreve as especificações e requisitos para o desenvolvimento de Bibliotecas Digitais de documentos textuais, considerando a possibilidade de reuso e a extração de dados. Considerando o imenso volume de informação disponível nesses repositórios, é de grande interesse a construção de sistemas capazes de selecionar automaticamente apenas os dados de interesse do usuário, facilitando assim o acesso, a manipulação e a divulgação dessas informações. O Modelo de Referências de Biblioteca Digital da DELOS foi utilizado para guiar a construção do ambiente, como consequência foi desenvolvida a plataforma pLiveMemory com módulos implementados para desktop e web, neste último, a infraestrutura da nuvem do Google é utilizada. Entre os módulos desenvolvidos há um específico para identificação e extração de referências bibliográficas, o qual usa, entre outros, o algoritmo de Naïve Bayes juntamente com as técnicas de expressões regulares. Também há um módulo para identificação de palavras-chave em arquivos de formato PDF editável. Os resultados obtidos mostraram os ganhos com a utilização das estratégias adotadas nas diversas fases do projeto, como na classificação automática de informação dos textos de artigos científicos.
362

Extração de informação usando integração de componentes de PLN através do framework GATE

de Souza Cabral, Luciano 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2 arquivo1907_1.pdf: 1663192 bytes, checksum: 21a772bd61ef448147054bfaa52598d1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / A Extração de Informação (EI) é o ramo da área de recuperação de informação que utiliza técnicas e algoritmos para identificar e coletar informações desejadas a partir de documentos, sejam estes estruturados ou não, armazenando-as em um formato apropriado para consultas futuras. Dentre estas tecnologias, o uso de Processamento de Linguagem Natural (PLN) revela-se benéfico ao processo de extração, principalmente quando se processam documentos sem nenhuma estrutura e/ou padrão definido. Existe uma suíte que reúne dezenas de plugins que podem ajudar na tarefa de EI baseada em PLN, conhecida como GATE (General Architecture for Text Engineering). Neste trabalho propõe-se o módulo RELPIE, contendo alguns destes plugins para a extração a partir de texto livre. O módulo RELPIE é original, e emprega plugins GATE baseados em padrões de expressões regulares (ER) e regras de produção. Estas regras ficam totalmente separadas do sistema, visando modularidade na extração de informação a partir de documentos estruturados ou não. Os resultados obtidos nos experimentos demonstram que o módulo RELPIE apresenta bons níveis de extração com corpus compreendido por documentos textuais sem qualquer estrutura, alcançando um reconhecimento acima de 80% em média. Efetuando uma comparação com o sistema ANNIE (A Nearly-New Information Extraction System), resultados mostram que esse sistema é mais preciso em relação ao nosso, entretanto o sistema RELPIE mostra-se melhor na cobertura e no fmeasure. Um dos experimentos revelou outra descoberta interessante: corpora já processados denotam melhores resultados nas execuções posteriores, em média 6% na precisão, o que sugere que corpora não anotados devem ser processados duas vezes em seqüência para a obtenção de melhor performance na tarefa de extração, especialmente quando envolve entidades nomeadas e quando se usam ontologias para extraí-las
363

Verificação de assinaturas off-line: uma abordagem baseada na combinação de distâncias e em classificadores de uma classe

Rodrigues Pinheiro de Souza, Milena 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:56:31Z (GMT). No. of bitstreams: 2 arquivo2943_1.pdf: 1753239 bytes, checksum: 9bb54530f2681d310412190da2d1397f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Esta dissertação oferece contribuições para o problema de verificação de assinaturas off-line através da utilização de diferentes distâncias e classificadores de apenas uma classe. O uso de classificadores de uma classe viabiliza a utilização de apenas assinaturas verdadeiras durante a fase de treinamento do sistema. Isso é vantajoso pois em diversas aplicações reais de verificação de assinaturas existe uma carência de assinaturas falsas em detrimento do número de assinaturas verdadeiras. Esse trabalho também realiza uma comparação entre os resultados dos diferentes classificadores de uma classe escolhidos e de três métodos de extração de características implementados: Shadow Code, Características Periféricas e Diferenciais Periféricas e Elementos Estruturais. Afora isso, foram calculadas cinco distâncias utilizando as características extraídas: dmin, dmax, dcentral , dtemplate e dncentral . Essas distâncias foram normalizadas de forma a tornar o sistema independente de classe. E posteriormente combinadas usando as seguintes regras: produto, média, máximo, mínimo e soma. De forma a avaliar a contribuição de cada etapa no desempenho do sistema, este foi subdividido em quatro arquiteturas. Para isso, partiu-se de uma arquitetura mais simples, e foram sendo adicionadas novas etapas a ela. Dessa forma, foi possível identificar que, dentre as extrações utilizadas neste trabalho, o método Shadow Code obteve um grande destaque. O mesmo pode ser dito para as distâncias dcentral e dncentral , que apresentaram melhores resultados que as demais: dmin, dmax e dtemplate. As combinações das distâncias apresentaram resultados discrepantes, algumas combinações pioraram o desempenho do sistema, enquanto outras provocaram um efeito positivo. Foram utilizadas duas bases de dados: Base de Dados 1 (base de dados de assinaturas desenvolvida em pesquisa anterior) e Base de Dados 2 (base de dados de assinaturas disponibilizada em competição para sistemas de verificação de assinaturas). O melhor resultado geral do sistema, para a Base de Dados 1, e considerando 10% de falsos positivos, foi de 93,37% de verdadeiros positivos para as assinaturas falsas aleatórias, 59,18% para as assinaturas falsas habilidosas e 75,85% usando ambas
364

Técnicas de extração de características para cenários com multimodalidade intraclasse

Rodrigues da Silva Júnior, Elias 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:57:39Z (GMT). No. of bitstreams: 2 arquivo3217_1.pdf: 4205734 bytes, checksum: ef1b69f43e81803a2e22ad3b2bbfae07 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Multimodalidade intraclasse é frequente em problemas de classificação e eles conduzem a indesejadas projeções quando aplicados à técnicas lineares de extração de características. As clássicas técnicas lineares de extração de características, que constroem suas soluções baseadas em métricas globais do conjunto de padrões, não podem perceber a multimodalidade dentro da classe, logo, elas criam projeções que não preservam a estrutura multimodal após a redução da dimensionalidade, o que pode ser uma pobre ou indesejada representação da distribuição original dos padrões. Na literatura são encontradas técnicas lineares de extração de características que se preocupam com a manutenção da estrutura multimodal da distribuição dos padrões após a redução da dimensionalidade. Todavia, essas técnicas calculam sua solução tomando a influência de cada classe na percepção da multimodalidade em conjunto, o que pode acarretar em influência negativa de uma classe sobre outra no que diz respeito à preservação da estrutura multimodal do conjunto de padrões após a redução da dimensionalidade. Para melhor tratar problemas com multimodalidade intraclasse, são apresentadas neste trabalho novas técnicas lineares de extração de características, as quais avaliam cada classe separadamente e constróem uma solução específica para cada uma delas. A solução encontrada para cada classe se preocupa com a estrutura local da vizinhança de seus padrões e busca preservar esta estrutura após a redução da dimensionalidade. Deste modo, um padrão novidade (ou de teste) é avaliado não apenas em relação a uma única solução, como acontece com as clássicas técnicas lineares de extração de caracter ísticas, que deve discernir quanto à pertinência desse padrão a uma das várias classes do problema, mas passa a ser avaliado segundo as soluções obtidas para cada classe, e é classificado segundo aquela que melhor se ajustar às características do padrão. Os experimentos realizados aqui mostram que essa abordagem é adequada ao tratamento de multimodalidade intraclasse, obtendo desempenho superior ou igual ao das demais técnicas lineares de extração de características que também tratam multimodalidade
365

WhatMatter: extração e visualização de características em opiniões sobre serviços

SIQUEIRA, Henrique Borges Alencar 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:58:05Z (GMT). No. of bitstreams: 2 arquivo3250_1.pdf: 3749007 bytes, checksum: 1fa0de20ae4ac4b54782688d5ffa5279 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O número crescente de blogs, foruns e redes sociais na Web aumentou drasticamente a quantidade de textos contendo não apenas fatos mas também opiniões. Com a popularização do E-commerce, um grande número destas opiniões são resenhas de consumidores sobre produtos e serviços. Esta tendência motivou diversas pesquisas e aplicações comerciais buscando a análise automática das opiniões disponíveis. Claramente, esta informação é crucial para novos consumidores, gerentes e empresários que gostariam de tomar suas decisões baseadas no que outras pessoas opiniaram. Considerando as opiniões dadas sobre serviços como lojas e hotéis, é particularmente dificil identificar de maneira automatizada as características (eg. atendimento, entrega, localização, etc.) que influiram na escolha e na satisfação do consumidor. Neste trabalho apresentamos o WhatMatter, um sistema de Análise de Sentimentos que realiza a identificação, extração, classificação e sumário de características em opiniões através de um processo automatizado inovador. Este processo é formado por cinco passos principais: pré-processamento, identificação de substantivos mais freqüentes, identificação dos substantivos relevantes, mapeamento de indicadores e remoção de substantivos não-relacionados. O protótipo deste sistema foi aplicado em opiniões sobre o serviço prestado por lojas de e-commerce brasileiras com resultados bastante satisfatórios
366

Um sistema de extração de informação em referências bibliográficas baseado em aprendizagem e máquina

Fraga do Amaral e Silva, Eduardo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2 arquivo4727_1.pdf: 1069518 bytes, checksum: f7d66b889164069c63fdfafe11edf163 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Existe atualmente uma gigantesca quantidade de informações disponibilizada em formato de texto na Internet e nas redes das grandes corporações. Essas informações encontram-se em um formato não estruturado, dificilmente manipulável por programas de computador. A Extração de Informação (EI) tem como objetivo transformar documentos textuais em um formato estruturado, mapeando a informação contida em um documento em uma estrutura tabular. Tal estrutura é mais facilmente tratável por programas de computador, possibilitando assim a sua utilização por variadas aplicações inteligentes . Dentro da Inteligência Artificial, vemos duas abordagens para tratar o problema da EI: os sistemas baseados em conhecimento e a aprendizagem automática. O trabalho apresentado tem como objetivo a construção de um sistema para extrair informações a partir de textos contendo citações científicas (ou referências bibliográficas) através de uma abordagem baseada em aprendizagem automática. Dentre as diversas técnicas existentes, escolhemos tratar o problema através de uma abordagem híbrida, que combina o uso de técnicas de classificação de textos com os Modelos de Markov Escondidos (HMM). Esta combinação mostrou resultados superiores aos obtidos usando exclusivamente as técnicas de classificação e sua idéia básica é gerar com o uso das técnicas de classificação de textos para EI uma saída inicial para o sistema e refiná-la depois por meio de um HMM. Experimentos realizados com um conjunto de teste contendo 3000 referências resultaram em uma precisão de 87,48%.
367

Um sistema de recuperação e extração de informação utilizando conceitos da web semântica

CARDOSO, Rafael Cunha January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:13Z (GMT). No. of bitstreams: 2 arquivo4978_1.pdf: 1542925 bytes, checksum: e49f4b7f816d2f33dd3c206e9c8ecd8f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / A crescente quantidade de dados disposta diariamente na Web faz com que os sistemas de recuperação e extração de informações desempenhem um papel importante dentro dessa realidade. Entretanto, os resultados das buscas na Web freqüentemente frustram as expectativas dos usuários no tocante à qualidade das informações recuperadas. A Web Semântica, considerada a nova geração da Web, apresenta conceitos e ferramentas que visam inserir significado nos documentos existentes na WWW atual, permitindo com isso sanar algumas das limitações existentes. Um dos principais conceitos sobre os quais a Web Semântica se fundamenta, é a Ontologia. Estas podem ser vistas como especificações formais de um determinado domínio de conhecimento que possibilitam um entendimento comum sobre determinado tema de discussão. Este trabalho visa melhorar a qualidade das informações recuperadas de sites na Web através da utilização de conceitos e fundamentos da Web Semântica aliada às técnicas da Web já estabilizadas. Para tanto, foi definida uma arquitetura e desenvolvido um protótipo de um sistema que objetiva realizar recuperação e extração de dados sobre um domínio específico de conhecimento, utilizando uma ontologia (baseada nos fundamentos da Web Semântica) desenvolvida para auxiliar o processo de extração de informação relevante a partir de um conjunto específico de dados da Web.
368

TANINOS DA CASCA DE EUCALIPTO E SUA EFICIÊNCIA NA COLAGEM DE MADEIRA

SANTIAGO, S. B. 06 July 2016 (has links)
Made available in DSpace on 2018-08-01T22:35:40Z (GMT). No. of bitstreams: 1 tese_10033_Sabrina Barros Santiago-Dissertação20161019-150320.pdf: 1790533 bytes, checksum: 03bd185dc926acfa59850549119ce8db (MD5) Previous issue date: 2016-07-06 / O objetivo deste estudo foi avaliar a viabilidade de utilização de taninos extraídos da casca de eucalipto com água e com água sob diferentes concentrações de carbonato de sódio e sulfato de sódio como adesivo para madeira. As cascas de eucalipto foram obtidos em uma empresa de tratamento de madeira, e os resíduos de madeira em uma marcenaria, ambos, no sul do estado do Espírito Santo. Das cascas foram determinados os teores de sólidos totais e dos polifenóis pela reacão de Stiasny, teor de polifenóis reativos pelo método Ultra Violeta UV e, pH, teores de taninos e não-taninos dos extratos tânicos. Para a caracterização química da casca e da madeira (classificados em três classes de densidade: baixa, média e alta) foram determinados os teores de extrativos, ligninas, cinzas, holocelulose, pH e capacidade tampão. Após obtenção dos extratos tanicos, determinaram-se suas propriedades, com posterior colagem na madeira. Os adesivos foram avaliados por meio os do ensaio de cisalhamento de tração e porcentagem de falhas na madeira das juntas coladas. Os resultados obtidos demonstraram que o carbonato de sódio proporcionou maior extração de taninos (8%), e o sulfato de sódio (4%) as menores quantidades, ambos com boas características, mas não o suficiente para utilização como adesivo para madeira em sua totalidade (100%). Portanto, a adição de 10 e 20% de tanino na resina de ureia foram utilizadas, e não afetaram negativamente a colagem da madeira. A maior resistência ao cisalhamento foi verificada em madeira na classe de alta densidade ao empregar todos adesivos em estudo. Os maiores valores obtidos para o percentual de falhas na madeira das juntas coladas ocorreram ao utilizar a maioria dos adesivos em madeira de baixa densidade. Palavras-chave: Polifenol, extração de tanino, adesivo natural, madeira.
369

Avaliação Soro-epidemiológica e Molecular de Cães Assintomática para Leishmaniose Tegumentar Americana em Área Endêmica

PASSOS, G. P. 26 February 2013 (has links)
Made available in DSpace on 2018-08-01T22:56:45Z (GMT). No. of bitstreams: 1 tese_6434_DISSERTAÇÃO GABRIELA PORFIRIO-PASSOS.pdf: 872492 bytes, checksum: 4693b33b1f6f17af259a9c2b1b3878cb (MD5) Previous issue date: 2013-02-26 / Com o objetivo de realizar o diagnóstico de leishmaniose tegumentar americana (LTA) em cães, foram utilizados métodos de cultura e isolamento, testes sorológicos de ELISA e Western Blot (WB) e pesquisa de DNA do parasito para dois grupos de animais, um grupo composto de animais sem lesões clínicas sugestivas de LTA, mas residentes em torno de casos clínicos humanos confirmados para LTA, e outro grupo de animais com lesões sugestivas de LTA que serviram como controle dos protocolos realizados. O estudo foi realizado no município de Iúna, ES, Brasil, região endêmica para enfermidade. No primeiro grupo, foram analisadas amostras de soro de 109 animais sem histórico ou lesões indicativas de LTA, estas foram submetidas às técnicas de ELISA e WB que resultaram em 20 animais sorologicamente positivos para as duas técnicas. O teste ELISA apresentou sensibilidade de 100,00% (IC95% - 0,83 a 1,00) e especificidade de 77,53% (IC95% - 0,67 a 0,86), em relação à técnica de WB. O teste WB apresentou maior acurácia e mostrou-se mais adequado para diagnóstico dos animais assintomáticos, enquanto a técnica de ELISA para a triagem. Para a pesquisa do DNA do parasito nos 20 animais assintomáticos e positivos pela técnica de WB utilizou-se sangue total e biópsia de tecido íntegro do pavilhão auricular pela técnica de reação em cadeia da polimerase (PCR). Os resultados para PCR da biópsia de tecido íntegro e PCR de tecido sanguíneo mostraram sensibilidade de 30,0% (IC95% - 0,12 a 0,54) e 20,0% (IC95% - 0,06 a 0,44), respectivamente. A especificidade, 99,0% (IC95% - 0,93 a 0,99) e 100% (IC95% - 0,96 a 1,00), para a PCR da biópsia de tecido íntegro e PCR de tecido sanguíneo quando comparadas ao WB. Os resultados mostram que tecido íntegro do pavilhão auricular e sangue de animais assintomáticos submetidos à técnica de PCR, apresentaram baixa sensibilidade e alta especificidade, assim, a PCR da biópsia de tecido íntegro é melhor indicador para animais assintomáticos que a PCR de tecido sanguíneo. Para o segundo grupo, foram identificados três animais com lesões sugestivas para LTA e sorologicamente positivo. A partir de uma amostra de biópsia de lesão sugestiva de LTA presente no pavilhão auricular, parte desta foi destinada a cultura e isolamento e outra parte para comparação de três protocolos de extração do DNA de tecido animal para diagnóstico da LTA canina. Os protocolos utilizados tiveram como base o Fenol-Clorofórmio, Acetato de Potássio e associação entre as duas metodologias. Em comparação com os padrões moleculares de concentração de DNA concluiu-se que o protocolo com Acetato de Potássio foi o mais indicado para o tipo de tecido empregado. Por fim, de posse dos dados apresentados para os animais sorologicamente positivos e assintomáticos estudados, foi possível concluir que estes não representaram potenciais reservatórios do parasito, o que evidencia ainda que para avaliação deste perfil da enfermidade seja indicada a associação de métodos de diagnóstico.
370

Estudo experimental e modelagem matemática da separação de asfaltenos e óleos lubrificantes provenientes do resíduo de petróleo por desasfaltação supercrítica / Experimental and mathematical modeling study of the separation of asphaltens and lube oil from the residuum of petroleum for supercritical desasphalting

Cárdenas Concha, Viktor Oswaldo 12 July 2010 (has links)
Orientadores: Rubens Maciel Filho, Maria Regina Wolf Maciel / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-17T07:37:49Z (GMT). No. of bitstreams: 1 CardenasConcha_ViktorOswaldo_D.pdf: 4772708 bytes, checksum: f60b1666b16ba98bbf53116f33ee385b (MD5) Previous issue date: 2010 / Resumo: Atualmente, o Brasil tem uma grande demanda do consumo de asfalto, devido à reconstrução e à construção de novas estradas. O investimento em tecnologia para garantir esta demanda, não somente no aspecto quantitativo, mas também no aspecto qualitativo do asfalto é imprescindível. Este projeto tem por objetivo geral o estudo em escala piloto, do processo de desasfaltação supercrítica de resíduos pesados e ultrapesados do petróleo obtidos por destilação a vácuo convencional e por destilação molecular. O trabalho visa a substituição do processo de extração líquido-líquido hoje utilizado para desasfaltação a nível de laboratório, procurando introduzir ganhos operacionais, tais como redução de tempo de processamento e aumento da quantidade dos materiais obtidos, ou seja, otimização do processo. Uma modelagem computacional do processo de desasfaltação supercrítica, também foi realizada, validada com dados experimentais, estudando o efeito das propriedades termodinâmicas e operacionais do processo, com o objetivo de obter ganhos operacionais. Além disto, foram realizados: um estudo sobre a extração supercrítica ou quase-crítica de asfaltenos e resinas de resíduos de petróleo, experimentos e obtenção dos dados em uma unidade de separação supercrítica; mapeamento das regiões de operação ótima do processo utilizando o planejamento de experimentos acoplado com o modelo matemático, e por fim, comparação dos resultados obtidos através de desasfaltação supercrítica, com os resultados obtidos pela via tradicional (extração líquido-líquido) no laboratório de Valoração do CENPES / Abstract: Nowadays, Brazil has a great demand for asphalt due to the reconstruction and construction of the new roads. The investment in technology to guarantee this demand is necessary in the qualitative and quantitative aspects. This work has as general aim the study in pilot scale of the supercritical deasphalting process using heavy and ultra heavy residues produced from conventional and molecular distillation. The work intends the replacement of the liquid liquid extraction process used for deasphalting in laboratory, aiming to introduce operational gain, such as processing time reduction and the increase of the material quantity obtained, that is to say, the process optimization. A computational modeling of the supercritical deasphalting process was done and it was validated with experimental data. The effect of the thermodynamics and operational properties of the process was studied with the aim to obtain operational gain. Furthermore, the supercritical and near critical extraction of the asphaltenes and resins were studied, experiments were carried out in the equipment and the data were obtained in the supercritical separation unit. The mapping of the regions of the process optimal operation using experimental design united with mathematical model was realized. The comparation of the results obtained in supercritical deasphalting unit with the results obtained with the conventional process (liquid liquid extraction) in CENPES Valoration Laboratory were done to conclude this work / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química

Page generated in 0.0454 seconds