361 |
Uma plataforma para suporte às bibliotecas digitais de eventos científicos com foco na extração de informaçãoALVES, Neide Ferreira 16 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:18:29Z
No. of bitstreams: 2
TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:18:29Z (GMT). No. of bitstreams: 2
TESE Neide Ferreira Alves .pdf: 4496625 bytes, checksum: 5673d5cd06a3ba049f1bdaec261136d6 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-08-16 / A presente tese descreve as especificações e requisitos para o desenvolvimento de
Bibliotecas Digitais de documentos textuais, considerando a possibilidade de reuso e a
extração de dados. Considerando o imenso volume de informação disponível nesses
repositórios, é de grande interesse a construção de sistemas capazes de selecionar
automaticamente apenas os dados de interesse do usuário, facilitando assim o acesso, a
manipulação e a divulgação dessas informações. O Modelo de Referências de Biblioteca
Digital da DELOS foi utilizado para guiar a construção do ambiente, como consequência
foi desenvolvida a plataforma pLiveMemory com módulos implementados para desktop e
web, neste último, a infraestrutura da nuvem do Google é utilizada. Entre os módulos
desenvolvidos há um específico para identificação e extração de referências bibliográficas,
o qual usa, entre outros, o algoritmo de Naïve Bayes juntamente com as técnicas de
expressões regulares. Também há um módulo para identificação de palavras-chave em
arquivos de formato PDF editável. Os resultados obtidos mostraram os ganhos com a
utilização das estratégias adotadas nas diversas fases do projeto, como na classificação
automática de informação dos textos de artigos científicos.
|
362 |
Extração de informação usando integração de componentes de PLN através do framework GATEde Souza Cabral, Luciano 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2
arquivo1907_1.pdf: 1663192 bytes, checksum: 21a772bd61ef448147054bfaa52598d1 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / A Extração de Informação (EI) é o ramo da área de recuperação de informação
que utiliza técnicas e algoritmos para identificar e coletar informações
desejadas a partir de documentos, sejam estes estruturados ou não,
armazenando-as em um formato apropriado para consultas futuras. Dentre
estas tecnologias, o uso de Processamento de Linguagem Natural (PLN)
revela-se benéfico ao processo de extração, principalmente quando se
processam documentos sem nenhuma estrutura e/ou padrão definido. Existe
uma suíte que reúne dezenas de plugins que podem ajudar na tarefa de EI
baseada em PLN, conhecida como GATE (General Architecture for Text
Engineering). Neste trabalho propõe-se o módulo RELPIE, contendo alguns
destes plugins para a extração a partir de texto livre. O módulo RELPIE é
original, e emprega plugins GATE baseados em padrões de expressões
regulares (ER) e regras de produção. Estas regras ficam totalmente separadas
do sistema, visando modularidade na extração de informação a partir de
documentos estruturados ou não. Os resultados obtidos nos experimentos
demonstram que o módulo RELPIE apresenta bons níveis de extração com
corpus compreendido por documentos textuais sem qualquer estrutura,
alcançando um reconhecimento acima de 80% em média. Efetuando uma
comparação com o sistema ANNIE (A Nearly-New Information Extraction
System), resultados mostram que esse sistema é mais preciso em relação ao
nosso, entretanto o sistema RELPIE mostra-se melhor na cobertura e no fmeasure.
Um dos experimentos revelou outra descoberta interessante: corpora
já processados denotam melhores resultados nas execuções posteriores, em
média 6% na precisão, o que sugere que corpora não anotados devem ser
processados duas vezes em seqüência para a obtenção de melhor
performance na tarefa de extração, especialmente quando envolve entidades
nomeadas e quando se usam ontologias para extraí-las
|
363 |
Verificação de assinaturas off-line: uma abordagem baseada na combinação de distâncias e em classificadores de uma classeRodrigues Pinheiro de Souza, Milena 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:56:31Z (GMT). No. of bitstreams: 2
arquivo2943_1.pdf: 1753239 bytes, checksum: 9bb54530f2681d310412190da2d1397f (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Esta dissertação oferece contribuições para o problema de verificação de assinaturas off-line
através da utilização de diferentes distâncias e classificadores de apenas uma classe. O uso
de classificadores de uma classe viabiliza a utilização de apenas assinaturas verdadeiras durante
a fase de treinamento do sistema. Isso é vantajoso pois em diversas aplicações reais de
verificação de assinaturas existe uma carência de assinaturas falsas em detrimento do número
de assinaturas verdadeiras. Esse trabalho também realiza uma comparação entre os resultados
dos diferentes classificadores de uma classe escolhidos e de três métodos de extração de características
implementados: Shadow Code, Características Periféricas e Diferenciais Periféricas
e Elementos Estruturais. Afora isso, foram calculadas cinco distâncias utilizando as características
extraídas: dmin, dmax, dcentral , dtemplate e dncentral . Essas distâncias foram normalizadas
de forma a tornar o sistema independente de classe. E posteriormente combinadas usando as
seguintes regras: produto, média, máximo, mínimo e soma.
De forma a avaliar a contribuição de cada etapa no desempenho do sistema, este foi subdividido
em quatro arquiteturas. Para isso, partiu-se de uma arquitetura mais simples, e foram
sendo adicionadas novas etapas a ela. Dessa forma, foi possível identificar que, dentre as extrações
utilizadas neste trabalho, o método Shadow Code obteve um grande destaque. O mesmo
pode ser dito para as distâncias dcentral e dncentral , que apresentaram melhores resultados que
as demais: dmin, dmax e dtemplate. As combinações das distâncias apresentaram resultados discrepantes,
algumas combinações pioraram o desempenho do sistema, enquanto outras provocaram
um efeito positivo. Foram utilizadas duas bases de dados: Base de Dados 1 (base de
dados de assinaturas desenvolvida em pesquisa anterior) e Base de Dados 2 (base de dados
de assinaturas disponibilizada em competição para sistemas de verificação de assinaturas). O
melhor resultado geral do sistema, para a Base de Dados 1, e considerando 10% de falsos positivos,
foi de 93,37% de verdadeiros positivos para as assinaturas falsas aleatórias, 59,18% para
as assinaturas falsas habilidosas e 75,85% usando ambas
|
364 |
Técnicas de extração de características para cenários com multimodalidade intraclasseRodrigues da Silva Júnior, Elias 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:57:39Z (GMT). No. of bitstreams: 2
arquivo3217_1.pdf: 4205734 bytes, checksum: ef1b69f43e81803a2e22ad3b2bbfae07 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Multimodalidade intraclasse é frequente em problemas de classificação e eles
conduzem
a indesejadas projeções quando aplicados à técnicas lineares de extração de
características.
As clássicas técnicas lineares de extração de características, que constroem suas
soluções baseadas em métricas globais do conjunto de padrões, não podem
perceber a
multimodalidade dentro da classe, logo, elas criam projeções que não preservam a
estrutura
multimodal após a redução da dimensionalidade, o que pode ser uma pobre ou
indesejada representação da distribuição original dos padrões.
Na literatura são encontradas técnicas lineares de extração de características que
se
preocupam com a manutenção da estrutura multimodal da distribuição dos
padrões após
a redução da dimensionalidade. Todavia, essas técnicas calculam sua solução
tomando a
influência de cada classe na percepção da multimodalidade em conjunto, o que
pode acarretar
em influência negativa de uma classe sobre outra no que diz respeito à
preservação
da estrutura multimodal do conjunto de padrões após a redução da
dimensionalidade.
Para melhor tratar problemas com multimodalidade intraclasse, são apresentadas
neste trabalho novas técnicas lineares de extração de características, as quais
avaliam
cada classe separadamente e constróem uma solução específica para cada uma
delas. A
solução encontrada para cada classe se preocupa com a estrutura local da
vizinhança
de seus padrões e busca preservar esta estrutura após a redução da
dimensionalidade.
Deste modo, um padrão novidade (ou de teste) é avaliado não apenas em relação
a uma
única solução, como acontece com as clássicas técnicas lineares de extração de
caracter
ísticas, que deve discernir quanto à pertinência desse padrão a uma das várias
classes
do problema, mas passa a ser avaliado segundo as soluções obtidas para cada
classe, e
é classificado segundo aquela que melhor se ajustar às características do padrão.
Os
experimentos realizados aqui mostram que essa abordagem é adequada ao
tratamento
de multimodalidade intraclasse, obtendo desempenho superior ou igual ao das demais
técnicas lineares de extração de características que também tratam
multimodalidade
|
365 |
WhatMatter: extração e visualização de características em opiniões sobre serviçosSIQUEIRA, Henrique Borges Alencar 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:58:05Z (GMT). No. of bitstreams: 2
arquivo3250_1.pdf: 3749007 bytes, checksum: 1fa0de20ae4ac4b54782688d5ffa5279 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O número crescente de blogs, foruns e redes sociais na Web aumentou drasticamente a
quantidade de textos contendo não apenas fatos mas também opiniões. Com a popularização
do E-commerce, um grande número destas opiniões são resenhas de consumidores
sobre produtos e serviços. Esta tendência motivou diversas pesquisas e aplicações
comerciais buscando a análise automática das opiniões disponíveis. Claramente, esta
informação é crucial para novos consumidores, gerentes e empresários que gostariam de
tomar suas decisões baseadas no que outras pessoas opiniaram. Considerando as opiniões
dadas sobre serviços como lojas e hotéis, é particularmente dificil identificar de maneira
automatizada as características (eg. atendimento, entrega, localização, etc.) que influiram
na escolha e na satisfação do consumidor.
Neste trabalho apresentamos o WhatMatter, um sistema de Análise de Sentimentos
que realiza a identificação, extração, classificação e sumário de características em opiniões
através de um processo automatizado inovador. Este processo é formado por cinco
passos principais: pré-processamento, identificação de substantivos mais freqüentes,
identificação dos substantivos relevantes, mapeamento de indicadores e remoção de
substantivos não-relacionados. O protótipo deste sistema foi aplicado em opiniões sobre o
serviço prestado por lojas de e-commerce brasileiras com resultados bastante satisfatórios
|
366 |
Um sistema de extração de informação em referências bibliográficas baseado em aprendizagem e máquinaFraga do Amaral e Silva, Eduardo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2
arquivo4727_1.pdf: 1069518 bytes, checksum: f7d66b889164069c63fdfafe11edf163 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / Existe atualmente uma gigantesca quantidade de informações disponibilizada em
formato de texto na Internet e nas redes das grandes corporações. Essas informações
encontram-se em um formato não estruturado, dificilmente manipulável por programas
de computador.
A Extração de Informação (EI) tem como objetivo transformar documentos
textuais em um formato estruturado, mapeando a informação contida em um documento
em uma estrutura tabular. Tal estrutura é mais facilmente tratável por programas de
computador, possibilitando assim a sua utilização por variadas aplicações inteligentes .
Dentro da Inteligência Artificial, vemos duas abordagens para tratar o problema da EI:
os sistemas baseados em conhecimento e a aprendizagem automática.
O trabalho apresentado tem como objetivo a construção de um sistema para
extrair informações a partir de textos contendo citações científicas (ou referências
bibliográficas) através de uma abordagem baseada em aprendizagem automática. Dentre
as diversas técnicas existentes, escolhemos tratar o problema através de uma abordagem
híbrida, que combina o uso de técnicas de classificação de textos com os Modelos de
Markov Escondidos (HMM). Esta combinação mostrou resultados superiores aos
obtidos usando exclusivamente as técnicas de classificação e sua idéia básica é gerar
com o uso das técnicas de classificação de textos para EI uma saída inicial para o
sistema e refiná-la depois por meio de um HMM. Experimentos realizados com um
conjunto de teste contendo 3000 referências resultaram em uma precisão de 87,48%.
|
367 |
Um sistema de recuperação e extração de informação utilizando conceitos da web semânticaCARDOSO, Rafael Cunha January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:13Z (GMT). No. of bitstreams: 2
arquivo4978_1.pdf: 1542925 bytes, checksum: e49f4b7f816d2f33dd3c206e9c8ecd8f (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / A crescente quantidade de dados disposta diariamente na Web faz com que os
sistemas de recuperação e extração de informações desempenhem um papel importante
dentro dessa realidade. Entretanto, os resultados das buscas na Web freqüentemente
frustram as expectativas dos usuários no tocante à qualidade das informações recuperadas.
A Web Semântica, considerada a nova geração da Web, apresenta conceitos e ferramentas
que visam inserir significado nos documentos existentes na WWW atual, permitindo com
isso sanar algumas das limitações existentes. Um dos principais conceitos sobre os quais a
Web Semântica se fundamenta, é a Ontologia. Estas podem ser vistas como especificações
formais de um determinado domínio de conhecimento que possibilitam um entendimento
comum sobre determinado tema de discussão.
Este trabalho visa melhorar a qualidade das informações recuperadas de sites na
Web através da utilização de conceitos e fundamentos da Web Semântica aliada às técnicas
da Web já estabilizadas. Para tanto, foi definida uma arquitetura e desenvolvido um
protótipo de um sistema que objetiva realizar recuperação e extração de dados sobre um
domínio específico de conhecimento, utilizando uma ontologia (baseada nos fundamentos
da Web Semântica) desenvolvida para auxiliar o processo de extração de informação
relevante a partir de um conjunto específico de dados da Web.
|
368 |
TANINOS DA CASCA DE EUCALIPTO E SUA EFICIÊNCIA NA COLAGEM DE MADEIRASANTIAGO, S. B. 06 July 2016 (has links)
Made available in DSpace on 2018-08-01T22:35:40Z (GMT). No. of bitstreams: 1
tese_10033_Sabrina Barros Santiago-Dissertação20161019-150320.pdf: 1790533 bytes, checksum: 03bd185dc926acfa59850549119ce8db (MD5)
Previous issue date: 2016-07-06 / O objetivo deste estudo foi avaliar a viabilidade de utilização de taninos extraídos da casca de eucalipto com água e com água sob diferentes concentrações de carbonato de sódio e sulfato de sódio como adesivo para madeira. As cascas de eucalipto foram obtidos em uma empresa de tratamento de madeira, e os resíduos de madeira em uma marcenaria, ambos, no sul do estado do Espírito Santo. Das cascas foram determinados os teores de sólidos totais e dos polifenóis pela reacão de Stiasny, teor de polifenóis reativos pelo método Ultra Violeta UV e, pH, teores de taninos e não-taninos dos extratos tânicos. Para a caracterização química da casca e da madeira (classificados em três classes de densidade: baixa, média e alta) foram determinados os teores de extrativos, ligninas, cinzas, holocelulose, pH e capacidade tampão. Após obtenção dos extratos tanicos, determinaram-se suas propriedades, com posterior colagem na madeira. Os adesivos foram avaliados por meio os do ensaio de cisalhamento de tração e porcentagem de falhas na madeira das juntas coladas. Os resultados obtidos demonstraram que o carbonato de sódio proporcionou maior extração de taninos (8%), e o sulfato de sódio (4%) as menores quantidades, ambos com boas características, mas não o suficiente para utilização como adesivo para madeira em sua totalidade (100%). Portanto, a adição de 10 e 20% de tanino na resina de ureia foram utilizadas, e não afetaram negativamente a colagem da madeira. A maior resistência ao cisalhamento foi verificada em madeira na classe de alta densidade ao empregar todos adesivos em estudo. Os maiores valores obtidos para o percentual de falhas na madeira das juntas coladas ocorreram ao utilizar a maioria dos adesivos em madeira de baixa densidade.
Palavras-chave: Polifenol, extração de tanino, adesivo natural, madeira.
|
369 |
Avaliação Soro-epidemiológica e Molecular de Cães Assintomática para Leishmaniose Tegumentar Americana em Área EndêmicaPASSOS, G. P. 26 February 2013 (has links)
Made available in DSpace on 2018-08-01T22:56:45Z (GMT). No. of bitstreams: 1
tese_6434_DISSERTAÇÃO GABRIELA PORFIRIO-PASSOS.pdf: 872492 bytes, checksum: 4693b33b1f6f17af259a9c2b1b3878cb (MD5)
Previous issue date: 2013-02-26 / Com o objetivo de realizar o diagnóstico de leishmaniose tegumentar americana (LTA) em cães, foram utilizados métodos de cultura e isolamento, testes sorológicos de ELISA e Western Blot (WB) e pesquisa de DNA do parasito para dois grupos de animais, um grupo composto de animais sem lesões clínicas sugestivas de LTA, mas residentes em torno de casos clínicos humanos confirmados para LTA, e outro grupo de animais com lesões sugestivas de LTA que serviram como controle dos protocolos realizados. O estudo foi realizado no município de Iúna, ES, Brasil, região endêmica para enfermidade. No primeiro grupo, foram analisadas amostras de soro de 109 animais sem histórico ou lesões indicativas de LTA, estas foram submetidas às técnicas de ELISA e WB que resultaram em 20 animais sorologicamente positivos para as duas técnicas. O teste ELISA apresentou sensibilidade de 100,00% (IC95% - 0,83 a 1,00) e especificidade de 77,53% (IC95% - 0,67 a 0,86), em relação à técnica de WB. O teste WB apresentou maior acurácia e mostrou-se mais adequado para diagnóstico dos animais assintomáticos, enquanto a técnica de ELISA para a triagem. Para a pesquisa do DNA do parasito nos 20 animais assintomáticos e positivos pela técnica de WB utilizou-se sangue total e biópsia de tecido íntegro do pavilhão auricular pela técnica de reação em cadeia da polimerase (PCR). Os resultados para PCR da biópsia de tecido íntegro e PCR de tecido sanguíneo mostraram sensibilidade de 30,0% (IC95% - 0,12 a 0,54) e 20,0% (IC95% - 0,06 a 0,44), respectivamente. A especificidade, 99,0% (IC95% - 0,93 a 0,99) e 100% (IC95% - 0,96 a 1,00), para a PCR da biópsia de tecido íntegro e PCR de tecido sanguíneo quando comparadas ao WB. Os resultados mostram que tecido íntegro do pavilhão auricular e sangue de animais assintomáticos submetidos à técnica de PCR, apresentaram baixa sensibilidade e alta especificidade, assim, a PCR da biópsia de tecido íntegro é melhor indicador para animais assintomáticos que a PCR de tecido sanguíneo. Para o segundo grupo, foram identificados três animais com lesões sugestivas para LTA e sorologicamente positivo. A partir de uma amostra de biópsia de lesão sugestiva de LTA presente no pavilhão auricular, parte desta foi destinada a cultura e isolamento e outra parte para comparação de três protocolos de extração do DNA de tecido animal para diagnóstico da LTA canina. Os protocolos utilizados tiveram como base o Fenol-Clorofórmio, Acetato de Potássio e associação entre as duas metodologias. Em comparação com os padrões moleculares de concentração de DNA concluiu-se que o protocolo com Acetato de Potássio foi o mais indicado para o tipo de tecido empregado. Por fim, de posse dos dados apresentados para os animais sorologicamente positivos e assintomáticos estudados, foi possível concluir que estes não representaram potenciais reservatórios do parasito, o que evidencia ainda que para avaliação deste perfil da enfermidade seja indicada a associação de métodos de diagnóstico.
|
370 |
Estudo experimental e modelagem matemática da separação de asfaltenos e óleos lubrificantes provenientes do resíduo de petróleo por desasfaltação supercrítica / Experimental and mathematical modeling study of the separation of asphaltens and lube oil from the residuum of petroleum for supercritical desasphaltingCárdenas Concha, Viktor Oswaldo 12 July 2010 (has links)
Orientadores: Rubens Maciel Filho, Maria Regina Wolf Maciel / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-17T07:37:49Z (GMT). No. of bitstreams: 1
CardenasConcha_ViktorOswaldo_D.pdf: 4772708 bytes, checksum: f60b1666b16ba98bbf53116f33ee385b (MD5)
Previous issue date: 2010 / Resumo: Atualmente, o Brasil tem uma grande demanda do consumo de asfalto, devido à reconstrução e à construção de novas estradas. O investimento em tecnologia para garantir esta demanda, não somente no aspecto quantitativo, mas também no aspecto qualitativo do asfalto é imprescindível. Este projeto tem por objetivo geral o estudo em escala piloto, do processo de desasfaltação supercrítica de resíduos pesados e ultrapesados do petróleo obtidos por destilação a vácuo convencional e por destilação molecular. O trabalho visa a substituição do processo de extração líquido-líquido hoje utilizado para desasfaltação a nível de laboratório, procurando introduzir ganhos operacionais, tais como redução de tempo de processamento e aumento da quantidade dos materiais obtidos, ou seja, otimização do processo. Uma modelagem computacional do processo de desasfaltação supercrítica, também foi realizada, validada com dados experimentais, estudando o efeito das propriedades termodinâmicas e operacionais do processo, com o objetivo de obter ganhos operacionais. Além disto, foram realizados: um estudo sobre a extração supercrítica ou quase-crítica de asfaltenos e resinas de resíduos de petróleo, experimentos e obtenção dos dados em uma unidade de separação supercrítica; mapeamento das regiões de operação ótima do processo utilizando o planejamento de experimentos acoplado com o modelo matemático, e por fim, comparação dos resultados obtidos através de desasfaltação supercrítica, com os resultados obtidos pela via tradicional (extração líquido-líquido) no laboratório de Valoração do CENPES / Abstract: Nowadays, Brazil has a great demand for asphalt due to the reconstruction and construction of the new roads. The investment in technology to guarantee this demand is necessary in the qualitative and quantitative aspects. This work has as general aim the study in pilot scale of the supercritical deasphalting process using heavy and ultra heavy residues produced from conventional and molecular distillation. The work intends the replacement of the liquid liquid extraction process used for deasphalting in laboratory, aiming to introduce operational gain, such as processing time reduction and the increase of the material quantity obtained, that is to say, the process optimization. A computational modeling of the supercritical deasphalting process was done and it was validated with experimental data. The effect of the thermodynamics and operational properties of the process was studied with the aim to obtain operational gain. Furthermore, the supercritical and near critical extraction of the asphaltenes and resins were studied, experiments were carried out in the equipment and the data were obtained in the supercritical separation unit. The mapping of the regions of the process optimal operation using experimental design united with mathematical model was realized. The comparation of the results obtained in supercritical deasphalting unit with the results obtained with the conventional process (liquid liquid extraction) in CENPES Valoration Laboratory were done to conclude this work / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
|
Page generated in 0.0454 seconds