• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Redução do consumo energético de um equipamento de frio

Mesquita, Nuno Miguel Rocha January 2009 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major Automação). Faculdade de Engenharia. Universidade do Porto. 2009
62

Modelo de evidência da informação em plataformas digitais : estudo exploratório no âmbito da ciência da informação

Rockembach, Moisés January 2012 (has links)
A informação como evidência de fatos e acontecimentos é uma construção teórica que nasce de um contraponto ao positivismo, geralmente relacionado à informação como prova, legitimada socialmente e com status de força perante informações concorrentes. Esta investigação desenvolve e sustenta a tese de que a informação pode ser validada e melhor apreendida como evidência, nomeadamente, no ambiente digital, para os efeitos desta pesquisa. Compreende como a informação probatória é tratada na Arquivística, Ciência da Informação, Direito e História e como esta idéia se transfere para as demais ciências, pois é fundamental para o entendimento desta nova perspectiva e avanço do conhecimentos nestas áreas. Considera como é atribuído valor à informação e também as variantes negativas da informação, a desinformação (intencional) e a falha na informação (nãointencional), que também são fatores chave na compreensão teórica. Propôs-se sistematizar a evidência dentro de um conjunto indício-evidência-prova, partindo de conceitos filosóficos e possíveis aplicabilidades, nomeadamente em plataformas digitais. A partir de um grupo de elementos (tipo informacional, situação, contexto, memória, interatividade e necessidade), institui o seu valor enquanto informação evidencial. Identifica como organizações do Terceiro Setor, em Portugal e no Brasil, lidam com informação e transformam-na em evidência nas plataformas digitais. Trata-se de um estudo comparativo, com pré-teste através de entrevista semiestruturada realizada em 5 instituições (...) e questionário eletrônico respondido por 38 instituições (...). Por meio da revisão de literatura, entrevistas, aplicação do teste eletrônico e análise comparativa, o estudo observou como as organizações produzem informação como evidência em plataformas digitais e procura propor um modelo sistêmico (...).
63

Reconstrução de contornos e cumeeiras de telhados de edifícios a partir de imagens aéreas de alta-resolução e poliedros representativos de edifícios extraídos de dados LASER

Marcato, Vanessa Jordão [UNESP] 25 February 2013 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:48Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-02-25Bitstream added on 2014-08-13T18:00:30Z : No. of bitstreams: 1 000758676.pdf: 2049270 bytes, checksum: f95548fba5af3d1f0ef8dcecb0a1ad33 (MD5) / Esse trabalho propõe melhorias em uma metodologia preexistente para o refinamento geométrico de contornos de telhados extraídos de dados LASER, usando imagens aéreas de alta resolução e campos aleatórios de Markov (MRF - Markov Random Field). A metodologia original assume que a descrição 3D de cada telhado de edifício reconstruído de dados de varredura a LASER está topologicamente correta e que é necessário apenas melhorar sua acurácia. Uma vez que as cumeeiras de telhado são acuradamente extraídas de dados de varredura a LASER, o objetivo básico é usar imagens aéreas de alta resolução para melhorar somente a qualidade geométrica dos contornos de telhado. Para tanto, essa metodologia utiliza retas extraídas da imagem e as projeções dos contornos de telhados extraídos dos dados LASER para estabelecer uma descrição MRF com base em relações de comprimento, proximidade e orientação entre ambos os conjuntos de retas. A função de energia associada com a descrição MRF é minimizada através de uma versão modificada do algoritmo de força bruta, resultando em um agrupamento de retas para cada contorno de telhado. Uma das melhorias propostas nesse trabalho consiste em incluir na função de energia associada ao MRF uma restrição denominada injunção de quina. Esta restrição leva em conta que a intersecção de duas retas adjacentes, correspondentes a lados de contorno, deve estar próxima de uma quina em 90º. As quinas são extraídas na imagem através de um algoritmo apropriado de processamento de imagem. Outra melhoria na função de energia baseia-se no fato de que as retas representativas de contornos de telhados são aproximadamente paralelas ou ortogonais entre si... / This paper proposes improvements in a previous methodology for the geometric refinement of building roof contours extracted from LASER data using high-resolution aerial images and Markov Random Field (MRF) models. The original methodology takes for granted that the 3D description of each building roof reconstructed from the laser scanning data is topologically correct and that it is only necessary to improve its accuracy. Since roof ridges are accurately extracted from laser scanning data, our main objective is to use high-resolution aerial images to improve the accuracy of roof outlines. For this, this methodology uses lines extracted form the image and the projection of the roof contours extracted from the LASER data to establish a MRF description based on relations of length, proximity and orientation between the two sets of straight lines. One of the proposed improvements is to include in the energy function associated with the MRF a restriction called corner injuction. This restriction considers that the intersection of two adjacent lines, corresponding to the contour sides, should be close to a corner in 90º. The corners are extracted from an image through an appropriate image processing algorithm. Other improvement in the energy function is based on the fact that the lines representing roof contours are aproximately parallel or orthogonal. This restriction was called rectangularity injuction. Other modification in the original methodology refers to the energy function optimization algorithm. The original methodology used the brute force optimization algorithm associated with some heuristics. Although this method allows to obtain the optimal solution, if there is, the search space becomes computationally intractable when dozens of lines are in the search space. It is proposed to use a genetic algorithm in order to solve this problem...
64

Uma proposta não linear para o fluxo de edição de imagens

Seki, Alexandre Kazuo January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:25Z (GMT). No. of bitstreams: 1 000444462-Texto+Completo-0.pdf: 2799490 bytes, checksum: aa689a595b738094f4c295382853e8fb (MD5) Previous issue date: 2012 / This work explores the current model used to store the flow of operations done in the image editing process. Tools for editing normally use a stack to store this flow, and this work presents problems of this model: when the user undoes some operations and applies a new one the undone operations are lost. Other problem is that the history is kept on a session basis, and if the user saves an image after editing and opens it at another time the history will be empty, thus losing the changes that have already been executed and is no longer possible to undo. This work presents a nonlinear way for storing and viewing these flows, based on trees. With one tree users can have multiple paths in a unique way to visualize. Saving this tree keeps the history for future editing. Other advantages and details the proposed model is described throughout the paper. Finally we introduce the prototype developed to evaluate the model, after we present the results of evaluations with users using the prototype. / Este trabalho disserta sobre modelos utilizados para representar e armazenar o fluxo de operações para edição de imagens. As ferramentas de edição de imagens, geralmente, utilizam uma pilha para armazenar este fluxo, e neste trabalho são apresentados alguns problemas encontrados neste modelo, como por exemplo: quando o usuário desfaz algumas operações e aplica uma nova, as operações desfeitas são perdidas. Outro problema detectado é que o histórico é mantido por sessão, ou seja, ao salvar uma imagem e abrir uma edição dela em outro momento o histórico estará vazio, perdendo-se as transformações que já foram executadas e não é mais possível retroceder. Este trabalho apresenta uma forma não-linear para armazenar e visualizar estes fluxos, baseando-se em uma árvore. Com uma árvore é possível ter vários caminhos que são diversas edições em uma única forma de visualizar. Salvando esta árvore pode-se manter o histórico para uma futura edição. Outras vantagens e detalhes do modelo proposto são descritos ao longo do trabalho. Por fim é introduzido o protótipo desenvolvido para avaliar o modelo, em seguida são apresentados resultados de avaliações com usuários utilizando o protótipo.
65

A tv digital no brasil : do SBTVD ao ISDTV-T a política a reboque da tecnologia

Rodrigues, Paola Daniella da Fonseca 10 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Comunicação, 2008. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2009-09-16T18:47:39Z No. of bitstreams: 1 2008_PaolaDaniellaFonsecaRodrigues.pdf: 596012 bytes, checksum: ee2fc88e607f3969b4669cca850c01ba (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2009-12-04T12:49:22Z (GMT) No. of bitstreams: 1 2008_PaolaDaniellaFonsecaRodrigues.pdf: 596012 bytes, checksum: ee2fc88e607f3969b4669cca850c01ba (MD5) / Made available in DSpace on 2009-12-04T12:49:22Z (GMT). No. of bitstreams: 1 2008_PaolaDaniellaFonsecaRodrigues.pdf: 596012 bytes, checksum: ee2fc88e607f3969b4669cca850c01ba (MD5) Previous issue date: 2008-10 / Dissertação de mestrado que pretende analisar a implementação da televisão digital no Brasil, observando as ações políticas que foram engendradas no Ministério das Comunicações durante o primeiro mandato do presidente Luís Inácio Lula da Silva – 2002 a 2006 –, considerando as datas de 26 de novembro de 2003, dia da instituição do Sistema Brasileiro de TV Digital pelo Decreto 4.901, e 29 de junho de 2006, quando se deu a escolha do padrão japonês ISDB-T, feita pelo presidente Lula e oficializada por meio do Decreto 5.820. A pesquisa aborda também o desenvolvimento do padrão brasileiro de TVD, baseado no padrão japonês, o chamado ISDTV-T, a criação do middleware Ginga NCL-Lua, componente do Sistema Brasileiro de Televisão Digital Terrestre, e, por fim, a inauguração oficial da TVD no Brasil, em São Paulo, no dia 2 de dezembro de 2007. Nossa abordagem, à luz das teorias da Economia Política da Comunicação, intenta investigar os motivos da adoção de um padrão híbrido do sistema japonês em detrimento dos outros e o impacto disso sobre a indústria nacional, além das relações políticas e econômicas que influenciaram na constituição de um modelo de serviços e de negócios para gerir essa nova tecnologia. _____________________________________________________________________________ ABSTRACT / This thesis aims discuss digital television’s establishment in Brazil, observing the political actions which has been designed by the Communication´s Department since Luis Inacio Lula da Silva, the President of Brazil, first term of office – 2002 to 2006 – considering the dates of November 26t h 2003, the inauguration of the Brazilian System of Digital TVDTV, according to Law # 4.901, and June 29t h 2006, when Japanese standard ISDB-T was chosen by President Lula and authorized by Law # 5.820. The research also approaches the development of the Brazilian standard of Digital Television, based on the Japanese standard, called ISDTV-T, the creation of middleware Ginga NCL-Lua, component of the Brazilian System of Land Digital Television, and finally, the official inauguration of the DTV in Brazil, São Paulo, on December 2n d 2007. Our approach, under the theories of Political Economy of Communication, aims to investigate the reasons why the Japanese hybrid standard system was chosen despite of the others and the impact of this choice on the Brazilian industry apart from the political and economical connections that had influenced the establishment of a model of service and business to built this new technology.
66

Operadores aritméticos de baixo consumo para arquiteturas de circuitos DSP

Costa, Eduardo Antonio Cesar da January 2002 (has links)
Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.
67

CSAR : um compilador de silício voltado a execução de operações paralelas

Gomes, Rogerio Figurelli January 1990 (has links)
Apesar de o termo Compilador de Silício ser recente, as idéias envolvidas na sua construção são antigas e conhecidas. Este trabalho apresenta todos os passos para a construção do CSAR, um compilador de silício voltado à execusão de operações paralelas. A arquitetura alvo gerada pelo CSAR é distribuída, bem como os algoritmos implementados.
68

Avaliação das propriedades de forma de agregados utilizados em lastro ferroviário a partir do uso do processamento digital de imagens / Evaluation of the ballast aggregates shape properties using digital image processing techniques

Diógenes, Daianne Fernandes 06 December 2016 (has links)
DIÓGENES, D. F. Avaliação das propriedades de forma de agregados utilizados em lastro ferroviário a partir do uso do processamento digital de imagens. 2016. 147 f. Dissertação (Mestrado em Engenharia de Transportes) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2016-12-26T11:25:16Z No. of bitstreams: 1 2016_dis_dfdiogenes.pdf: 3625312 bytes, checksum: 354a5935f884f8906bf53cc03e095fd6 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-01-05T17:32:24Z (GMT) No. of bitstreams: 1 2016_dis_dfdiogenes.pdf: 3625312 bytes, checksum: 354a5935f884f8906bf53cc03e095fd6 (MD5) / Made available in DSpace on 2017-01-05T17:32:24Z (GMT). No. of bitstreams: 1 2016_dis_dfdiogenes.pdf: 3625312 bytes, checksum: 354a5935f884f8906bf53cc03e095fd6 (MD5) Previous issue date: 2016-12-06 / The ballast layer is responsible for supporting the railway superstructure, being repeatedly charged and discharged by the passage of trains. The aggregates shape properties and the particle size thereof may be directly affected by many factors such as: track usage time, clogging of thinner materials and maintenance processes performed primarily through the tamping, causing breakage and wear in these materials. The validation indices used to evaluate shape, angularity and texture are used to understand the interaction of these materials at various stages of the railway, such as in cases of primary and secondary crushing of the aggregates before and after the completion of the tamping ballast, at the beginning of the service life and after a certain service period. This study aims to evaluate the influence of the aggregates’ shape properties that make up the ballast layer in the operation and performance of the structure with the use of Digital Image Processing (DIP), the Aggregate Image Measurement System (AIMS) tool was applied to the study. Research involving the evaluation of ballast requires large-scale equipment to conduct triaxial tests, in order to obtain resilient modulus and resistance to permanent deformation, Thus, the offset technique, translation of the gradation curve from the original size distribution curve, was used in this study to evaluate the material used in the ballast scaled. It was verified, by traditional methodologies, that the aggregates collected in the permanent route obtained higher percentage of cubic particles when compared to the ballast material (initial phase), being related to the breakage of the flat-elongated particles due to the loads from wagons and boards, the maintenance with vibrating blades, the friction between particles and the impacts of materials disposal. Regarding the DPI characterization, the initial ballast presented particles with low roughness differently from the materials collected in the permanent way, presenting smooth surface texture. Materials from the track presented better mechanical behavior compared to the initial ballast, being attributed to the higher percentage of cubic particles of smaller sizes, as well as to the granulometric curve with more dense characteristics. This way, it is possible to conclude, regarding stability and strength, that the material just below the sleepers and the one with 5 years in service were less impacted, presenting smaller deformations compared to the initial ballast materials. However, they may be unfavorable in one of the main functions of the ballast layer, the drainage. / A camada de lastro é responsável por suportar a superestrutura ferroviária, sendo repetidamente carregada e descarregada pela passagem dos trens. As propriedades de forma dos agregados que constituem essa camada, bem como a granulometria dos mesmos, podem ser diretamente afetadas por diversos fatores, tais como: o tempo de uso da via, a colmatação por materiais mais finos e os processos de manutenção realizados através, principalmente, da socaria, que causam quebra e desgaste nestes materiais. O presente trabalho busca avaliar a influência das propriedades de forma de agregados que compõem a camada de lastro ferroviário no funcionamento e no desempenho da estrutura com o auxílio do Processamento Digital de Imagens (PDI), sendo o Aggregate Image Measurement System (AIMS) a ferramenta utilizada no estudo. Pesquisas que envolvem a avaliação do lastro ferroviário exigem a utilização de equipamentos em grande escala para a realização de ensaios triaxiais, obtenção do Módulo de Resiliênia (MR) e da resistência à Deformação Permanente (DP), com o intuito de compreender as propriedades mecânicas da via permanente. Contudo, aplicou-se a técnica de decalagem, translação da curva granulométrica de forma paralela a curva granulométrica original, a fim de avaliar o material que compõe o lastro ferroviário em escala reduzida quanto às propriedades mecânicas do mesmo. Verificou-se, quanto à determinação da forma dos agregados pela técnica tradicional, que os agregados coletados na via permanente obtiveram maiores percentuais de partículas cúbicas quando comparados ao material de lastro (fase inicial), sendo relacionadas à quebra das partículas lamelares-alongadas por ocorrência dos carregamentos de vagões e pranchas, manutenções com pás vibrantes, atrito entre partículas e impactos de lançamentos. Com relação à caracterização pelo PDI, o lastro inicial apresentou partículas com baixa rugosidade diferentemente dos materiais coletados na via permanente, apresentando textura superficial macia. Embora, os materiais provenientes da via tenham apresentado melhor comportamento mecânico comparado ao lastro inicial, sendo atribuído ao maior percentual de partículas cúbicas de tamanhos menores, assim com a curva granulométrica com características mais densa. Com isso pode-se concluir, quanto a estabilidade e resistência, que os materiais logo abaixo do dormente (completo) e com 5 anos em serviço foram menos impactados, apresentando menores deformações comparados ao materiais de lastro inicial. Todavia, podem estar desfavoráveis em uma das principais funções da camada de lastro, a drenagem.
69

Uso de redundância modular tripla aproximada para tolerância a falhas em circuitos digitais / The use of approximate-TMR for fault-tolerant digital circuits

Gomes, Iuri Albandes Cunha January 2014 (has links)
Este trabalho consiste no estudo acerca da técnica de redundância modular tripla usando circuitos aproximados para tolerância a falhas transientes em circuitos digitais. O uso da técnica redundância modular tripla tradicional, conhecida como TMR, garante mascaramento lógico total contra falhas transiente únicas para um dado circuito. No entanto a técnica TMR apresenta um custo extra em área de no mínimo 200% quando comparado com o circuito original. De modo a reduzir o custo extra em área sem comprometer significativamente a cobertura de falhas, a TMR pode usar uma abordagem de circuitos aproximados para gerar módulos redundantes, estes sendo otimizados em área quando comparados com o módulo original. Estudos iniciais desta técnica demonstraram que é possível obter um bom equilíbrio entre custo extra de área e capacidade de mascaramento de falhas. Neste trabalho, aprofundamos a análise desta abordagem utilizando um novo método para computar as funções lógicas aproximadas e a seleção da melhor composição e estrutura dos circuitos aproximados, buscando a maior cobertura a falhas possível. Usamos circuitos TMR compostos por lógica aproximada contendo portas lógicas complexas com lógica aproximada ou com portas lógicas em multi-nível. Todos os testes foram feitos através de injeção de falhas em nível elétrico e em nível lógico. Resultados mostraram que a área pode ser reduzida significativamente, de 200% para próximo de 85%, e ainda sim alcançar um mascaramento de falhas superior a 95%. / This work consists in the study about the fault tolerance technique TMR in conjunction with approximate computing to mitigate transient faults in digital circuits. The use of Triple Modular Redundancy (TMR) with majority voters can guarantee full single fault masking coverage for a given circuit against transient faults. However, it presents a minimum area overhead of 200% compared to the original circuit. In order to reduce area overhead without compromising significantly the fault coverage, TMR can use approximated circuits approach to generate redundant modules that are optimized in area compared to the original module. Initial studies of this technique have shown that it is possible to reach a good balance between fault coverage and area overhead cost. In this work, we do a further analysis of this approach by using a new method to compute approximate functions and to select the best combinations of approximate circuits targeting the highest fault coverage possible. We use TMR circuits composed exclusively by complex gates and multi-level logic gates. All the tests are done using electrical fault injection, using NGSPICE, and in logical level using the fault injection tool designed specifically for this study. Results show that area overhead can be reduced greatly from 200% to 85%and still reaching fault coverage of more than 95%.
70

Uma proposta para combinar classificadores e colaboração de usuários na resolução do problema de ambiguidade de nomes de autores.

Souza, Emília Alves de January 2014 (has links)
Programa de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto. / Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-01-05T16:07:21Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_PropostaCombinarClassificadores.pdf: 1772529 bytes, checksum: 9b5cf663666dfc70a93b2a93bda1f609 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-01-16T15:40:29Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_PropostaCombinarClassificadores.pdf: 1772529 bytes, checksum: 9b5cf663666dfc70a93b2a93bda1f609 (MD5) / Made available in DSpace on 2015-01-16T15:40:29Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_PropostaCombinarClassificadores.pdf: 1772529 bytes, checksum: 9b5cf663666dfc70a93b2a93bda1f609 (MD5) Previous issue date: 2014 / O problema de ambiguidade de nomes em citações bibliográficas tem sido amplamente estudado principalmente pela comunidade científica de bibliotecas digitais envolvendo nomes de autores. Normalmente, os métodos propostos na literatura seguem abordagens supervisionadas ou não supervisionadas. Os métodos supervisionados são normalmente os mais efetivos, mas geralmente requerem que uma grande quantidade de exemplos sejam manualmente rotulados e, além disso, também não são capazes de resolver a ambiguidade para todos os nomes devido a inerente dificuldade do problema. Recentemente, com o objetivo de melhorar o resultado do processo de desambiguação, alguns trabalhos têm utilizado a colaboração de usuários na desambiguação manual de alguns registros. Neste trabalho é proposto um método para combinar resultados de técnicas supervisionadas de aprendizado de máquina com a colaboração de usuários para resolver tal problema. Inicialmente, o método explora os atributos dos registros de citações para agrupar registros que pertençam a um único autor. A partir desses grupos, classificadores são combinados para gerar uma função de similaridade que, juntamente com a colaboração do usuário, contribuem para agrupar grupos separados de registros de citações que pertencem a um mesmo autor real. Apesar de usar técnicas supervisionadas, o único esforço exercido por parte do usuário é fornecer a sua colaboração desambiguando alguns nomes de autores. O método foi comparado com outros métodos representativos e o ganho em relação a eles atinge cerca de 20% nos resultados de desambiguação. ______________________________________________________________________________________________ / ABSTRACT: The author name ambiguity problem in bibliographic citations has been widely studied by the scientific community, mostly, about author name ambiguity problem by the digital library research community. Usually, the methods proposed in the literature follow supervised or unsupervised approaches. The supervised methods are usually the most effective ones, but they generally require that a large amount of manually labeled examples and furthermore, they are not capable of solving the author name ambiguity for all names due to its inherent difficulty. Recently, aiming to improve the disambiguation performance, user feedback have been used in some works. This work proposes a method to combine results of supervised machine learning techniques along with users feedback to solve such a problem. Initially, the method exploits attributes present in citations to group ones with similar author names. From these groups, three classifiers are combined to produce a similarity function of pairs of records between two groups to, along with users feedback, group ones that belong to the same author. Although, it uses supervised techniques, the only effort applied by the user is to provide feedback for disambiguating author names. We compare our method with other representative ones and our gains reaches up to 20% in the disambiguation performance.

Page generated in 0.0336 seconds