• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 89
  • 5
  • 1
  • 1
  • Tagged with
  • 290
  • 186
  • 156
  • 151
  • 132
  • 68
  • 41
  • 41
  • 34
  • 34
  • 31
  • 30
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Preference and context-based BDI plan selection using machine learning : from models to code generation / Seleção de planos BDI baseada em contexto e preferências usando aprendizado de máquina : dos modelos à geração de código

Faccin, João Guilherme January 2016 (has links)
A tecnologia de agentes surge como uma solução que fornece flexibilidade e robustez para lidar com domínios dinâmicos e complexos. Tal flexibilidade pode ser alcançada através da adoção de abordagens já existentes baseadas em agentes, como a arquitetura BDI, que provê agentes com características mentais de crenças, desejos e intenções. Essa arquitetura é altamente personalizável, deixando lacunas a serem preenchidas de acordo com aplicações específicas. Uma dessas lacunas é o algoritmo de seleção de planos, responsável por selecionar um plano para ser executado pelo agente buscando atingir um objetivo, e tendo grande influência no desempenho geral do agente. Grande parte das abordagens existentes requerem considerável esforço para personalização e ajuste a fim de serem utilizadas em aplicações específicas. Nessa dissertação, propomos uma abordagem para seleção de planos apta a aprender quais planos possivelmente terão os melhores resultados, baseando-se no contexto atual e nas preferências do agente. Nossa abordagem é composta por um meta-modelo, que deve ser instanciado a fim de especificar metadados de planos, e uma técnica que usa tais metadados para aprender e predizer resultados da execução destes planos. Avaliamos nossa abordagem experimentalmente e os resultados indicam que ela é efetiva. Adicionalmente, fornecemos uma ferramenta para apoiar o processo de desenvolvimento de agentes de software baseados em nosso trabalho. Essa ferramenta permite que desenvolvedores modelem e gerem código-fonte para agentes BDI com capacidades de aprendizado. Um estudo com usuários foi realizado para avaliar os benefícios de um método de desenvolvimento baseado em agentes BDI auxiliado por ferramenta. Evidências sugerem que nossa ferramenta pode auxiliar desenvolvedores que não sejam especialistas ou que não estejam familiarizados com a tecnologia de agentes. / Agent technology arises as a solution that provides flexibility and robustness to deal with dynamic and complex domains. Such flexibility can be achieved by the adoption of existing agent-based approaches, such as the BDI architecture, which provides agents with the mental attitudes of beliefs, desires and intentions. This architecture is highly customisable, leaving gaps to be fulfilled in particular applications. One of these gaps is the plan selection algorithm that is responsible for selecting a plan to be executed by an agent to achieve a goal, having an important influence on the overall agent performance. Most existing approaches require considerable effort for customisation and adjustment to be used in particular applications. In this dissertation, we propose a plan selection approach that is able to learn plans that provide possibly best outcomes, based on current context and agent’s preferences. Our approach is composed of a meta-model, which must be instantiated to specify plan metadata, and a technique that uses such metadata to learn and predict plan outcomes. We evaluated our approach experimentally, and results indicate it is effective. Additionally, we provide a tool to support the development process of software agents based on our work. This tool allows developers to model and generate source code for BDI agents with learning capabilities. A user study was performed to assess the improvements of a tool-supported BDI-agent-based development method, and evidences suggest that our tool can help developers that are not experts or are unfamiliar with the agent technology.
92

Comparação de algoritmos de aprendizagem de máquina para construção de modelos preditivos de diabetes não diagnosticado / Comparison of machine learning algorithms to build predictive models of undiagnosed diabetes

Olivera, André Rodrigues January 2016 (has links)
O objetivo deste trabalho foi desenvolver e comparar modelos preditivos para detecção de diabetes não diagnosticado utilizando diferentes algoritmos de aprendizagem de máquina. Os dados utilizados foram do Estudo Longitudinal de Saúde do Adulto (ELSA-Brasil), um conjunto bastante completo com aproximadamente 15 mil participantes. As variáveis preditoras foram selecionadas de forma que sejam informações simples dos participantes, sem necessidade de exames laboratoriais. Os testes foram realizados em quatro etapas: ajuste dos parâmetros através de validação cruzada, seleção automática de variáveis, validação cruzada para estimativa de erros e teste de generalização em um conjunto independente dos dados. Os resultados demonstram a viabilidade de utilizar informações simples para detectar casos diabetes não diagnosticado na população. Além disso, os resultados comparam algoritmos de aprendizagem de máquina e mostram a possibilidade de utilizar outros algoritmos, alternativamente à Regressão Logística, para a construção de modelos preditivos. / The aim of this work was to develop and to compare predictive models to detect undiagnosed diabetes using different machine learning algorithms and data from the Longitudinal Study of Adult Health (ELSA-Brasil), which collected an extensive dataset from around 15 thousand participants. The predictor variables were selected from literature research. The tests were performed in four steps: parameter tuning with cross validation, automatic feature selection, cross validation to error evaluation and generalization test in an independent dataset. The results show the feasibility of extracting useful information from ELSA-Brasil as well as the potential to use other algorithms, in addition to logistic regression, to build predictive models from ELSA-Brasil dataset.
93

Máquina e modelo de dados dedicados para aplicações de engenharia / A Data model and a database machine for engineering applications

Caetano Traina Junior 03 December 1986 (has links)
Esta tese envolve duas áreas de conhecimento, nomeadamente a de modelagem de dados para Sistemas de Gerecnciamento de Bases de Dados, e a de desenvolvimento de Máquinas de Bases de Dados. Devido a isso, esta tese apresenta-se também dividida em duas partes. Na primeira parte analisam-se os modelos já existentes e a partir das deficiências que apresentam para aplicações como Base de Dados para Engenharia, define-se o Modelo de Representação de Objetos. Na segunda parte são analisados arquiteturas de Máquinas de Base de Dados existentes e faz-se a proposta de uma nova arquitetura dedicada, para suportar uma implementação capaz de aproveitar o paralelismo que o modelo apresentado permite. Nas duas partes faz-se um levantamento de trabalhos relevantes que existem nas respectivas áreas, e mostra-se como as soluções apresentadas satisfazem as necessidades inerentes de cada parte / This work deals with two research areas: the data modeling for Database Management Systems; and the development of Database Machines. This work is divided in two parts. The first one analyzes already existent data models, and based on the characteristics required from engineering database applications, the Object Representation Model is defined. The second part analyzes existing database machines architectures and proposes a new one intended to support the intrinsic parallelism of the algorithms developed to implement the presented data model. A survey of relevant results obtained in both areas is included and a thorough discussion concludes the work
94

Service versioning and compatibility at feature level / Versionamento e compatibilidade de serviços em nível de feature

Yamashita, Marcelo Correa January 2013 (has links)
A evolução de serviços requer estratégicas para lidar adequadamente com a gerência de versões resultantes das alterações ocorridas durante o ciclo de vida do serviço. Normalmente, uma versão de serviço é exposta como um documento que descreve a funcionalidade do serviço, orientando desenvolvedores clientes sobre os detalhes de acesso ao serviço. No entanto, não existe um padrão para o tratamento de versões dos documentos que descrevem o serviço. Isso implica na dificuldade de identificação e localização de alterações, bem como na medição do seu impacto, especialmente em uma perspectiva mais granular. A compatibilidade aborda um estilo mais elegante de evolução de serviços, considerando os efeitos provenientes das alterações nas aplicações cliente. Ela define um conjunto de alterações permissivas, as quais não afetem a integração externa com o serviço. Entretanto, provedores não conseguem garantir que as alterações necessárias ao serviço estarão no conjunto de alterações compatíveis. Além disso, o conceito de compatibilidade é muitas vezes aplicado sobre a descrição do serviço como um todo, o que pode não ser representativo do uso real do serviço por uma aplicação cliente em particular. Assim, é de responsabilidade dos desenvolvedores clientes avaliar a extensão das alterações no serviço a fim de medir o impacto no seu cenário em particular. Esse processo pode ser difícil e propenso a erros sem o uso de mecanismos de identificação de mudanças. Este trabalho aborda a evolução do serviço de maneira mais granular, o que chamamos de nível de feature. Desse modo, nós propomos um modelo de controle de versões e um algoritmo de compatibilidade a nível de feature, que permite a identificação e qualificação do impacto das alterações, assim como a avaliação da compatibilidade das mudanças neste nível de feature. Este trabalho também apresenta um experimento com base em um serviço real, que explora o modelo de controle de versões para avaliar a extensão das mudanças implícitas e explícitas e sua avaliação de compatibilidade. / Service evolution requires sound strategies to appropriately manage versions resulting from changes during service lifecycle. Typically, a service version is exposed as a description document that describes the service functionality, guiding client developers on the details for accessing the service. However, there is no standard for handling the versioning of service descriptions, which implies on difficulties on identifying and tracing changes as well as measuring their impact, particularly in a finer grain perspective. Compatibility addresses the graceful evolution of services by considering the effects of changes on client applications. It defines a set of permissible change cases that do not disrupt the service external integration. However, providers cannot always guarantee that the necessary changes yield compatible service descriptions. Moreover, the concept of compatibility is often applied to the entire service description, which can not be representative of the actual use of the service by a particular client application. So, it is the client’s developers responsibility to assess the extent of the change and their impact in their particular usage scenario, which can be hard and error-prone without proper change identification mechanisms. This work addresses service evolution in a finer grain manner, which we refer to as feature level. Hence, we propose a versioning model and a compatibility algorithm at feature level, which allows the identification and qualification of changes impact points, their ripple effect, as well as the assessment of changes’ compatibility in this finer grain of features. This work also reports an experiment based on a real service, which explores the versioning model to assess the scope of implicit and explicit changes and their compatibility assessment.
95

Personalização de interfaces web para sites institucionais com base em perfis de usuários

Lima, Paulo Sérgio Rodrigues January 2002 (has links)
A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.
96

Metodologia para avaliar técnicas de redução de protótipos: protótipos gerados versus protótipos selecionados

Pereira, Luciano de Santana 17 July 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-11T18:44:57Z No. of bitstreams: 2 Dissertaçao Luciano Pereira.pdf: 1413296 bytes, checksum: 608b11e654f960ce7a6787138b9b1bd0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:10:24Z (GMT) No. of bitstreams: 2 Dissertaçao Luciano Pereira.pdf: 1413296 bytes, checksum: 608b11e654f960ce7a6787138b9b1bd0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:10:24Z (GMT). No. of bitstreams: 2 Dissertaçao Luciano Pereira.pdf: 1413296 bytes, checksum: 608b11e654f960ce7a6787138b9b1bd0 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-07-17 / T´ecnicas de aprendizagem de m´aquina baseadas em instˆancias s˜ao utilizadas em v´arias aplicac¸ ˜oes, como, por exemplo, reconhecimento de faces, voz e digitais, na medicina para auxiliar m´edicos na detecc¸ ˜ao de neoplasias, entre outras. Geralmente, essas t´ecnicas s˜ao submetidas a grandes conjuntos de dados, fazendo com que haja necessidade de grande espac¸o em mem´oria para processamento e armazenamento, al´em do elevado custo computacional para a classificac¸ ˜ao. Com o objetivo de minimizar esses problemas, as t´ecnicas de reduc¸ ˜ao de instˆancias buscam reduzir o tamanho do conjunto de dados, escolhendo ou produzindo elementos que consigam represent´a-lo, reduzindo a necessidade de mem´oria para o armazenamento do conjunto de dados, o custo computacional e minimizando a taxa de erro. Existem, atualmente, dois ramos da pesquisa que buscam a reduc¸ ˜ao de instˆancias: a selec¸ ˜ao de instˆancias, que faz a reduc¸ ˜ao escolhendo algumas instˆancias representantes de todo o conjunto de treinamento e as t´ecnicas de gerac¸ ˜ao de prot´otipos que buscam a reduc¸ ˜ao de instˆancias, produzindo novos prot´otipos, a partir de v´arias heur´ısticas, que ir˜ao representar todo o conjunto de treinamento. Esse processo de gerac¸ ˜ao ´e mais demorado que o processo de selec¸ ˜ao. Por´em, observa-se na literatura que as t´ecnicas de gerac¸ ˜ao apresentam melhores resultados que as t´ecnicas de selec¸ ˜ao. A proposta deste trabalho ´e investigar se as t´ecnicas de selec¸ ˜ao podem obter resultados semelhantes `as t´ecnicas de gerac¸ ˜ao. O resultado obtido neste estudo mostra que as t´ecnicas de selec¸ ˜ao existentes podem obter taxas equivalentes `as t´ecnicas de gerac¸ ˜ao na maioria das bases utilizadas nos experimentos, existindo algumas excec¸ ˜oes em que as t´ecnicas de gerac¸ ˜ao obtiveram melhores resultados. Podemos verificar que, na maioria dos casos (83,3%) das bases testadas, os prot´otipos gerados tinham instˆancias muito pr´oximas, no conjunto de treinamento, que poderiam substitu´ı-los, sem a necessidade de gerac¸ ˜ao de prot´otipos, que ´e um processo mais custoso que a selec¸ ˜ao de prot´otipos. Podemos concluir que ´e poss´ıvel desenvolver t´ecnicas de selec¸ ˜ao, que apresentem taxas de erro estatisticamente iguais `as t´ecnicas de gerac¸ ˜ao.
97

Aplicações de maquinas de vetores de suporte por minimos quadrados (LS-SVM) na quantificação de parametros de qualidade de matrizes lacteas / Application to least square support vector machines to quantification of quality parameters in milky matrices

Borin, Alessandra 13 July 2007 (has links)
Orientador: Ronei Jesus Poppi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-08-08T20:32:52Z (GMT). No. of bitstreams: 1 Borin_Alessandra_D.pdf: 4356106 bytes, checksum: 6db61edddb59ead1ed109312c8c4cb58 (MD5) Previous issue date: 2007 / Resumo: Neste trabalho foram comparados modelos desenvolvidos utilizando as máquinas de vetores de suporte por mínimos quadrados (LS-SVM) e regressão por mínimos quadrados parciais (PLS) para três aplicações em determinação de parâmetros de qualidade em matrizes lácteas. Na primeira aplicação determinaram-se simultaneamente três adulterantes em leite em pó (amido, soro de leite e sacarose), empregando espectroscopia no infravermelho próximo por reflectância difusa. Em todos os modelos desenvolvidos, os resultados obtidos com LS-SVM foram superiores ao PLS, apresentando erros de previsão na faixa de 1,10% para amido, 1,10% para soro e 0,60% para sacarose, comparados aos erros de previsão obtidos pelo PLS: 2,40% para amido, 4,00% para soro e 3,00% para sacarose. Na segunda aplicação, quantificou-se Lactobacillus em leite fermentado a partir de imagens escaneadas de placas de crescimento microbiológico. A imagem foi convertida em histograma de cores, para ser usada no desenvolvimento dos modelos PLS e LS-SVM. O modelo desenvolvido pelo LS-SVM apresentou erros de previsão da ordem de 22,16 ufc e o PLS apresentou erros de previsão de 41,46 ufc. Na última aplicação, foi realizada a determinação do índice de gordura em leite humano, provenientes de diferentes doadoras, empregando a espectroscopia no infravermelho médio por reflectância total atenuada. Novamente o modelo LS-SVM apresentou melhores resultados em relação ao PLS, onde para a LS-SVM foram obtidos erros de previsão da ordem de 41,00 Kcal/L e, para o PLS, erros de previsão de 103,00 Kcal/L. / Abstract: In this work calibration models by using Least-square support vector machine (LS-SVM) and Partial least square (PLS) regression were compared for three applications in determination of quality parameters in milky matrices. In the first application, three adulterants in powdered milk (starch, whey and sucrose) had been simultaneously determined employing near infrared spectroscopy by diffuse reflectance. In all developed models the results obtained with LS-SVM were superior to PLS, presenting prediction errors of 1,10% for starch, 1,10% for whey and 0,60% for sucrose compared with the errors obtained by the PLS of 2,40% for starch, 4,00% for whey and 3,00% for sucrose. In the second application, Lactobacillus in fermented milk were quantified from digital images of microbiological plates of growth. The images was converted into histogram of colors to be used in the development of PLS and LS-SVM models. The model developed for the LS-SVM presented errors of 22,16 cfu an the PLS presented prediction errors of 41,46 cfu. In the last application, the fat index in human milk was determined, proceeding from different mothers, employing Mid spectroscopy by attenuated total reflectance. Again, LS-SVM model presented better reulted than PLS, with prediction error 41,00 Kcal/L against PLS the prediction error of 103,00 Kcal/L. / Doutorado / Quimica Analitica / Doutor em Ciências
98

[en] DYNAMIC SIMULATION OF HIGH VOLTAGE DIRECT CURRENT TRANSMISSION SYSTEMS IN A PERSONAL COMPUTER / [pt] SIMULAÇÃO DINÂMICA DE SISTEMAS DE TRANSMISSÃO EM CORRENTE CONTÍNUA EM MICROCOMPUTADOR DIGITAL

ANDRE LUIZ DA ROSA PLAISANT 10 August 2006 (has links)
[pt] Este trabalho trata do desenvolvimento e implementação de software destinado à simulação dinâmica de sistemas de transmissão 3m corrente contínua em microcomputador digital. A formulação matemática para a solução das equações diferenciais baseia-se nas vaiáveis de estado do sistema, e o método de integração numérica utilizado é o de Eüler Modificado. O modelo dinâmico de máquina síncrona é representado em suas grandezas de fase a, b, c. O programa digital conta, ainda, com telas gráficas para a visualização de resultados. / [en] This work is concerned with the development and implementation of a sofyware for dynamic simulation fo high voltage direct current transmission systems in a personal computer. The mathematical formulation for the solution of the diferential equations is based on the system state variables and the Modified Eüler S numerical integration method is used. The dynamic model of the synchronous machines is represented through its phase variables a, b, c. the program makes use of a compactation scheme for dealing with the sparse nature of the primitive and incidence matrices. The program also provides CTR graphic interfaces to help in the analysis of simulation results.
99

[en] A COMPARATIVE STUDY OF WEB PAGE CLASSIFICATION STRATEGIES / [pt] ESTUDO COMPARATIVO DE ESTRATÉGIAS DE CLASSIFICAÇÃO DE PÁGINAS WEB

THORAN ARAGUEZ RODRIGUES 20 July 2009 (has links)
[pt] A quantidade de informações na Internet aumenta a cada dia. Embora esta proliferação aumente as chances de que o tema sendo buscado por um usuário esteja presente na rede, ela também torna encontrar a informação desejada mais difícil. A classificação automática de páginas é, portanto, uma importante ferramenta na organização de conteúdo da Web, com aplicações específicas na melhoria dos resultados retornados por máquinas de busca. Nesta dissertação foi realizado um estudo comparativo de diferentes conjuntos de atributos e métodos de classificação aplicados ao problema da classificação funcional de páginas web, com foco em 4 classes: Blogs, Blog Posts, Portais de Notícias e Notícias. Ao longo dos experimentos, foi possível constatar que a melhor abordagem para esta tarefa é a utilização de atributos tanto da estrutura quanto do texto das páginas. Foi apresentada também uma estratégia nova de construção de conjuntos de atributos de texto, que leva em consideração os diferentes estilos de escrita das classes de páginas. / [en] The amount of information on the Internet increases every day. Even though this proliferation increases the chances that the subject being searched for by an user is on the Web, it also makes finding the desired information much harder. The automated classification of pages is, therefore, an important tool for organizing Web content, with specific applications on the improvement of results displayed by search engines. In this dissertation, a comparative study of different attribute sets and classification methods for the functional classification of web pages was made, focusing on 4 classes: Blogs, Blog Posts, News Portals and News. Throughout the experiments, it became evident the best approach for this task is to employ attributes that come both from the structure and the text of the web pages. We also presented a new strategy for extracting and building text attribute sets, that takes into account the different writing styles for each page class.
100

[en] EFFICIENT METHODS FOR INFORMATION EXTRACTION IN NEWS WEBPAGES / [pt] MÉTODOS EFICIENTES PARA EXTRAÇÃO DE INFORMAÇÃO EM PÁGINAS DE NOTÍCIAS

EDUARDO TEIXEIRA CARDOSO 03 February 2017 (has links)
[pt] Nós abordamos a tarefa de segmentação de páginas de notícias; mais especificamente identificação do título, data de publicação e corpo da notícia. Embora existam resultados muito bons na literatura, a maioria deles depende da renderização da página, que é uma tarefa muito demorada. Nós focamos em cenários com um alto volume de documentos, onde desempenho de tempo é uma necessidade. A abordagem escolhida estende nosso trabalho prévio na área, combinando propriedades estruturais com traços de atributos visuais, calculados através de um método mais rápido do que a renderização tradicional, e algoritmos de aprendizado de máquina. Em nossos experimentos, nos atentamos para alguns fatos não comumente abordados na literatura, como tempo de processamento e a generalização dos nossos resultados para domínios desconhecidos. Nossa abordagem se mostrou aproximadamente uma ordem de magnitude mais rápida do que alternativas equivalentes que se apoiam na renderização completa da página e manteve uma boa qualidade de extração. / [en] We tackle the task of news webpage segmentation, specifically identifying the news title, publication date and story body. While there are very good results in the literature, most of them rely on webpage rendering, which is a very time-consuming step. We focus on scenarios with a high volume of documents, where a short execution time is a must. The chosen approach extends our previous work in the area, combining structural properties with hints of visual presentation styles, computed with a faster method than regular rendering, and machine learning algorithms. In our experiments, we took special attention to some aspects that are often overlooked in the literature, such as processing time and the generalization of the extraction results for unseen domains. Our approach has shown to be about an order of magnitude faster than an equivalent full rendering alternative while retaining a good quality of extraction.

Page generated in 0.0454 seconds