• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 14
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 97
  • 54
  • 35
  • 34
  • 31
  • 31
  • 31
  • 30
  • 28
  • 28
  • 27
  • 26
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Sistema de informação para rastreabilidade de produtos florestais baseado em uma arquitetura orientado a serviços. / Information system for traceability of forestry products based in a service-oriented architecture.

Silva, Daniel Lins da 20 September 2011 (has links)
A produção florestal é uma atividade de importância fundamental para a economia brasileira. Estudos mostram que a ilegalidade na produção da madeira chega a 80% do total produzido. Esta madeira ilegal se transforma em legalizada durante a sua cadeia de suprimentos, graças às falhas nos sistemas de controle e monitoramento. Este trabalho analisa os problemas computacionais existentes no gerenciamento e no monitoramento do processo produtivo florestal na Floresta Amazônica e apresenta a modelagem de um sistema computacional, baseado em uma arquitetura orientada a serviços, que busca por meio da integração dos sistemas envolvidos o registro de informações das diversas etapas produtivas. Para isso, foi criado um modelo de informação que utiliza o padrão de metadados eFIDS, projetado para controlar transações eletrônicas na indústria florestal e uma base de dados centralizada, onde as informações deste processo são registradas e relacionadas, possibilitando a manutenção da rastreabilidade dos produtos e insumos florestais durante todo seu ciclo de vida, garantindo a identificação da origem florestal destes produtos para as empresas e consumidores finais. / The Forest production is an activity with fundamental importance for the Brazilian economy. Studies show that the illegality in timber production is around 80% of total productive. This illegal wood becomes legalized in your supply chain due the failures in control and monitoring systems. This paper analyzes a computational problems existing in managing and monitoring productive process in the Amazon Forest and presents the modeling of a computational system, based on a service-oriented architecture, which seeks through the involved systems integration the recording of information about the various productive stages. For this was created an information model that uses the eFIDS metadata standard, designed to handle electronic transactions in the forestry industry, and a centralized database, where the process information are recorded and linked, enabling the maintenance of product and raw material traceability throughout its lifecycle, ensuring identification of the forest products origin for businesses and consumers.
122

Tratamento de eventos aplicado à composição de serviços web / Processing of events for web services composition

Rodrigues, Mauricio Chui 29 May 2012 (has links)
Funcionalidades de software expostas como serviços Web são cada vez mais comuns e suas formas de composição e coordenação são cada vez mais imprescindíveis. Orquestração e coreografia, tradicionais abordagens de composição de serviços Web, são providas por ferramentas voltadas ao gerenciamento de processos de negócio com diferentes enfoques. Apesar do sucesso dessas abordagens, existem ainda desafios a serem superados, tais como a dificuldade de manutenção em fluxos de controle já existentes, o custo de comunicação associado às interações com os serviços Web, o conhecimento do processo de negócio por parte dos serviços e ainda a compatibilidade dos mesmos em uma composição. Como alternativa às abordagens tradicionais, esta dissertação propõe o uso da abordagem WED-flow para composição de serviços Web, de modo que a execução de processos de negócio seja orientada pelas alterações do estado dos dados. Na abordagem proposta, o fluxo de controle não é um requisito, mas sim uma consequência da execução dos serviços Web, o que proporciona maior flexibilidade para o desenvolvimento e a manutenção das aplicações. Mais concretamente, a primeira contribuição deste trabalho é a proposição e a avaliação de cenários possíveis de orquestração e coreografia de acordo com critérios pré-definidos. A segunda contribuição é a implementação da abordagem WED-flow para a composição de serviços Web, bem como sua validação prática e sua avaliação em relação aos cenários de coreografia e orquestração. / Features of software exposed as Web services are becoming more common and their forms of composition and coordination are increasingly essential. Orchestration and choreography, traditional approaches for Web service compositions, are provided by tools that manage business processes with different approaches. Despite the success of these approaches, there are still challenges to be overcome such as the difficulty of maintaining flows in existing control, the communication cost associated with Web service interactions, knowledge of the business process by the services and even their compatibility in service compositions. As an alternative to traditional approaches, this paper proposes the use of WED-flow approach for Web services composition, so that the execution of business processes is driven by changes in data states. In our approach, the control flow is not a requirement but a consequence of the Web service execution, which provides greater flexibility for the development and maintenance of applications. More specifically, the first contribution of this work is to propose and evaluate possible scenarios of orchestration and choreography according to predefined criteria. The second contribution of this work is the implementation of WED-flow approach for Web service compositions, as well as its validation in the choreography and orchestration scenarios.
123

Uma abordagem para detecção de ataques distribuídos e múltiplas etapas baseada na composição de serviços web voltados para à segurança

Fagundes, Leonardo Lemes 07 March 2006 (has links)
Made available in DSpace on 2015-03-05T13:57:00Z (GMT). No. of bitstreams: 0 Previous issue date: 7 / Nenhuma / Com o uso em larga escala da Internet e a proliferação de ferramentas para realização de ataques, as instituições têm se tornado alvo de uma variedade de atividades intrusivas que vão desde simples varreduras de portas até ataques mais complexos, tais como negação de serviço distribuídos e worms. Com o objetivo de desenvolver soluções capazes de minimizar as chances de um intruso obter sucesso em suas atividades, diversos projetos de pesquisa têm sido realizados, sobretudo na área de detecção de intrusão. A grande parte dessas soluções apresentam as seguintes limitações: (a) ausência de uma forma adequada para representação e descrição de cenários de ataques de múltiplas etapas, que permita modelar o fluxo em que as atividades que os compõem devem ser observadas e (b) correlacionam alertas gerados por um conjunto reduzido de sensores, enquanto o ideal é observar as evidências registradas no maior número possível de serviços. No intuito de suprir essas limitações, esta dissertação propõe uma linguagem e uma / With the wide use of the Internet and the proliferation of technologies to reproduce attacks, institutions have become target of a variety of intrusion activities, ranging from simple port scans to complex attacks, such as distributed denial of services and worms. Aiming to develop solutions to minimize the intruder’s chances to succeed in his/her activities, several research projects have been carried out in the recent years, especially in the area of intrusion detection. Most of the solutions proposed present limitations since they: (a) do not provide an appropriate notation to represent and describe multistage attacks (that allows one to model the flow in which activities are expected be observed); and (b) correlate alerts produced by a reduced group of sensors, while the ideal is to observe evidences generated by the maximum number of available services. To fulfill this gap, this work proposes a language and an architecture to detect distributed multistage attacks. The proposed language, named Multistag
124

Negociação entre aplicações de comércio eletrônico utilizando o padrão ebXML

Silva, Adilson Jeronimo da 19 December 2006 (has links)
Made available in DSpace on 2015-02-04T21:45:28Z (GMT). No. of bitstreams: 1 Adilson J da Silva.pdf: 1679669 bytes, checksum: 027c6b4ba0a531ee2c3cb3524d5d47bf (MD5) Previous issue date: 2006-12-19 / A necessidade de cortar custos e aumentar a produtividade, aliada à crescente disponibilização de padrões que visam garantir a interoperabilidade entre aplicações distintas, têm levado um crescente número de empresas a utilizar a Internet como principal meio de comunicação com os seus parceiros comerciais, estimulando o crescimento do comércio eletrônico B2B e conseqüentemente aumentando o interesse na automatização da fase de negociação, que normalmente precede a fase de interação eletrônica entre os parceiros comerciais, buscando assim a agilização de todo o processo de colaboração. O desenvolvimento de negociações eletrônicas de forma automatizada implica na definição de regras e mensagens que devem ser utilizadas pelas partes, durante o processo de negociação. O padrão ebXML (Electronic Business Extensible Markup Language) especifica os componentes CPP (Collaboration Protocol Profile) e CPA (Collaboration Protocol Agreement) para serem utilizados na fase de negociação. O CPP descreve o perfil da empresa com relação a suas capacidades técnicas para o estabelecimento de um processo de negócio com outras empresas e o CPA é o acordo resultante da intersecção dos CPP dos parceiros comerciais envolvidos em um processo de colaboração de negócios. Estes componentes podem ser utilizados na automatização do processo de negociação, mas a especificação ebXML deixa em aberto a forma de geração automática do acordo de colaboração (CPA), assim como a forma de interação entre as empresas nesta fase. O problema é como efetuar a automatização desta interação e gerar automaticamente o acordo (CPA), a partir dos perfis (CPP) de cada empresa. Neste trabalho são analisadas as especificações ebXML e elaborada uma proposta para agilizar o processo de negociação, através da automatização da troca de mensagens que ocorre durante a fase de negociação e a geração de informações para auxiliar um negociador humano a tomar uma decisão final sobre um determinado processo de negociação, com a conseqüente geração de um acordo de colaboração (CPA). A proposta abrange a definição de um protocolo de negociação baseado em XML, para a troca de mensagens durante a fase de interação e a modelagem de um sistema para o controle destas mensagens e comparação das propostas de acordo, até a finalização do processo de negociação e, em caso de sucesso, com a geração do documento de acordo de colaboração. Para a validação da proposta foi desenvolvido um protótipo utilizando a linguagem Java e plataforma J2EE, abrangendo requisitos básicos para suportar um processo de negociação. Este protótipo foi implementado em um ambiente de testes com um cenário de uso envolvendo um processo de negociação entre duas empresas, visando estabelecer um processo de negócio de compra e venda.
125

Understanding and automating application-level caching / Entendendo e automatizando cache a nível de aplicação

Mertz, Jhonny Marcos Acordi January 2017 (has links)
O custo de serviços na Internet tem encorajado o uso de cache a nível de aplicação para suprir as demandas dos usuários e melhorar a escalabilidade e disponibilidade de aplicações. Cache a nível de aplicação, onde desenvolvedores manualmente controlam o conteúdo cacheado, tem sido adotada quando soluções tradicionais de cache não são capazes de atender aos requisitos de desempenho desejados. Apesar de sua crescente popularidade, este tipo de cache é tipicamente endereçado de maneira ad-hoc, uma vez que depende de detalhes específicos da aplicação para ser desenvolvida. Dessa forma, tal cache consiste em uma tarefa que requer tempo e esforço, além de ser altamente suscetível a erros. Esta dissertação avança o trabalho relacionado a cache a nível de aplicação provendo uma compreensão de seu estado de prática e automatizando a identificação de conteúdo cacheável, fornecendo assim suporte substancial aos desenvolvedores para o projeto, implementação e manutenção de soluções de caching. Mais especificamente, este trabalho apresenta três contribuições: a estruturação de conhecimento sobre caching derivado de um estudo qualitativo, um levantamento do estado da arte em abordagens de cache estáticas e adaptativas, e uma técnica que automatiza a difícil tarefa de identificar oportunidades de cache O estudo qualitativo, que envolveu a investigação de dez aplicações web (código aberto e comercial) com características diferentes, permitiu-nos determinar o estado de prática de cache a nível de aplicação, juntamente com orientações práticas aos desenvolvedores na forma de padrões e diretrizes. Com base nesses padrões e diretrizes derivados, também propomos uma abordagem para automatizar a identificação de métodos cacheáveis, que é geralmente realizado manualmente por desenvolvedores. Tal abordagem foi implementada como um framework, que pode ser integrado em aplicações web para identificar automaticamente oportunidades de cache em tempo de execução, com base na monitoração da execução do sistema e gerenciamento adaptativo das decisões de cache. Nós avaliamos a abordagem empiricamente com três aplicações web de código aberto, e os resultados indicam que a abordagem é capaz de identificar oportunidades de cache adequadas, melhorando o desempenho das aplicações em até 12,16%. / Latency and cost of Internet-based services are encouraging the use of application-level caching to continue satisfying users’ demands, and improve the scalability and availability of origin servers. Application-level caching, in which developers manually control cached content, has been adopted when traditional forms of caching are insufficient to meet such requirements. Despite its popularity, this level of caching is typically addressed in an adhoc way, given that it depends on specific details of the application. Furthermore, it forces application developers to reason about a crosscutting concern, which is unrelated to the application business logic. As a result, application-level caching is a time-consuming and error-prone task, becoming a common source of bugs. This dissertation advances work on application-level caching by providing an understanding of its state-of-practice and automating the decision regarding cacheable content, thus providing developers with substantial support to design, implement and maintain application-level caching solutions. More specifically, we provide three key contributions: structured knowledge derived from a qualitative study, a survey of the state-of-the-art on static and adaptive caching approaches, and a technique and framework that automate the challenging task of identifying cache opportunities The qualitative study, which involved the investigation of ten web applications (open-source and commercial) with different characteristics, allowed us to determine the state-of-practice of application-level caching, along with practical guidance to developers as patterns and guidelines to be followed. Based on such patterns and guidelines derived, we also propose an approach to automate the identification of cacheable methods, which is often manually done and is not supported by existing approaches to implement application-level caching. We implemented a caching framework that can be seamlessly integrated into web applications to automatically identify and cache opportunities at runtime, by monitoring system execution and adaptively managing caching decisions. We evaluated our approach empirically with three open-source web applications, and results indicate that we can identify adequate caching opportunities by improving application throughput up to 12.16%. Furthermore, our approach can prevent code tangling and raise the abstraction level of caching.
126

Sistema de informação para rastreabilidade de produtos florestais baseado em uma arquitetura orientado a serviços. / Information system for traceability of forestry products based in a service-oriented architecture.

Daniel Lins da Silva 20 September 2011 (has links)
A produção florestal é uma atividade de importância fundamental para a economia brasileira. Estudos mostram que a ilegalidade na produção da madeira chega a 80% do total produzido. Esta madeira ilegal se transforma em legalizada durante a sua cadeia de suprimentos, graças às falhas nos sistemas de controle e monitoramento. Este trabalho analisa os problemas computacionais existentes no gerenciamento e no monitoramento do processo produtivo florestal na Floresta Amazônica e apresenta a modelagem de um sistema computacional, baseado em uma arquitetura orientada a serviços, que busca por meio da integração dos sistemas envolvidos o registro de informações das diversas etapas produtivas. Para isso, foi criado um modelo de informação que utiliza o padrão de metadados eFIDS, projetado para controlar transações eletrônicas na indústria florestal e uma base de dados centralizada, onde as informações deste processo são registradas e relacionadas, possibilitando a manutenção da rastreabilidade dos produtos e insumos florestais durante todo seu ciclo de vida, garantindo a identificação da origem florestal destes produtos para as empresas e consumidores finais. / The Forest production is an activity with fundamental importance for the Brazilian economy. Studies show that the illegality in timber production is around 80% of total productive. This illegal wood becomes legalized in your supply chain due the failures in control and monitoring systems. This paper analyzes a computational problems existing in managing and monitoring productive process in the Amazon Forest and presents the modeling of a computational system, based on a service-oriented architecture, which seeks through the involved systems integration the recording of information about the various productive stages. For this was created an information model that uses the eFIDS metadata standard, designed to handle electronic transactions in the forestry industry, and a centralized database, where the process information are recorded and linked, enabling the maintenance of product and raw material traceability throughout its lifecycle, ensuring identification of the forest products origin for businesses and consumers.
127

Uma proposta para medição de complexidade e estimação de custos de segurança em procedimentos de tecnologia da informação / An approach to measure the complexity and estimate the cost associated to Information Technology Security Procedures

Moura, Giovane Cesar Moreira January 2008 (has links)
Segurança de TI tornou-se nos últimos anos uma grande preocupação para empresas em geral. Entretanto, não é possível atingir níveis satisfatórios de segurança sem que estes venham acompanhados tanto de grandes investimentos para adquirir ferramentas que satisfaçam os requisitos de segurança quanto de procedimentos, em geral, complexos para instalar e manter a infra-estrutura protegida. A comunidade científica propôs, no passado recente, modelos e técnicas para medir a complexidade de procedimentos de configuração de TI, cientes de que eles são responsáveis por uma parcela significativa do custo operacional, freqüentemente dominando o total cost of ownership. No entanto, apesar do papel central de segurança neste contexto, ela não foi objeto de investigação até então. Para abordar este problema, neste trabalho aplica-se um modelo de complexidade proposto na literatura para mensurar o impacto de segurança na complexidade de procedimentos de TI. A proposta deste trabalho foi materializada através da implementação de um protótipo para análise de complexidade chamado Security Complexity Analyzer (SCA). Como prova de conceito e viabilidade de nossa proposta, o SCA foi utilizado para avaliar a complexidade de cenários reais de segurança. Além disso, foi conduzido um estudo para investigar a relação entre as métricas propostas no modelo de complexidade e o tempo gasto pelo administrador durante a execução dos procedimentos de segurança, através de um modelo quantitativo baseado em regressão linear, com o objetivo de prever custos associados à segurança. / IT security has become over the recent years a major concern for organizations. However, it doest not come without large investments on both the acquisition of tools to satisfy particular security requirements and complex procedures to deploy and maintain a protected infrastructure. The scientific community has proposed in the recent past models and techniques to estimate the complexity of configuration procedures, aware that they represent a significant operational cost, often dominating total cost of ownership. However, despite the central role played by security within this context, it has not been subject to any investigation to date. To address this issue, we apply a model of configuration complexity proposed in the literature in order to be able to estimate security impact on the complexity of IT procedures. Our proposal has been materialized through a prototypical implementation of a complexity scorer system called Security Complexity Analyzer (SCA). To prove concept and technical feasibility of our proposal, we have used SCA to evaluate real-life security scenarios. In addition, we have conducted a study in order to investigate the relation between the metrics proposed in the model and the time spent by the administrator while executing security procedures, with a quantitative model built using multiple regression analysis, in order to predict the costs associated to security.
128

Towards completely automatized HTML form discovery on the web

Moraes, Maurício Coutinho January 2013 (has links)
The forms discovered by our proposal can be directly used as training data by some form classifiers. Our experimental validation used thousands of real Web forms, divided into six domains, including a representative subset of the publicly available DeepPeep form base (DEEPPEEP, 2010; DEEPPEEP REPOSITORY, 2011). Our results show that it is feasible to mitigate the demanding manual work required by two cutting-edge form classifiers (i.e., GFC and DSFC (BARBOSA; FREIRE, 2007a)), at the cost of a relatively small loss in effectiveness.
129

Biblioteca universitária híbrida no contexto da Web 2.0 : o caso da Biblioteca da Escola de Enfermagem da UFRGS

Silva Filho, Rubens da Costa January 2015 (has links)
No atual contexto tecnológico percebe-se a relevância das bibliotecas universitárias buscarem formas de manter e ampliar o seu alcance e interação com o seu usuário. Uma maior visibilidade da biblioteca proporciona a seus usuários conhecerem o que a biblioteca pode lhes oferecer e potencializar seu acesso ao conhecimento científico. Cabe às unidades de informação buscar novos recursos que cativem seus usuários e que ao mesmo tempo permitam a biblioteca ampliar seu alcance a usuários potenciais. A partir disso, o objetivo geral da pesquisa é investigar as melhores práticas para promover e divulgar a Biblioteca da Escola de Enfermagem da UFRGS (BIBENF) utilizando ferramentas da Web 2.0. Trata-se de um estudo de caso com uma proposta exploratória da realidade, de caráter quantitativo e qualitativo. Para a coleta de dados foram utilizados instrumentos eletrônicos: questionário, análise das atividades no perfil da biblioteca no Facebook e relatórios do Google Analytics. A amostra é composta pela comunidade acadêmica da Escola de Enfermagem da UFRGS, egressos, servidores da área de enfermagem do Hospital de Clínicas de Porto Alegre, indivíduos com vínculo na Escola de Saúde Pública - RS, profissionais registrados no Conselho Regional de Enfermagem e Associação Nacional de Enfermagem - RS, seguidores do perfil da BIBENF no Facebook e usuários que acessaram o site da biblioteca. Os dados obtidos demonstram o Facebook como a ferramenta da Web 2.0 mais utilizada. O WhatsApp é a ferramenta mais sugerida para uso pela BIBENF. A análise dos dados do site aponta uma capacidade de abrangência não limitada geograficamente, pois apenas 30% são de Porto Alegre, cidade onde se localiza o BIBENF. Como produto final do mestrado profissional foi criado um manual de melhores práticas no uso de ferramentas da Web 2.0 para a promoção e divulgação de bibliotecas universitárias. Os resultados demonstraram a importância de também identificar as necessidades dos usuários potenciais dos serviços oferecidos com ferramentas da Web 2.0. Concluiu-se que o uso intensivo de tais ferramentas, como meio de promoção e divulgação, pode vir a atender de uma forma mais eficaz às necessidades informacionais de seus usuários reais e potenciais. O uso dessas ferramentas também permite melhorar a fidelização dos usuários quanto ao uso dos serviços e produtos desenvolvidos pela biblioteca. / In the current technological context, we can see the relevance of university libraries seek new ways to keep and expand its reach and interaction with its users. A greater library visibility allows its users to know what the library can offer them and to increase their access to scientific knowledge. It is up to information units get new features that captivate their users and at the same time allow the library to expand its reach to potential users. Thus, the main aim of this research is to investigate best practices to promote and publicize the Library of UFRGS’s School of Nursing (BIBENF) using Web 2.0 tools. This is a case study with an exploratory proposal and using both quantitative and qualitative approaches. We used the following electronic instruments to collect data: questionnaires, analysis of activities in the library profile on Facebook, and Google Analytics reports. The sample is composed by the academic community of UFRGS School of Nursing, graduates, workers from nursing area in the Hospital de Clínicas de Porto Alegre, linked individuals to the School of Public Health - RS, registered professionals in the Conselho Regional de Enfermagem e Associação Nacional de Enfermagem - RS, followers of BIBENF profile on Facebook and users who accessed the library website. The data obtained show Facebook as the most used Web 2.0 tool. The WhatsApp is the most suggested tool for use by BIBENF. The data analysis of website points to a not limited geographical coverage, since only 30% of the users are from Porto Alegre, where BIBENF is located. A manual of best practices in the use of Web 2.0 tools for the promotion and dissemination of university libraries was constructed as a professional master’s outcome. The results showed the importance of also identify the needs of potential users of the services offered by Web 2.0 tools. We conclude that the intensive use of such tools, as a means of promotion and dissemination, could meet in a more effective way to the informational needs of its real and potential users. The usage of these tools also improves the customer loyalty in the use of services and products developed by the library.
130

Seleção de valores para preenchimento de formulários web / Selection of values for form filling

Moraes, Tiago Guimarães January 2013 (has links)
Os motores de busca tradicionais utilizam técnicas que rastreiam as páginas na Web através de links HTML. Porém a maior parte da Web não é acessada por essas técnicas. A parcela da Web não acessada é chamada de Web oculta. Uma enorme quantidade de informação estruturada e de melhor qualidade que a presente na Web tradicional está disponível atrás das interfaces de busca, os formulários que são pontos de entrada para a Web oculta. Essa porção da Web é de difícil acesso para os motores de busca, pois o preenchimento correto dos formulários representa um grande desafio, dado que foram construídos para a manipulação humana e possuem grande variabilidade e diversidade de línguas e domínios. O grande desafio é selecionar os valores corretos para os campos do formulário, realizando um número reduzido de submissões que obtenha a cobertura da maior parte da base de dados por trás do formulário. Vários trabalhos propõem métodos para busca na Web oculta, porém a maior parte deles apresenta grandes limitações para a aplicação automática na Web. Entre as principais limitações estão a dependência de informação prévia a respeito do domínio dos formulários, o não tratamento de todos os tipos de campos que um formulário pode apresentar e a correta seleção de um subgrupo do conjunto de todas as possibilidades de preenchimento de um formulário. No presente trabalho é apresentada uma arquitetura genérica para o preenchimento automático de formulários. A principal contribuição dessa arquitetura consiste na seleção de valores para o preenchimento de formulários através do método ITP (Instance template pruning). para o preenchimento de formulários através do método ITP (Instance template pruning). Muitos formulários apresentam um número inviável de possibilidades de preenchimento quando combinam os valores dos campos. O método ITP consegue reduzir drasticamente o número de possibilidades. A poda de diversas consultas é possível à medida que as submissões são feitas e o conhecimento a respeito do formulário é obtido. Os experimentos realizados mostraram que o método proposto é superior ao método utilizado como baseline. A comparação foi feita com o método que representa o estado da arte. O método proposto pode ser utilizado em conjunto com outros métodos de forma a obter uma busca efetiva na Web oculta. Desta forma, os experimentos a partir da combinação do ITP com o baseline também implicaram em bons resultados. / The traditional search engines crawl the Web pages through HTML links. However, the biggest part of the Web is invisible for these crawlers. The portion of the Web which is not accessed is called hidden Web. An enormous quantity of structured data and with higher quality than in the traditional Web is available behind search interfaces, the forms that are the entry points to the hidden Web. Access this part of theWeb by search engines is difficult because the correct filling of forms represent a big challenge. Since these forms are built for human manipulation and have big variability and diversity of domains and languages. The challenge is to select the correct values to fill the form fields, with a few number of submissions that reach good coverage of the database behind the form. Several works proposed methods to search the hidden Web. Most of these works present big limitations for an application that surfaces the entire Web in a horizontal and automatic way. The main limitations are the dependency of prior information about the form domains, the non-treatment of the all form field types and the correct selection of a subgroup of the set of all form filling possibilities. In the present work is presented a generic architecture for the automatic form filling. The main contribution of this architecture is the selection of values for the form submission through the ITP (Instance Template Pruning) method. Several forms have an infeasible number of form filling possibilities when combining all fields and values. The ITP method can drastically reduce the number of possibilities. The prune of many possible queries is feasible as the submissions are made and the knowledge about the form is obtained. The results of the experiments performed indicate that the ITP method is superior to the baseline utilized. The comparison is made with the method that represents the state of the art. The proposed method can be used with other methods in order to an effective search in the hidden Web. Therefore, the results by the combination of ITP and baseline methods also have implicated in good results.

Page generated in 0.0382 seconds