• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 55
  • 55
  • 55
  • 55
  • 20
  • 12
  • 9
  • 9
  • 9
  • 9
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

AvalWeb : sistema interativo para gerência de questões e aplicação de avaliações na web

Cardoso, Rodrigo Ferrugem January 2001 (has links)
Neste trabalho, é realizado um estudo dos processos de avaliação de alunos em ambiente WBT (Web Based Training). Para tanto, foram analisadas várias ferramentas de avaliação disponíveis no mercado. Com base nestas análises, foi proposto um sistema de gerência de questões e aplicação de avaliações, onde o termo “gerência” é utilizado com o objetivo de (i) atender requisições dos professores para elaboração de avaliações, (ii) escolher o nível de dificuldade das questões que comporão a avaliação e (iii) usar estratégias interativas para aplicação de provas, como por exemplo, a utilização de níveis de dificuldade progressivos das questões submetidas aos alunos, dependendo de suas respostas anteriores. Integrando o sistema de gerência de questões foi proposto um módulo de auto-avaliações, com retorno imediato para o aluno sobre qual é a resposta correta juntamente com uma explicação do professor, auxiliando no entendimento do estudante sobre a matéria ao invés de simplesmente atribuir determinada nota. Enfim, foi implementado um protótipo demonstrando a viabilidade das idéias presentes no modelo de avaliação aqui proposto. A proposta conceitual estabelecida para o modelo é bem mais ampla e flexível do que a atual versão da implementação realizada.
22

Método para a avaliação de servidores WWW no ambiente corporativo

Côrte, Leandro January 2002 (has links)
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
23

Consistência de ligações na world-wide web / World wide web link consistency

Garcia, Luis Fernando Fortes January 1997 (has links)
Tem-se observado que um dos maiores problemas decorrentes da expansão das ferramentas de difusão de informações em ambientes distribuídos, especialmente no modelo WWW-Internet, é a inconsistência das ligações entre os objetos envolvidos (Erro 404 - Arquivo não encontrado). Segundo [WHY 95], uma das mais importantes condições para a qualidade de uma estrutura de hiperdocumento é a manutenção da integridade e atualidade das ligações, sejam estas internas ou externas. Sempre que há alterações na hiperbase, nas estruturas dos documentos que a compõem ou no conteúdo semântico destes, podem surgir inconsistências nas ligações. Estas podem indicar tanto um problema temporário da rede ou servidor quanto um recurso que tenha sido permanentemente movido ou excluído. Acredita-se que o percentual de requisições inválidas cresça de acordo com o tempo, com a inclusão de novos recursos e com a dinamicidade intrínseca das estruturas dos Sistemas de Hiperdocumentos Distribuídos. Faz-se necessária, então, a adoção de modelos de Sistemas de Hiperdocumentos Distribuídos que contemplem o tratamento do problema de inconsistência de ligações desde sua concepção, através de técnicas preventivas ou então o desenvolvimento de ferramentas e técnicas para que a integridade das ligações seja garantida, preferencialmente de modo automático, para os modelos que não a apresentam nativamente Isto posto, este trabalho trata do problema da inconsistência de ligações nos Sistemas de Hiperdocumentos Distribuídos, com ênfase especial no modelo WWW (World-Wide Web) [BER 92]. Para tanto, são apresentados noções e conceitos, histórico, objetivos, estado da arte, arquitetura e requisitos necessários, assim como características específicas dos principais Sistemas de Hiperdocumentos Distribuídos. São tratados, também, os aspectos teóricos referentes aos problemas gerados pela inconsistência de ligações de ordem técnica, psicológica e/ou mercadológica. São apresentadas soluções encontradas na bibliografia para os sistemas implementados, bem como é feita uma classificação destas soluções em nível de preventivas (que não permitem que o problema ocorra) e corretivas (que são utilizadas para solucionar ou minimizar o problema), podendo estas serem, ainda, de funcionamento manual, semiautomático ou automático. A solução proposta, classificada como preventiva semi-automática, baseia-se em entrada de dados via formulário HTML e armazenamento em arquivo do tipo texto, é apresentada através de sua definição, objetivos, funcionamento e do detalhamento do protótipo, através das características de implementação e do ambiente utilizado. / We have noticed that one of the biggest problems resulting from the spreading of the information diffusion tools in distributed environments (specially with the WWWInternet model) is the inconsistency of the links between the objects involved (Error 404 - File was not found). According to [WHY 95], one of the most important conditions for the quality of an hyperdocument structure is the maintenance of the integrity of the links, whatever they may be internal or external to the hyperdocument. Whenever there are hyperbase changes, changes on the structures of the papers that compose the hyperbase, or if there are changes on the semantic content of these papers, there may arise inconsistencies with the links. These inconsistencies may indicate a temporary net or server problem, as well as a resource that has been constantly moved or excluded. It’s believed that the percentage of invalid requisites raises in accordance with time, with the introduction of new resources and with the dynamics of the structure of Distributed Hyperdocument Systems. So, it's necessary to adopt models of Distributed Hyperdocument Systems that contemplate a treatment of the problem of the links' inconsistencies since their conception, using preventive techniques or developing tools and techniques to guarantee the integrity of the links, preferably by automatic mode to the models that originally don't have this integrity. Thus, this work is about the problem of links' inconsistency in Distributed Hyperdocument Systems, with special emphasis on the model: WWW (World Wide Web) [BER 92]. For that, basic concepts, history, objectives, the state of the art, architecture and necessary requirements are shown., as well as specific characteristics of the main Distributed Hyperdocument Systems. Also shown are the theoretical aspects concerning the problems produced by the links inconsistency of the technical, psychological and/or market order. Solutions found on the bibliography are shown as well as a classification of these solutions as preventives (that don't permit the problem to occur) and correctives (that are used to solve or minimize the problem) is done. These solutions may still be manual, semi-automatic or automatic. The proposed solution, classified as preventive semiautomatic, is based on data entries using the HTML form and their storage in files in textual form. The definition, objectives, functioning and detail of a prototype are presented.
24

Access Miner : uma proposta para a extração de regras de associação aplicada à mineração do uso da web

Brusso, Marcos Jose January 2000 (has links)
Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.
25

AvalWeb : sistema interativo para gerência de questões e aplicação de avaliações na web

Cardoso, Rodrigo Ferrugem January 2001 (has links)
Neste trabalho, é realizado um estudo dos processos de avaliação de alunos em ambiente WBT (Web Based Training). Para tanto, foram analisadas várias ferramentas de avaliação disponíveis no mercado. Com base nestas análises, foi proposto um sistema de gerência de questões e aplicação de avaliações, onde o termo “gerência” é utilizado com o objetivo de (i) atender requisições dos professores para elaboração de avaliações, (ii) escolher o nível de dificuldade das questões que comporão a avaliação e (iii) usar estratégias interativas para aplicação de provas, como por exemplo, a utilização de níveis de dificuldade progressivos das questões submetidas aos alunos, dependendo de suas respostas anteriores. Integrando o sistema de gerência de questões foi proposto um módulo de auto-avaliações, com retorno imediato para o aluno sobre qual é a resposta correta juntamente com uma explicação do professor, auxiliando no entendimento do estudante sobre a matéria ao invés de simplesmente atribuir determinada nota. Enfim, foi implementado um protótipo demonstrando a viabilidade das idéias presentes no modelo de avaliação aqui proposto. A proposta conceitual estabelecida para o modelo é bem mais ampla e flexível do que a atual versão da implementação realizada.
26

Consistência de ligações na world-wide web / World wide web link consistency

Garcia, Luis Fernando Fortes January 1997 (has links)
Tem-se observado que um dos maiores problemas decorrentes da expansão das ferramentas de difusão de informações em ambientes distribuídos, especialmente no modelo WWW-Internet, é a inconsistência das ligações entre os objetos envolvidos (Erro 404 - Arquivo não encontrado). Segundo [WHY 95], uma das mais importantes condições para a qualidade de uma estrutura de hiperdocumento é a manutenção da integridade e atualidade das ligações, sejam estas internas ou externas. Sempre que há alterações na hiperbase, nas estruturas dos documentos que a compõem ou no conteúdo semântico destes, podem surgir inconsistências nas ligações. Estas podem indicar tanto um problema temporário da rede ou servidor quanto um recurso que tenha sido permanentemente movido ou excluído. Acredita-se que o percentual de requisições inválidas cresça de acordo com o tempo, com a inclusão de novos recursos e com a dinamicidade intrínseca das estruturas dos Sistemas de Hiperdocumentos Distribuídos. Faz-se necessária, então, a adoção de modelos de Sistemas de Hiperdocumentos Distribuídos que contemplem o tratamento do problema de inconsistência de ligações desde sua concepção, através de técnicas preventivas ou então o desenvolvimento de ferramentas e técnicas para que a integridade das ligações seja garantida, preferencialmente de modo automático, para os modelos que não a apresentam nativamente Isto posto, este trabalho trata do problema da inconsistência de ligações nos Sistemas de Hiperdocumentos Distribuídos, com ênfase especial no modelo WWW (World-Wide Web) [BER 92]. Para tanto, são apresentados noções e conceitos, histórico, objetivos, estado da arte, arquitetura e requisitos necessários, assim como características específicas dos principais Sistemas de Hiperdocumentos Distribuídos. São tratados, também, os aspectos teóricos referentes aos problemas gerados pela inconsistência de ligações de ordem técnica, psicológica e/ou mercadológica. São apresentadas soluções encontradas na bibliografia para os sistemas implementados, bem como é feita uma classificação destas soluções em nível de preventivas (que não permitem que o problema ocorra) e corretivas (que são utilizadas para solucionar ou minimizar o problema), podendo estas serem, ainda, de funcionamento manual, semiautomático ou automático. A solução proposta, classificada como preventiva semi-automática, baseia-se em entrada de dados via formulário HTML e armazenamento em arquivo do tipo texto, é apresentada através de sua definição, objetivos, funcionamento e do detalhamento do protótipo, através das características de implementação e do ambiente utilizado. / We have noticed that one of the biggest problems resulting from the spreading of the information diffusion tools in distributed environments (specially with the WWWInternet model) is the inconsistency of the links between the objects involved (Error 404 - File was not found). According to [WHY 95], one of the most important conditions for the quality of an hyperdocument structure is the maintenance of the integrity of the links, whatever they may be internal or external to the hyperdocument. Whenever there are hyperbase changes, changes on the structures of the papers that compose the hyperbase, or if there are changes on the semantic content of these papers, there may arise inconsistencies with the links. These inconsistencies may indicate a temporary net or server problem, as well as a resource that has been constantly moved or excluded. It’s believed that the percentage of invalid requisites raises in accordance with time, with the introduction of new resources and with the dynamics of the structure of Distributed Hyperdocument Systems. So, it's necessary to adopt models of Distributed Hyperdocument Systems that contemplate a treatment of the problem of the links' inconsistencies since their conception, using preventive techniques or developing tools and techniques to guarantee the integrity of the links, preferably by automatic mode to the models that originally don't have this integrity. Thus, this work is about the problem of links' inconsistency in Distributed Hyperdocument Systems, with special emphasis on the model: WWW (World Wide Web) [BER 92]. For that, basic concepts, history, objectives, the state of the art, architecture and necessary requirements are shown., as well as specific characteristics of the main Distributed Hyperdocument Systems. Also shown are the theoretical aspects concerning the problems produced by the links inconsistency of the technical, psychological and/or market order. Solutions found on the bibliography are shown as well as a classification of these solutions as preventives (that don't permit the problem to occur) and correctives (that are used to solve or minimize the problem) is done. These solutions may still be manual, semi-automatic or automatic. The proposed solution, classified as preventive semiautomatic, is based on data entries using the HTML form and their storage in files in textual form. The definition, objectives, functioning and detail of a prototype are presented.
27

Método para a avaliação de servidores WWW no ambiente corporativo

Côrte, Leandro January 2002 (has links)
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
28

Personalização de interfaces web para sites institucionais com base em perfis de usuários

Lima, Paulo Sérgio Rodrigues January 2002 (has links)
A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.
29

Integração materializada na web : um estudo de caso

Guandeline, Eidy Leandro Tanaka January 2002 (has links)
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
30

Consistência de ligações na world-wide web / World wide web link consistency

Garcia, Luis Fernando Fortes January 1997 (has links)
Tem-se observado que um dos maiores problemas decorrentes da expansão das ferramentas de difusão de informações em ambientes distribuídos, especialmente no modelo WWW-Internet, é a inconsistência das ligações entre os objetos envolvidos (Erro 404 - Arquivo não encontrado). Segundo [WHY 95], uma das mais importantes condições para a qualidade de uma estrutura de hiperdocumento é a manutenção da integridade e atualidade das ligações, sejam estas internas ou externas. Sempre que há alterações na hiperbase, nas estruturas dos documentos que a compõem ou no conteúdo semântico destes, podem surgir inconsistências nas ligações. Estas podem indicar tanto um problema temporário da rede ou servidor quanto um recurso que tenha sido permanentemente movido ou excluído. Acredita-se que o percentual de requisições inválidas cresça de acordo com o tempo, com a inclusão de novos recursos e com a dinamicidade intrínseca das estruturas dos Sistemas de Hiperdocumentos Distribuídos. Faz-se necessária, então, a adoção de modelos de Sistemas de Hiperdocumentos Distribuídos que contemplem o tratamento do problema de inconsistência de ligações desde sua concepção, através de técnicas preventivas ou então o desenvolvimento de ferramentas e técnicas para que a integridade das ligações seja garantida, preferencialmente de modo automático, para os modelos que não a apresentam nativamente Isto posto, este trabalho trata do problema da inconsistência de ligações nos Sistemas de Hiperdocumentos Distribuídos, com ênfase especial no modelo WWW (World-Wide Web) [BER 92]. Para tanto, são apresentados noções e conceitos, histórico, objetivos, estado da arte, arquitetura e requisitos necessários, assim como características específicas dos principais Sistemas de Hiperdocumentos Distribuídos. São tratados, também, os aspectos teóricos referentes aos problemas gerados pela inconsistência de ligações de ordem técnica, psicológica e/ou mercadológica. São apresentadas soluções encontradas na bibliografia para os sistemas implementados, bem como é feita uma classificação destas soluções em nível de preventivas (que não permitem que o problema ocorra) e corretivas (que são utilizadas para solucionar ou minimizar o problema), podendo estas serem, ainda, de funcionamento manual, semiautomático ou automático. A solução proposta, classificada como preventiva semi-automática, baseia-se em entrada de dados via formulário HTML e armazenamento em arquivo do tipo texto, é apresentada através de sua definição, objetivos, funcionamento e do detalhamento do protótipo, através das características de implementação e do ambiente utilizado. / We have noticed that one of the biggest problems resulting from the spreading of the information diffusion tools in distributed environments (specially with the WWWInternet model) is the inconsistency of the links between the objects involved (Error 404 - File was not found). According to [WHY 95], one of the most important conditions for the quality of an hyperdocument structure is the maintenance of the integrity of the links, whatever they may be internal or external to the hyperdocument. Whenever there are hyperbase changes, changes on the structures of the papers that compose the hyperbase, or if there are changes on the semantic content of these papers, there may arise inconsistencies with the links. These inconsistencies may indicate a temporary net or server problem, as well as a resource that has been constantly moved or excluded. It’s believed that the percentage of invalid requisites raises in accordance with time, with the introduction of new resources and with the dynamics of the structure of Distributed Hyperdocument Systems. So, it's necessary to adopt models of Distributed Hyperdocument Systems that contemplate a treatment of the problem of the links' inconsistencies since their conception, using preventive techniques or developing tools and techniques to guarantee the integrity of the links, preferably by automatic mode to the models that originally don't have this integrity. Thus, this work is about the problem of links' inconsistency in Distributed Hyperdocument Systems, with special emphasis on the model: WWW (World Wide Web) [BER 92]. For that, basic concepts, history, objectives, the state of the art, architecture and necessary requirements are shown., as well as specific characteristics of the main Distributed Hyperdocument Systems. Also shown are the theoretical aspects concerning the problems produced by the links inconsistency of the technical, psychological and/or market order. Solutions found on the bibliography are shown as well as a classification of these solutions as preventives (that don't permit the problem to occur) and correctives (that are used to solve or minimize the problem) is done. These solutions may still be manual, semi-automatic or automatic. The proposed solution, classified as preventive semiautomatic, is based on data entries using the HTML form and their storage in files in textual form. The definition, objectives, functioning and detail of a prototype are presented.

Page generated in 0.0905 seconds