• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 5
  • Tagged with
  • 95
  • 95
  • 76
  • 29
  • 22
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

LABSQL: laboratório de ensino de SQL / LABSQL: Teaching of SQL Laboratory

LINO, Adriano Del Pino 19 December 2007 (has links)
Made available in DSpace on 2011-03-23T21:19:22Z (GMT). No. of bitstreams: 0 / Item created via OAI harvest from source: http://www.bdtd.ufpa.br/tde_oai/oai2.php on 2011-03-23T21:19:22Z (GMT). Item's OAI Record identifier: oai:bdtd.ufpa.br:152 / This work presents a new approach for automatic evaluation of SQL queries. This approach proposes a solution for a challenge to stimulate the student to improve his/her solution: searching, besides an answer that returns a correct result, a query with a complexity next to the optimum solution. This proposal can be used in e-learning environments or in presential education in laboratory activities, including the evaluations. The proposed solution has as advantages: (1) the student receives an instantaneous feedback during a practice programming activity, which allows the student to refactorize his/her solution in direction to a optimum solution; (2) complete integration between the programming concepts teaching with examples of fragments of on-line executable programs; (3) monitoring of students activities (how many examples were executed; in each exercise how many execution attempts were done, etc). This work is the first pass in direction to the construction of an environment, totally attended (for example with automatic evaluation) for teaching of SQL programming language, where the instructor is free of the hard work to correct SQL commands, being able to do more relevant pedagogic tasks. The method, based on statistics and Software Engineering metrics, can be adapted for other languages, such as Java and Pascal. In addition, the LabSQL serves as a laboratory for experimentation of two news techniques, one of evaluation and other of accompaniments that are being searched in several works at the same time: (a) automatic evaluation of discursive conceptual questions, besides to allow the traditional objective questions, (b) method of accompaniment through a montage of evaluation rubrics. / Este trabalho apresenta uma nova abordagem para avaliação automática de consultas SQL. Essa abordagem propõe uma solução para o desafio de estimular o aprendiz a aperfeiçoar a sua solução: buscando, além de uma resposta que retorna o resultado correto, uma consulta com complexidade próxima da solução ótima. Essa proposta pode ser utilizada em ambientes de educação a distancia ou na educação presencial em atividades de laboratório, incluindo as avaliações. A solução proposta tem como vantagens: (1) o aprendiz recebe um feedback instantâneo durante a atividade prática de programação, o qual permite ao aprendiz refatorar a sua solução em direção a uma solução ótima; (2) completa integração entre o ensino de conceitos de programação com exemplo de fragmentos de programas executáveis on-line; (3) monitoramento das atividades do aprendiz (quantos exemplos foram executados; em cada exercício quantas tentativas de execução foram feitas, etc). Este trabalho é um primeiro passo na direção de construção de um ambiente totalmente assistido (por exemplo com avaliação automática) para ensino da linguagem de programação SQL, onde o professor é liberado do árduo trabalho de correção de comandos SQL podendo realizar tarefas pedagógicas mais relevantes. O método, fundamentado em estatística e métricas da Engenharia de Software, pode ser adaptado para outras linguagens tais como Java e Pascal. Além disso, o LabSQL serve com um laboratório para experimentação de duas novas técnicas, uma de avaliação e outra de acompanhamento, que estão sendo pesquisadas em trabalhos em paralelos: (a) avaliação automática de questões conceituais discursivas, além de permitir as tradicionais perguntas objetivas, (b) método de acompanhamento através de montagem de uma rubrica de avaliação.
82

Uma Abordagem Semi-automática para Geração Incremental de Correspondências entre Ontologias / A Semi-Automatic approach for generating incremental correspondences between ontologies

Hortêncio Filho, Fernando Wagner Brito January 2011 (has links)
HORTÊNCIO FILHO, Fernando Wagner Brito. Uma Abordagem Semi-automática para Geração Incremental de Correspondências entre Ontologias. 2011. 81 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2011. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-27T19:11:59Z No. of bitstreams: 1 2011_dis_fwbhortênciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-27T19:14:07Z (GMT) No. of bitstreams: 1 2011_dis_fwbhortênciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Made available in DSpace on 2016-06-27T19:14:07Z (GMT). No. of bitstreams: 1 2011_dis_fwbhortênciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) Previous issue date: 2011 / The discovery of semantic correspondences between schemas is an important task for different fields of applications such as data integration, data warehousing and data mashup. In most cases, the data sources involved are heterogeneous and dynamic, making it even harder the performance of that task. Ontologies are being used in order to define common vocabulary used to describe the elements of the schemas involved in a particular application. The problem of matching between ontologies, or ontology matching, consists in the discovery of correspondences between terms of vocabularies (represented by ontologies) used between the various applications. The solutions proposed in the literature, despite being fully automatic have heuristic nature, and may produce non-satisfactory results. The problem intensifies when dealing with large data sources. The purpose of this paper is to propose a method for generation and incremental refinement of correspondences between ontologies. The proposed approach makes use of filtering techniques of ontologies, as well as user feedback to support the generation and refining these matches. For validation purposes, a tool was developed and experiments were conducted / A descoberta de correspondências semânticas entre esquemas é uma importante tarefa para diversos domínios de aplicações, tais como integração de dados, data warehouse e mashup de dados. Na maioria dos casos, as fontes de dados envolvidas são heterogêneas e dinâmicas, dificultando ainda mais a realização dessa tarefa. Ontologias vêm sendo utilizadas no intuito de definir vocabulários comuns usados para descrever os elementos dos esquemas envolvidos em uma determinada aplicação. O problema de matching entre ontologias, ou ontology matching, consiste na descoberta de correspondências entre os termos dos vocabulários (representados por ontologias) usados entre as diversas aplicações. As soluções propostas na literatura, apesar de serem totalmente automáticas possuem natureza heurística, podendo produzir resultados não-satisfatórios. O problema se intensifica quando se lida com grandes fontes de dados. O objetivo deste trabalho é propor um método para geração e refinamento incremental de correspondências entre ontologias. A abordagem proposta faz uso de técnicas de filtragem de ontologias, bem como do feedback do usuário para dar suporte à geração e ao refinamento dessas correspondências. Para fins de validação, uma ferramenta foi desenvolvida e experimentos foram realizados.
83

Sistema WEB para gerenciamento de informações agrícolas /

Galvão, Wiliam Carlos, 1977. January 2010 (has links)
Orientador: Zacarias Xavier de Barros / Banca: Maura Seikp Tsutsui Esperancini / Banca: Carlos Roberto Pereira Padovani / Resumo: O agronegócio é responsável por 33% do Produto Interno Bruto (PIB), sendo 42% das exportações e 37% dos empregos no Brasil. Com a globalização do mercado, o sucesso de uma empresa, principalmente no agronegócio, depende cada vez mais de fornecedores, produtores de matéria-prima, processadores e distribuidores. Atualmente, a busca por softwares eficazes para o gerenciamento de informações e apoio na gestão agrícola vem se evidenciando cada vez mais. Esse trabalho envolveu a linguagem de programação PHP "Hypertext Preprocessor" e banco de dados Firebird ambos com licença open source, ou seja, gratuita, tornando possível o desenvolvimento de um sistema para a internet usando técnicas de programação orientada a objetos, ganhando velocidade e confiabilidade na escrita dos códigos. O objetivo deste trabalho foi alcançado com êxito, consistindo no estudo, elaboração e desenvolvimento de um sistema computacional para organização e gerência dos dados para composição de relatórios gerenciais para auxílio na tomada de decisões, ganhando velocidade, consistência, segurança, disponibilidade das informações e eficiência no processamento / Abstract: Agribusiness is responsible for 33% of Gross Domestic Product (GDP), 42% of total exports and 37% of jobs in Brazil. With the globalization of markets, the success of a company, particularly in agribusiness depends more and more suppliers, raw material producers, processors and distributors. Currently, the search for effective software to support the farm management is becoming increasingly evident. This work involved the PHP programming language "Hypertext Preprocessor" and firebird database with both open source license, or free, making it possible to develop a system for the internet using techniques of object-oriented programming, gaining speed and reliability writing code. The objective was successfully achieved to develop a computer system for data organization and composition of management reports to aid in decision making, gaining speed, consistency, security, information availability and efficiency in processing / Mestre
84

Sistema WEB para gerenciamento de informações agrícolas

Galvão, Wiliam Carlos [UNESP] 30 September 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:44Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-09-30Bitstream added on 2014-06-13T19:11:21Z : No. of bitstreams: 1 galvao_wc_me_botfca.pdf: 1301051 bytes, checksum: 03a7cdb8d1ecae98081beac860d1abc0 (MD5) / O agronegócio é responsável por 33% do Produto Interno Bruto (PIB), sendo 42% das exportações e 37% dos empregos no Brasil. Com a globalização do mercado, o sucesso de uma empresa, principalmente no agronegócio, depende cada vez mais de fornecedores, produtores de matéria-prima, processadores e distribuidores. Atualmente, a busca por softwares eficazes para o gerenciamento de informações e apoio na gestão agrícola vem se evidenciando cada vez mais. Esse trabalho envolveu a linguagem de programação PHP “Hypertext Preprocessor” e banco de dados Firebird ambos com licença open source, ou seja, gratuita, tornando possível o desenvolvimento de um sistema para a internet usando técnicas de programação orientada a objetos, ganhando velocidade e confiabilidade na escrita dos códigos. O objetivo deste trabalho foi alcançado com êxito, consistindo no estudo, elaboração e desenvolvimento de um sistema computacional para organização e gerência dos dados para composição de relatórios gerenciais para auxílio na tomada de decisões, ganhando velocidade, consistência, segurança, disponibilidade das informações e eficiência no processamento / Agribusiness is responsible for 33% of Gross Domestic Product (GDP), 42% of total exports and 37% of jobs in Brazil. With the globalization of markets, the success of a company, particularly in agribusiness depends more and more suppliers, raw material producers, processors and distributors. Currently, the search for effective software to support the farm management is becoming increasingly evident. This work involved the PHP programming language Hypertext Preprocessor and firebird database with both open source license, or free, making it possible to develop a system for the internet using techniques of object-oriented programming, gaining speed and reliability writing code. The objective was successfully achieved to develop a computer system for data organization and composition of management reports to aid in decision making, gaining speed, consistency, security, information availability and efficiency in processing
85

Teste baseado na interação entre regras ativas escritas em SQL / Testing based on interaction of SQL rules

Leitão Junior, Plinio de Sa 21 December 2005 (has links)
Orientadores: Mario Jino, Plinio Roberto Souza Vilela / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T17:50:16Z (GMT). No. of bitstreams: 1 LeitaoJunior_PliniodeSa_D.pdf: 1822006 bytes, checksum: d9b1eca29d417bcd74707f2e6c4d1eef (MD5) Previous issue date: 2005 / Resumo: Bancos de dados ativos têm sido usados como uma alternativa à implementação de parte da funcionalidade de muitas aplicações em diversas áreas de conhecimento. A idéia básica é a resposta automática à ocorrência de eventos pela ativação de tarefas com funções específicas, conduzindo à execução de regras ativas. A despeito do uso difundido dessa tecnologia, pouco esforço de pesquisa tem sido direcionado ao teste de aplicações de bancos de dados ativos. Nesta pesquisa, nós investigamos o uso de uma técnica de teste estrutural para revelar a presença de defeitos, visando à melhoria de qualidade e ao aumento do nível de confiança com relação a este tipo de software. Uma família de critérios de adequação é proposta e analisada, no âmbito de regras ativas escritas em SQL. Especificamente, um modelo de interação entre regras é elaborado, visando à abstração de associações de interação, as quais formam a base para os requisitos de teste. No contexto de teste estrutural baseado em fluxo de dados, é definido um conjunto de critérios de adequação, denominados Critérios Baseados na Interação entre Regras, que requerem o exercício de associações de interação. Os critérios são uma extensão ao critério todos usos, pela exploração de relações de fluxo de dados persistentes devido a interações entre regras. Investigações teóricas e empíricas foram conduzidas, demonstrando que os critérios demonstram habilidade na detecção dos defeitos com complexidade polinomial. Defeitos e falhas de manipulação foram estudados, enumerados e utilizados em um experimento que avalia a habilidade de detecção de defeitos dos critérios em diferentes granularidades: precisões da análise de fluxo de dados. Uma ferramenta chamada ADAPT-TOOL (Active Database APplication Testing TOOL for active rules written in SQL) foi construída para suportar o experimento. Os resultados indicam que: (i) a eficácia de detecção de defeitos alcançou 2/3 do conjunto adequado, obtendo-se valores mais elevados para granularidades menos precisas; e (ii) a cobertura de associações de interação em granularidades mais precisas não melhora a habilidade de revelar defeitos / Abstract: Active Rule databases have been used as an alternative to the partial implementation of applications in several knowledge domains. Their principle is the automatic response to events by the activation of tasks with specific functionalities, leading to the execution of active rules. Notwithstanding their widespread use, few research efforts have been concentrated on active database application testing. In this research work we investigate the use of a structural testing technique to reveal the presence of faults, aimed at improving reliability and overall quality of this kind of software. A family of adequacy criteria is proposed and analysed in the active SQL-based database realm. Specifically, an interaction model between rules is elaborated, in order to abstract interaction associations that form the basis for testing requirements. In the context of data flow based structural testing, a family of adequacy criteria is defined, called Interaction Between Rules based Criteria, that demands the coverage of interaction associations. The criteria are an extension to the all uses criterion, by the exploitation of persistent data flow relations associated to rule interaction. Both theoretical and empirical investigations were performed, showing that the criteria posses fault detecting ability with polynomial complexity. Manipulation faults and failures were studied, enumerated and used in an experiment that evaluates criteria fault detecting ability at different granularities: data flow analysis precisions. A tool called ADAPT-TOOL (Active Database APplication Testing TOOL for active rules written in SQL) was built to support the experiment. The results indicate that: i) the fault-detecting efficacy was 2/3 of the adequate set, and reaches higher values for the lower data flow analysis precision; and (ii) the coverage of interaction association at higher granularities does not improve the fault detecting ability / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
86

Metadados de Bancos de Dados Relacionais: Extração e Exposição com o Protocolo OAI-PMH / Metadata of Relacional Database: Extraction and ExpositionWith OAI-PMH Protocol

KOWATA, Elisabete Tomomi 11 September 2011 (has links)
Made available in DSpace on 2014-07-29T14:57:50Z (GMT). No. of bitstreams: 1 Dissertacao Elisabete T Kowata.pdf: 2397519 bytes, checksum: df1ed4bd74a16c5e66a0ff4d7f8f9825 (MD5) Previous issue date: 2011-09-11 / Information about a particular subject can be stored in different repositories such as databases, digital libraries, spreadsheets, text files, web pages etc. In this context of heterogeneous data sources, to query, possibly in natural language, to integrate information and to promote interoperability are tasks that depend, among other factors, on the prior knowledge that an user has regarding location, owner, content description of each information source etc. More specifically, in the case of database, this information are not usually stored in a catalogue of the database management system and to obtain is necessary to resort to the administrator s knowledge database. Another factor is the absence of search engines to databases in the web that access and make available the information in those repositories, data are limited due to the organizations themselves. In a shared information environment, it is highly relevant to make possible access to metadata that describe a data source, regardlessly of the device and format in which is stored. This study aims to describe a mechanism to promote interoperability of relational databases with other sources of information through the extraction and exposing of metadata using OAI-PMH / Informações sobre um determinado assunto podem estar armazenadas em diferentes repositórios como banco de dados, bibliotecas digitais, planilhas eletrônicas, arquivos textos, páginas na web etc. Nesse contexto de fontes de dados heterogêneas, consultar, possivelmente em linguagem natural, integrar informações e promover interoperabilidade são tarefas que dependem, dentre outros fatores, do conhecimento prévio que um usuário tem sobre a localização, o proprietário, a descrição do conteúdo de cada fonte de informação. Mais especificamente, no caso de bancos de dados, essas informações não são, em geral, armazenadas no catálogo de um sistema gerenciador de bancos de dados; para obtê-las é necessário recorrer ao conhecimento do administrador desse banco. Outro fator que evidencia essa dependência é a ausência de mecanismos de busca a bancos de dados na web que acessam e tornam disponíveis as informações contidas nesses repositórios, devido ao fato desses dados estarem limitados às próprias organizações. Em um ambiente de compartilhamento de informações, é altamente relevante tornar possível o acesso aos metadados que descrevem uma fonte de dados, independentemente do meio e do formato em que esteja armazenada. Este trabalho tem como objetivo descrever um mecanismo para promover interoperabilidade de bancos de dados relacionais com outras fontes de informações, por meio da extração e exposição dos metadados usando o protocolo OAI-PMH.
87

SQLToKeyNoSQL

Schreiner, Geomar André January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:56:56Z (GMT). No. of bitstreams: 1 339451.pdf: 2281831 bytes, checksum: 129da9c13a181f4ca28c9822b6e994ca (MD5) Previous issue date: 2016 / Diversas aplicações atualmente produzem e manipulam um grande volume de dados, denominados Big Data. Bancos de dados tradicionais, em particular, os Bancos de Dados Relacionais (BDRs), não são adequados ao gerenciamento de Big Data. Devido a isso, novos modelos de dados têm sido propostos para manipular grandes massas de dados, enfatizando a escalabilidade e a disponibilidade. A maioria destes modelos de dados pertence a uma nova categoria de gerenciadores de dados denominados BDs NoSQL. Entretanto, BDs NoSQL não são compatíveis, em geral, com o padrão SQL e desenvolvedores que utilizam BDRs necessitam aprender novos modelos de dados e interfaces de acesso para produzirem aplicações baseadas em Big Data. Para lidar com esta problemática, abordagens têm sido propostas para o suporte da interoperabilidade entre BDRs e BDs NoSQL. Poucas destas abordagens tem a habilidade de suportar mais que um BD alvo, sendo a maioria restrita a um BD NoSQL. Neste contexto, este trabalho propõe uma abordagem para acesso via SQL para dados armazenados em um SGBD NoSQL baseado em Chave de acesso (chave-valor, orientado a documentos ou orientado a colunas). Para isso, é proposto um modelo canônico hierárquico intermediário para o qual é traduzido o modelo Relacional. Este modelo hierárquico pode ser traduzido para modelos de dados NoSQL orientado a colunas, orientado a documentos ou chave-valor. A tradução das instruções SQL é feita para um conjunto intermediário de métodos baseado na API REST, que são traduzidos para a linguagem de acesso dos BDs NoSQL. Além disso, a abordagem possibilita o processamento de junções que não são suportadas pelos BDs NoSQL. Experimentos demostram que a solução proposta é promissora, possuindo um overhead não proibitivo e sendo competitiva com ferramentas existentes.<br> / Abstract : A lot of applications produce and manipulate today a large volume of data, the so-called Big Data. Traditional databases, like relational databases (RDB), are not suitable to Big Data management. In order to deal with this problem, a new category of DB has been proposed, been most of them called NoSQL DB. NoSQL DB have different data models, as well as different access methods which are not usually compatible with the RDB SQL standard. In this context, approaches have been proposed for providing mapping of RDB schemata and operations to equivalent ones in NoSQL DB to deal with large relational data sets in the cloud, focusing on scalability and availability. However, these approaches map relational DB only to a single NoSQL data model and, sometimes, to a specific NoSQL DB product. This work presents SQLToKeyNoSQL, a layer able to translate, in a transparent way, RDB schemata as well as SQL instructions to equivalent schemata and access methods for key-oriented NoSQL DB, i.e., databases based on document-oriented, key-value and column-oriented data models. We propose a hierarchical data model that abstracts the key-oriented NoSQL data models, and use it as an intermediate data model for mapping the relational data model to these NoSQL data models. Besides, we propose the translation of a subset of SQL instructions to an intermediate set of access methods based on the REST API, which are further translated, in a simple way, to the access methods of the key-oriented NoSQL DB. Our solution also supports join queries, which is not a NoSQL DB capability. An experimental evaluation demonstrates that our approach is promising, since the introduced overhead with our layer is not prohibitive.
88

Avaliação estocástica de afundamentos de tensão através de análise de curtos-circuitos deslizantes e banco de dados relacional

SILVA, Jucileno Silva e 30 March 2006 (has links)
Submitted by Irvana Coutinho (irvana@ufpa.br) on 2012-02-17T14:20:15Z No. of bitstreams: 1 Dissertacao_JucilenoSilva.pdf: 1273337 bytes, checksum: 12638ed6c5167656f3073606783b1d63 (MD5) / Approved for entry into archive by Irvana Coutinho(irvana@ufpa.br) on 2012-02-17T14:23:13Z (GMT) No. of bitstreams: 1 Dissertacao_JucilenoSilva.pdf: 1273337 bytes, checksum: 12638ed6c5167656f3073606783b1d63 (MD5) / Made available in DSpace on 2012-02-17T14:23:13Z (GMT). No. of bitstreams: 1 Dissertacao_JucilenoSilva.pdf: 1273337 bytes, checksum: 12638ed6c5167656f3073606783b1d63 (MD5) Previous issue date: 2006 / Atualmente, é grande a preocupação com relação aos distúrbios que afetam a qualidade da energia elétrica, em especial os afundamentos de tensão, devido aos prejuízos associados aos usuários. Isto decorre da crescente presença de cargas sensíveis a estes distúrbios, principalmente nos processos industriais. Para se avaliar corretamente o problema, é fundamental dispor de estimativas confiáveis do número e das características dos afundamentos de tensão que podem afetar determinada carga ou processo. Dentro deste contexto, este trabalho propõe a implementação de uma metodologia de estimação dos afundamentos de tensão. Esta metodologia calcula a amplitude, duração e freqüência de ocorrência do fenômeno, tendo como base um estudo estatístico estocástico. Neste estudo a posição da falta ao longo das linhas é sorteada, a fim de melhor emular a aleatoriedade da ocorrência das faltas no sistema. Para avaliar a aplicabilidade da metodologia implementada, realizaram-se estudos de casos utilizando um sistema elétrico real pertencente a uma concessionária da região norte (CELPA). A análise permite afirmar que a metodologia implementada pode ser eficazmente utilizada para auxiliar engenheiros no planejamento de sistemas elétricos e no diagnóstico de problemas ocasionados por afundamentos de tensão. / Nowadays, it is great the concern regarding the disturbances that affect electric power quality, especially voltage sags, due to the associated customer damages. This elapses from the growing presence of sensitive loads to theses disturbances, mainly in industrial processes. To evaluate the problem correctly, it is fundamental to have reliable estimates of the number and characteristics of the voltage sags that can affect certain load or process. In this context, this work proposes the implementation of a methodology for estimation of voltage sags that consists in calculate amplitude, duration and frequency of occurrence of the phenomenon, based on probabilistic study. In this study, the position of the fault along the lines is raffled, in order to best represent the randomness of occurrence of faults in the system. To evaluate the applicability of the implemented methodology, case studies are made using a real electric grid of a distribution utility in the north of Brazil (CELPA). The resultant analysis, allows to affirm that, the implemented methodology can be used efficiently to aid engineers in planning of electric systems and in diagnosing power quality related customer equipment problems.
89

Ontologias de domínio na interpretação de consultas a bancos de dados relacionais / Domain ontologies in query interpretation to relational databases

Marins, Walquíria Fernandes 08 October 2015 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2016-02-29T10:48:44Z No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-02-29T10:54:01Z (GMT) No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-02-29T10:54:01Z (GMT). No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-10-08 / There is an huge amount of data and information stored digitally. Part of this amount of data is available for consultation by Web, however, a significant portion is hidden, due to its storage form, and can’t be recovered by traditional search engines. This makes users face a common and growing challenge to search and find specific information. This challenge is enhanced by the unpreparedness of users to formulate searches and the limitations inherent in research technologies, that because of syntactic differences, can’t find probably relevant data. Aiming to expand the possibilities of semantic interpretation of a query, this work proposes an approach to interpretation of queries in natural language to relational databases through the use of domain ontologies as a tool for their interpretation and semantic enrichment. With the implementation of the approach and its appreciation against a backdrop of queries without the semantic enrichment it is observed that the approach contributes satisfactorily to identify the user’s intention. / Há uma quantidade enorme de dados e informações armazenadas digitalmente. Uma parte desse volume de dados está disponível para consultas através da Web, entretanto, uma parcela significativa está oculta, devido à sua forma de armazenamento, e não pode ser recuperada pelos mecanismos tradicionais de busca. Isso faz com que os usuários enfrentem um desafio comum e crescente para buscar e encontrar informações específicas. Este desafio é potencializado pelo despreparo dos usuários em formular buscas e pelas limitações inerentes às tecnologias de pesquisa que, em virtude de diferenças sintáticas, não conseguem encontrar dados provavelmente relevantes. Visando ampliar as possibilidades de interpretação semântica de uma consulta, este trabalho propõe uma abordagem de interpretação de consultas em linguagem natural a bancos de dados relacionais através do uso de ontologias de domínio como instrumento para sua interpretação e enriquecimento semântico. Com a implementação da abordagem e sua apreciação em relação a um cená- rio de consultas sem o enriquecimento semântico observa-se que a abordagem contribui satisfatoriamente para identificar a intenção do usuário.
90

IETS: Ferramenta interativa de ensino de SQL

FREIRE, José Antônio Sarmanho dos Santos 24 March 2006 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-14T11:57:15Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_IETSFerramentaInterativa.pdf: 1110575 bytes, checksum: 21d7680ac777c141d18932fcd29544be (MD5) / Rejected by Edisangela Bastos (edisangela@ufpa.br), reason: on 2016-12-15T12:24:52Z (GMT) / Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-20T13:38:07Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_IETSFerramentaInterativa.pdf: 1110575 bytes, checksum: 21d7680ac777c141d18932fcd29544be (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2016-12-21T11:54:40Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_IETSFerramentaInterativa.pdf: 1110575 bytes, checksum: 21d7680ac777c141d18932fcd29544be (MD5) / Made available in DSpace on 2016-12-21T11:54:40Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_IETSFerramentaInterativa.pdf: 1110575 bytes, checksum: 21d7680ac777c141d18932fcd29544be (MD5) Previous issue date: 2006-03-24 / Este trabalho propõe uma ferramenta na WEB para ensino de programação. O trabalho é baseado em um estudo de caso para ensino da linguagem de programação de bancos de dados SQL e está inserido no contexto de um ambiente interativo de aprendizagem. Esta ferramenta experimental para ensino de linguagens de programação, apresenta como objetivos: 1) completa integração entre o ensino de conceitos de programação com exemplo de fragmentos de programas executáveis on-line; 2) integração com um componente de avaliação de programas verificando se a resposta do aluno é a mesma do professor; 3) monitoramento das atividades do aluno (quantos exemplos foram executados; em cada exercício, quantas tentativas de execução foram feitas, etc). 4) servir como um laboratório para experimentação de duas novas técnicas de avaliação e acompanhamento, que estão sendo pesquisadas em trabalhos paralelo: (a) avaliação automática de programas com métricas de engenharia de software, permitindo informar o quanto a solução do estudante se aproxima de uma “solução ideal”; e (b) avaliação automática de questões conceituais discursivas, além de permitir as tradicionais pergutas objetivas. Este trabalho é um primeiro passo na direção de construção de um ambiente totalmente assistido (por exemplo com avaliação automática) para ensino da linguagem de programação SQL, onde o professor terá uma carga de trabalho mínima, mais como surpevisor. / This work considers a tool in the Web for programming teaching. The work is based on a study of case for teaching of the programming language of data bases SQL and is inserted in the context of an interactive environment of learning. This experimental tool for teaching of programming languages, presents as objective: 1) complete integration between the teaching of concepts of programming with example of fragments of executable programs on line; 2) integration with a component of evaluation of programs verifying it the reply of the learner is the same one of the teacher; 3) complete control of the learner´s activities (how many examples had been executed; in each exercise, how many execution attempts had been made, etc). 4) to serve as a laboratory for experimentation of tow new techniques of evaluation and accompaniment, that are being searched in works in parallel: (a) automatic evaluation of metric programs with of software engineering , allowing informing how much the solution of the student if approaches to a “ideal solution”; e (b) automatic evaluation of discursive conceptual questions, besides allowing the traditional objective questions. This work is a first step in the direction of construction of an environment total attended (for example with automatic evaluation) for teaching of the programming language SQL, where the teacher will have a minimum load of work, more as supervisor.

Page generated in 0.072 seconds