• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 5
  • Tagged with
  • 95
  • 95
  • 76
  • 29
  • 22
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

DBValTooi

Batista, Denerval Mendez 04 February 2011 (has links)
Resumo: A capacidade de armazenar, disponibilizar e proteger uma grande quantidade de dados confere aos bancos de dados papel de grande importância na maioria das modernas organizações, sejam elas grandes ou pequenas. E essencial que os sistemas de banco de dados funcionem corretamente e apresentem desempenho aceitável. Diante da importância da integridade e da consistência das informações a serem armazenadas nos sistemas de banco de dados, técnicas específicas para testar as bases de dados, principalmente antes de serem povoadas, respondem a uma necessidade muitas vezes vital. Nesse sentido, este trabalho apresenta um modelo de processo de validação de projeto, que tem como objetivo principal aumentar a qualidade e a confiabilidade dos projetos de banco de dados. A Ferramenta DBValTool, que pode ser utilizada em várias etapas do modelo proposto, foi desenvolvida para fornecer o apoio necessário ao teste de bases de dados, buscando proporcionar um aumento da qualidade e uma redução de tempo e de custo durante a atividade de teste. O uso do modelo proposto e da Ferramenta DBValTool, em estudos de casos realizados, apresentou, como se esperava inicialmente, contribuições ao processo de teste e de validação do projeto.
2

Agrupamento fuzzy c-medoids semi-supervisionado de dados relacionais representados por múltiplas matrizes de dissimilaridade

BRANCO, Diogo Philippini Pontual 21 July 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-10-05T20:00:48Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-14T22:34:34Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) / Made available in DSpace on 2018-11-14T22:34:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) Previous issue date: 2017-07-21 / Técnicas de agrupamento de dados geralmente operam em objetos que podem estar descritos pelos seus atributos (feature data) ou por dados relacionais. Em dados relacionais apenas a informação que representa o grau de relacionamento entre os pares de objetos está disponível. O caso mais comum de dados relacionais é quando se tem uma matriz de dissimilaridade () entre objetos e cada célula da matriz tem a informação do grau de relacionamento entre um par de objetos. Esses dados relacionais podem ser (e geralmente são) complexos, tais como objetos multimídia, o que faz com que o relacionamento entre objetos possa ser descrito por múltiplas matrizes de (dis)similaridade. Cada matriz é chamada de visão e dados descritos desta forma são ditos multi-view. Há três principais abordagens para administrar dados multi-view em análise de agrupamento no estado da arte: abordagem de concatenação (fusão de dados), abordagem distribuída e abordagem centralizada. Na abordagem centralizada, se utiliza as múltiplas visões de forma simultânea para encontrar padrões escondidos nos dados; representa um desafio importante pois requer uma modificação profunda do processo de particionamento. Em compensação, essa abordagem geralmente tem uma qualidade dos resultados superior em relação às outras duas abordagens. Agrupamento de dados é uma tarefa difícil, especialmente quando se trata de dados complexos, relacionais, de alta dimensionalidade e com múltiplas visões. Para facilitar o processo, não é incomum utilizar os rótulos dos objetos, contudo, dados rotulados geralmente são escassos; por isso é comum o uso de supervisão parcial, que necessita apenas o rótulo de alguns objetos de um dado conjunto. Este trabalho introduz o algoritmo SS-MVFCVSMdd (Semi-Supervised Multi-View Fuzzy Clustering Vector Set-Medoids), baseado no MVFCVSMdd e com funcionamento parecido com o SSMVFCSMdd. O SS-MVFCVSMdd é um algoritmo particional do tipo fuzzy c-medoids vectors semi-supervisionado de dados relacionais representados por múltiplas matrizes de dissimilaridade. O SS-MVFCVSMdd utiliza restrições par-a-par (must-link e cannot-link) entre objetos como supervisão parcial e é capaz de inferir representantes e pesos de relevância para cada visão. Experimentos são realizados em vários conjuntos de dados comparando seu desempenho com algoritmos de características similares ao SS-MVFCVSMdd. Os resultados apontam que o SS-MVFCVSMdd teve uma qualidade similar ou superior em relação aos outros algoritmos. / Data clustering techniques generally work with objects that can be described by either feature or relational data. In relational data only the information pertaining the relationship degree between pairs of objects is available. The most usual case of relational data is when there is a dissimilarity matrix () between objects and each cell of said matrix contains the relationship degree between a given pair of objects. These relational data may be (and generally are) complex, such as multimedia objects, which may cause the relationship between those objects to be described by multiple (dis)similarity matrices. Each matrix is called view and data described in that way are said to be multi-view. There are three main approaches to manage multi-view data in cluster analysis in the the state of the art: concatenation, distributed and centralized. In the centralized approach the views are considered simultaneously in order to find hidden patterns in the data. On one hand, this poses a great challenge as it requires a profound change in the clustering process. On the other hand, this approach generally offers results with superior quality in comparison with the other two approaches. Clustering is a hard task, specially when it concerns complex relational high-dimension multi-view data. To facilitate the process it is not unusual to use the object labels, although labeled data are generally scarce. Therefore the use of parcial supervision is common, which requires only some of the objects are labeled in a given dataset. This work introduces the SS-MVFCVSMdd (Semi-Supervised Multi-View Fuzzy Clustering Vector Set-Medoids) algorithm, based on the MVFCVSMdd and functions in a similar way as the SS-MVFCSMdd. The SS-MVFCVSMdd is a semi-supervised multi-view fuzzy c-medoids vectors partitional algorithm, which utilizes pairwise constraints (must-link and cannot-link) between objects as partial supervision and infers prototypes and relevance weights for each view. Experiments performed using several datasets comparing the performance of the proposed algorithm with algorithms that have similar characteristics as the proposed algorithm. The results indicate that the SS-MVFCVSMdd had a similar or superior quality than the other algorithms.
3

Visões estendidas : uma proposta para extensão de bancos de dados relacionais

Schneider, Henrique Nou 21 August 1989 (has links)
Oreintador : Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-16T16:15:23Z (GMT). No. of bitstreams: 1 Schneider_HenriqueNou_M.pdf: 3678132 bytes, checksum: 5696a9a70e5b7c3e894e39916bfa1ec1 (MD5) Previous issue date: 1989 / Resumo: A tese apresentada uma proposta para estender facilidades de SGBDs relacionais através de mecanismo de atualização de visões. A extensão se baseia na definição de interfaces que permitam o suporte a um novo tipo de visão: as "visões estendidas" (VEs), utilizadas como mecanismo para definir e manipular tipos de dados não suportados pelo SGDB original. As visões são definidas segundo a filosofia de Tipos Abstratos de Dados, onde a função geradora de visão, as operações permitidas sobre a visão e um conjunto de mapeamentos para cada operação estão encapsulados em um único Módulo. Como cada atualização pode ter mais que uma tradução correta, o usuário pode optar por especificar o mapeamento quando da definição da visão, ou no momento em que ele estiver processando atualizações. A validação da proposta é feita através da implementação de um protótipo que permite a definição e manipulação de alguns tipos de VEs / Abstract: Not informed / Mestrado / Mestre em Ciência da Computação
4

Transparencia de modelos em sistemas de bancos de dados heterogeneos

Oliveira, Ronaldo Lopes de 11 August 1993 (has links)
Orientador : Geovane Cayres Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-18T15:39:29Z (GMT). No. of bitstreams: 1 Oliveira_RonaldoLopesde_M.pdf: 5041065 bytes, checksum: 44dc229d34553d6cb18757111195485b (MD5) Previous issue date: 1993 / Resumo: Sistemas de Bancos de Dados Heterogêneos (SBDHs) integram, em um ambiente cooperativo, Sistemas de Bancos de Dados (SBDs) autônomos e heterogêneos entre si, particularmente no que concerne aos modelos de dados utilizados. A transparência de modelos em SBDHs é a propriedade que permite que o usuário visualize as informações segundo um único modelo.de dados e manipule esses dados usando uma única linguagem. Esta dissertação propõe e discute soluções para suportar tal propriedade em SBDHs construídos a partir da integração de SBDs que seguem o modelo relacional ou o modelo rede. Essas soluções incluem metodologias para conversão de esquemas, e arquiteturas e algoritmos para transformação de operações. A abordagem adotada neste trabalho difere da maioria dos trabalhos publicados em dois aspectos. Primeiro, parte do pressuposto que cada usuário vai manipular os dados do ambiente integrado usando a linguagem associada ao modelo de dados utilizado por ele antes da construção do SBDH. Segundo, propõe soluções para permitir que o usuário manipule os dados do SBDH através de programas de aplicação construídos em uma linguagem de propósito geral e não apenas através de operações ad-hoc / Abstract: Heterogeneous Database Systems (HDBSs) integrate, in a cooperative environment, autonomous and heterogeneous database systems (DBSs). Model transparency in HDBSs is an important property that allows the users to deal with global data using a single model and database language. This work proposes and discusses solutions to support such property in HDBSs built through the integration of network DBSs and relational DBSs. The solutions presented include methodologies for schema conversion and, architectures and algorithms for command transformation. The approach used in this work differs from others published in two main points. First, it assumes that each user will manipulate global data using the data model and database language he was supposed to use before the HDBS exist, second, it proposes mechanisms to support access to HDBS's data through application programs instead of ad-hoc transactions / Mestrado / Mestre em Ciência da Computação
5

Uma Avaliação de abordagens alternativas para armazenar RDF em banco de dados relacional

Zanete, Nelson Henrique January 2001 (has links)
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
6

Uma Avaliação de abordagens alternativas para armazenar RDF em banco de dados relacional

Zanete, Nelson Henrique January 2001 (has links)
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
7

Uma Avaliação de abordagens alternativas para armazenar RDF em banco de dados relacional

Zanete, Nelson Henrique January 2001 (has links)
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
8

Utilizando técnicas de programaçao lógica indutiva para mineraçao de banco de dados relacional

Duarte, Denio January 2001 (has links)
Resumo: As empresas estão sendo sobrecarregadas rapidamente com grandes volumes de dados e ao mesmo tempo estão se tornando, predominantemente, orientadas ao conhecimento. O aumento do domínio do conhecimento não melhora apenas os produtos, mas também é uma fonte para decisões estratégicas. Do ponto de vista da ciência da computação, os requisitos de conhecimento exigidos pelas empresas sempre dão mais ênfase a "conhecer que" (conhecimento declarativo) do que "conhecer como" (conhecimento procedural). A lógica matemática tem sido a representação preferida para o conhecimento declarativo e portanto, técnicas de descoberta do conhecimento são utilizadas, as quais geram fórmulas lógicas a partir dos dados. Programas lógicos oferecem uma representação poderosa e flexível para restrições, gramáticas, equações e relacionamentos temporais e espaciais. A técnica que induz conceitos a partir de dados gerando programas lógicos é chamada de Programação Lógica Indutiva (ILP - Inductive Logic Programming). Este trabalho descreve a implementação de um sistema para a descoberta do conhecimento (mineração de dados) em bancos de dados relacionais utilizando fundamentos de ILP e SQL. Esse sistema, DBILP (DataBase miner based on ILP), trabalha com dois mecanismos básicos: um que, baseado em ILP, especializa e, em seguida, generaliza as regras construídas, e outro que instância e valida essas regras, baseado em comandos SQL. ILP e SQL foram escolhidos pois o primeiro é uma técnica relativamente moderna e expressiva para a mineração de dados, e o segundo permite que grande volume de dados sejam manipulados, graças ao controle feito por um Sistema Gerenciador de Banco de Dados (SGBD). O funcionamento do DBILP é discutido ao longo desse trabalho, apresentando os módulos que o compõe, a sintaxe da linguagem de entrada definida, e a forma que as regras são construídas dentro do espaço de busca. A eficiência do DBILP é apresentada através de um experimento utilizando três outros sistemas bem conceituados no meio acadêmico, dois orientados a atributo-valor: C4.5 e CN2; e um sistema ILP: Progol. A análise desse experimento indica que o DBILP é particularmente útil no processo de descoberta do conhecimento em banco de dados (KDD - Knowledge Discovery in Databases).
9

Suporte para audio em sistemas relacionais

Montane Ramos, Ania Mayelin 16 October 2000 (has links)
Orientador: Akebo Yamakami / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-27T13:08:22Z (GMT). No. of bitstreams: 1 MontaneRamos_AniaMayelin_M.pdf: 3708020 bytes, checksum: 0ebd93b82bd044adb0443d85fbc5dd91 (MD5) Previous issue date: 2000 / Resumo: Este trabalho propõe uma arquitetura genérica que visa o desenvolvimento de sistemas para o gerenciamento de áudio, sobre sistemas relacionais que suportem blocos binários. A arquitetura promove um tipo de dado para representar áudio nas relações, assim como interfaces apropriadas para gerenciá-lo, de maneira integrada aos dados convencionais. O objetivo principal do trabalho é oferecer uma plataforma comum que facilite o desenvolvimento de aplicações que integram áudio. Adicionalmente, apresenta-se uma implementação da arquitetura e duas aplicações protótipo, utilizadas na validação das idéias propostas / Abstract: This work defines a general architecture for audio management upon relational systems that support binary objects. The architecture promotes a data type to represent audio in relational tables and proper interfaces for integrated management of audio and conventional data. The main goal is to provide a common plataform to ease the work of audio application developers. The work aIs o describes an architecture implementation and two prototype applications that were used for validating the proposed ideas / Mestrado / Mestre em Engenharia Elétrica
10

Teste de software em aplicações de banco de dados relacional

Gonçalves, Klausner Vieira, 1978- 04 February 2003 (has links)
Orientador: Eliane Martins / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:45:09Z (GMT). No. of bitstreams: 1 Goncalves_KlausnerVieira_M.pdf: 1428663 bytes, checksum: b81e8057b76890177a04bfc4f1faf65e (MD5) Previous issue date: 2003 / Resumo: A evolução do uso de sistemas computacionais nas atividades humanas tem exigido cada vez mais um alto nível de qualidade dos softwares. Esta busca para garantir a qualidade do software toma o processo de desenvolvimento de software mais dificil e complexo. Na tentativa de reduzir os custos e aumentar a qualidade da atividade de teste, várias técnicas e critérios vêm sendo propostos, onde a diferença entre essas técnicas está na origem da informação que é utilizada para avaliar ou construir conjuntos de casos de teste, sendo que cada técnica possui uma variedade de critérios para esse: fim. Com o aumento expressivo de aplicações que utilizam Banco de Dados Relaciona!, toma-se necessária a adequação de técnicas e critérios de Teste de Software para os testes destas aplicações. O presente trabalho visa apresentar técnicas de Teste de Software em Aplicações de Banco de Dados Relaciona! através da utilização de técnicas de Teste Estrutural (Caixa Branca) e Teste Funcional (Caixa Preta). A partir do estudo destas técnicas é definida uma estratégia de teste que cobre Teste Estrutural baseado em critérios de cobertura de Fluxo de Controle e Complexidade Cic10mática e Testes Funcionais baseados em Particionamento de Equivalência e Análise de Valor Limite. Para apoiar esta estratégia é desenvolvida também uma ferramenta de auxílio para execução dos testes (STest for Delphi) / Abstract: The evolution of the use of computational systems in the human activities beings has demanded each time plus one high leveI of qua1ity of softwares. This search to guarantee the quality of software becomes the process of software development of more difficult and complexo In the attempt to reduce the costs and to increase the quality of the activity of test, severa! techniques and criteria come being proposed, where the difference between these techniques is in the origin of the information that is used to evaluate or to construct sets of test cases, being that each technique possesss a variety of criteria for this end. With the expressive increase of applications that use Relational Database, one becomes necessary the adequacy oftechniques and criteria ofTest ofSoftware for the tests ofthese applications. The present work allns at to present techniques of Test of Software in Applications of Relational Database through the use of techniques of Structural Test (White Box) and Functional Test (Black Box). From the study of these techniques is de:6ned a test strategy that has covered established Structural Test in criteria of covering of Control Flow and Cyclomatic Complexity and Funcional Tests based in Equivalence Partitioning and Boundary Value Analysis. To support this strategy, it is also developed, a tool ofaid for execution ofthe tests (STest for Delphi) / Mestrado / Engenharia de Computação / Mestre em Computação

Page generated in 0.0643 seconds