• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1008
  • 110
  • 72
  • 23
  • 23
  • 23
  • 21
  • 15
  • 7
  • 7
  • 6
  • 6
  • 6
  • 4
  • 4
  • Tagged with
  • 1210
  • 308
  • 287
  • 273
  • 271
  • 268
  • 229
  • 194
  • 192
  • 182
  • 168
  • 152
  • 148
  • 127
  • 118
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

A new architectural approach for interoperability of real-time system components.

Emilia de Menezes Colonese 12 March 2010 (has links)
Interoperability is a key property of distributed applications, which is hard to achieve due to the large number of interoperating components and semantic heterogeneity. Distributed Real-Time Systems (RTS) have strict requirements of performance. The interoperability of Distributed RTS components challenges the computer engineering community to fulfill these requirements. These systems are increasingly based on Commercial-Off-The-Shelves (COTS) middlewares for data exchange, which design is implemented to solve the interoperability problem for several context-domain systems and support many distinct computational requirements. As a result, the complexity of these middleware solutions deteriorates the overall system performance, which is unacceptable according to RTS requirements. This work brings a new approach for RTS interoperability, since it is focused on the basic middlewares functionality (distributed computing) for the RTS domain-context. The solution provides a mechanism, named Interoperability Mechanism, designed to substitute the interfaces translations used in actual middleware systems. Hence, the proposed solution includes an open, reusable and standardized Component-based Architectural Reference-Model including the interoperability aspect, named IRMA that delivers specific domain-context interoperability solution eliminating complex middlewares solutions. Therefore, the new approach facilitates the development of an open, reusable, standardized, and interoperable RTS by implementing the IRMA framework. The contribution of the proposed approach is an effective communication process among RTS components that reduces architectural layers, and the development effort due to the formalized Reference-Model design. The IRMA framework is applied in a RTS prototype to test and validate the new approach, providing indications of improvements.
732

Implementação de operações booleanas regularizadas entre primitivas CSG em VRML.

Ismar Frango Silveira 00 December 1997 (has links)
A Modelagem de Sólidos vem se estabelecendo como uma área da Computação Gráfica em pleno crescimento, sendo responsável pelo tratamento de problemas envolvendo a manipulação, análise e exibição interativa de modelos computacionais de objetos sólidos. Sistemas de CAD, CAM e CAE contribuíram para a popularização do uso de diversos conceitos dessa área. Ademais, o recente advento da Realidade Virtual mostrou a importância da aplicação de tais conceitos no projeto de mundos virtuais. A intenção inicial do presente trabalho foi a de elaborar um Sistema Modelador de Sólidos completo. Contudo, um sistema de tal monta demandaria mais tempo do que o disponível, além de exigir o trabalho em conjunto de uma equipe de analistas e programadores. Assim sendo, os esforços foram aplicados na elaboração de um sistema de suporte às Operações Booleanas Regularizadas, que são o cerne da técnica CSG. Tal sistema foi projetado de forma a garantir a portibilidade necessária para permitir sua execuçãm em diversos tipos de plataformas de hardware e software. Assim sendo, o presente trabalho propõe-se a estudar, analisar e dar suporte às Operações Booleanas Regularizadas entre primitivas CSG inseridas em mundos virtuais escritos em VRML (Virtual Reality Modeling Language), que não dá suporte a tais operadores. Apresenta-se aqui uma extensão à tal linguagem, além de métodos e algoritmos utilizados para a aproximação dos sólidos através da técnica de octrees.
733

Proposta de processo de desenvolvimento para sistemas de comando e controle

Jorge Habib Hanna El Khouri 01 November 1991 (has links)
Esta dissertação propõe um ambiente de desenvolvimento de software para o setor de geração e transmissão de energia. O espaço problema delimitado abrange o sistema de potência formado pelo setor de 60 Hz da interligação ITAIPU/FURNAS. A Análise Essencial é utilizada para especificar um sistema independente da tecnologia de implementação. O modelo da essência identifica corno itens criticos: a representação em console da configuração dos elementos que compõem o sistema de potência, e a formalização das instruções de operação aplicáveis ao Esquema Suplementar de Proteção e à Operação em Emergência do sistema interligado. Assim, na continuação deste trabalho, é utilizado o paradigma orientado para objeto na obtenção do tipo abstrato diagrama, que soluciona o item relacionado com a representação do estado de operação do sistema de potência. Adicionalmente, a tecnologia de Inteligência Artificial, mais especificamente Sistemas Especialistas, é utilizada para formalizar as instruções de operação e fornecer aos despachantes os procedimentos para manter o sistema interligado em configuração permitida.
734

Benchmarking software requirements documentation for space applications

Paulo Claudino Véras 04 October 2011 (has links)
Poorly written requirements are a common source of software defects. In application areas like space systems, the cost of malfunctioning software can be very high. This way, assessing the quality of software requirements before coding is of utmost importance. This work proposes a systematic procedure for assessing software requirements for space systems that adopt the European Cooperation for Space Standardization (ECSS) standards. The main goal is to provide a low-cost, easy-to-use benchmarking procedure that can be applied during the software requirements review to guarantee that the requirements specifications comply with the ECSS standards, as well as they do not have any one of the most frequent errors on this kind of document. The benchmark includes three checklists that are composed of a set of questions to be applied to the requirements specification: the first is based directly on the ECSS Packet Utilization Standard (PUS), the second one is based on the Conformance and Fault Injection (CoFI) methodology, and the last one is based on a field study about the most common real errors found in software requirements specification of space applications. The goal of the field study is to understand and characterize the most frequent types of requirement problems in this critical application domain. The results of the study are also used to propose a set of operators that define how to inject realistic errors in requirement documents. The benchmark is applied to software requirements specifications of three projects (one academic project and two industrial space projects) for two of the services described in the PUS by seven specialists. The obtained results were compared and discussed.
735

Uma abordagem de teste de integração para aplicações orientadas a objetos baseada na reutilização de teste de unidade

Lucas Gonçalves Nadalete 05 August 2011 (has links)
A atividade de teste de software é realizada visando a assegurar a maior qualidade possível nos produtos de software. O uso e a aplicação de testes de unidade no desenvolvimento de software Orientado a Objetos têm sido cada vez mais comuns com o surgimento de abordagens de desenvolvimento ágil, e de técnicas como o Desenvolvimento Dirigido por Teste (TDD) na Engenharia de Software. Dessa forma, os testes aplicados em nível de integração assumem exímia relevância, ao propiciarem a validação da interoperabilidade entre as unidades que compõem o sistema de software. No entanto, o custo e esforço de se derivar ou construir, e ao mesmo tempo executar os testes de integração em uma progressão ordenada e controlada, representam variáveis que podem inviabilizar sua aplicação. Assim, o foco principal desta pesquisa recai sobre a necessidade de uma estratégia de teste de integração que possibilite o reuso dos testes de unidade gerados, no estabelecimento da precedência de integração entre as unidades, e na derivação e execução dos testes de integração, visando a reduzir o esforço e custo das atividades de teste. Dessa forma, a principal contribuição desta pesquisa consiste na concepção e desenvolvimento de uma abordagem para teste de integração em software orientado a objetos, que propicia o teste de interações interclasses. Para tornar possível sua aplicação, um diagrama de dependências entre testes de unidade, uma estratégia de derivação e execução de teste de integração e um protótipo de framework de apoio a essa atividade também foram desenvolvidos. Além de uma fundamentação teórica e de um levantamento sobre os principais trabalhos relacionados existentes, esta pesquisa apresenta a aplicação da abordagem concebida em dois estudos de caso distintos, buscando mostrar a sua aplicabilidade e exequibilidade, acompanhada por análises e discussões dos principais resultados obtidos.
736

EARLY-FIX : um framework para predição de manutenção corretiva de software utilizando métricas de produto

Gabriel de Souza Pereira Moreira 14 December 2011 (has links)
A manutenção de software tem consumido mais de 50% do esforço de desenvolvimento e até 90% do ciclo de vida de um software. Localizar e corrigir defeitos após a entrega de um software apresenta frequentemente custos elevados em relação às fases anteriores do projeto. A predição de defeitos tem atraído crescente interesse na indústria e na comunidade científica. Uma das abordagens adotadas vem sendo utilização de métricas de produto de software, obtidas através de análise estática de código, como insumos para predição de manutenção corretiva. Neste contexto, diversas técnicas de predição têm sido propostas e utilizadas, baseadas em técnicas estatísticas de regressão e de aprendizado de máquina. Entretanto, a grande variedade de métricas de software e técnicas tem dificultado a adoção da prática de predição de defeitos em projetos reais, por exigirem conhecimento especializado e elevado esforço de investigação. Neste trabalho de pesquisa, é investigado, concebido, implementado e verificado um framework, denominado EARLY-FIX, para predição de manutenção corretiva de software, utilizando métricas de produto. O EARLY-FIX representa a principal contribuição desta pesquisa e endereça problemas enfrentados para obtenção das informações necessárias para predição de defeitos em projetos de software desenvolvidos com processos iterativos. O EARLY-FIX compõe-se de métodos de medição e de calibração que permitem sua execução automatizada, possibilitando sua implementação em projetos de forma transparente e não-intrusiva. O EARLY-FIX envolve ainda modelos de indicadores preditivos que visam a identificação de módulos com maior propensão a manutenções corretivas. Desta forma, os indicadores fornecem insumos para priorização de atividades de qualidade, como inspeção, refatoração e testes. Finalmente, realiza-se a implementação e a verificação do EARLY-FIX em uma análise histórica, considerando dois projetos da indústria desenvolvidos segundo o paradigma Orientado a Objetos. Comparações entre os modelos gerados por cinco técnicas de regressão estatística estão entre os principais resultados obtidos nesta pesquisa.
737

Detecção da malha viária na periferia urbana de São Paulo utilizando imagens de alta resolução espacial e classificação orientada a objetos. / Road detection over informal settlements in a suburban area of Sao Paulo city by using high resolution satellite image and a object-based classification approach.

Nóbrega, Rodrigo Affonso de Albuquerque 17 April 2007 (has links)
O crescimento descontrolado ocorrido nas atuais metrópoles de países em desenvolvimento requer intensos mapeamentos para a atualização da base de dados geográfica. O intenso processo de urbanização vivido na cidade de São Paulo desde os anos 70 ilustra bem esse cenário. Apesar de existirem levantamentos aéreos e, mais recentemente, imagens de satélite com alta resolução espacial, a necessidade de informações geográficas precisas, rápidas e menos onerosas é, mais do que nunca, um fato. Nesse sentido, a classificação automatizada de imagens de alta resolução espacial tem demonstrado resultados insatisfatórios ao utilizar classificadores pixel a pixel, em especial para áreas urbanas. O crescente sucesso da classificação de imagens baseada em objetos tem estimulado pesquisadores a criar novos meios de superar a limitação das tradicionais técnicas de classificação de imagens. A idéia central da classificação de imagens orientada a objetos é extrair objetos primitivos a partir das imagens e utilizar suas informações para a composição de regras e estratégias a serem aplicadas no processo classificatório. Além da análise espectral, a classificação de imagens baseada em objetos permite envolver análises geométricas e contextuais. Este trabalho reporta o uso da classificação baseada em objetos para detecção da malha viária, aplicado na periferia urbana da cidade de São Paulo. Áreas de ocupação irregular compõem a maior parte da área selecionada para o estudo, sendo que a malha viária reflete bem o padrão de ocupação não planejada dessa região. As ruas são em geral geometricamente irregulares e com diferentes tipos de pavimentação. Detectar a malha viária com base nessas características foi o desafio maior deste trabalho, que teve, como hipótese, a viabilidade do emprego da classificação orientada a objetos para essa finalidade. A metodologia apresentada utiliza uma imagem multiespectral do satélite IKONOS II. Como primeiros passos, processou-se a segmentação e calcularam-se as componentes principais. Classes auxiliares como áreas impermeabilizadas e áreas de solo exposto foram computadas utilizando funções apropriadas. Em suma, a partir das informações geométricas dos objetos, como largura, comprimento, coeficiente de assimetria, área, entre outros, alguns objetos foram selecionados como representantes da malha viária, e então analisados perante a informação contextual, para que fossem classificados como vias pavimentadas e vias não pavimentadas. Os resultados foram analisados mediante três diferentes métodos: 1) inspeção visual, na qual foi analisada qualitativamente a aderência entre as vias extraídas e as vias reais; 2) acurácia da classificação, através de comparações entre a malha viária detectada e a de referência, que forneceu parâmetros estatísticos de qualidade da classificação, como os erros de comissão e omissão ; 3) análise linear comparativa, a qual forneceu parâmetros como integridade (ou completeza) e precisão da malha viária detectada utilizando linhas referenciais e linhas extraídas dos polígonos das vias detectadas, obtidos por morfologia matemática. Considerando o alto grau de heterogeneidade das feições presentes na área de estudo, a acurácia geral alcançada foi boa. Embora a metodologia não tenha produzido um mapa viário, no sentido próprio da palavra, o uso combinado de imagens multispectrais de alta resolução espacial e da classificação baseada em objetos mostrou que a metodologia pode ser utilizada para minerar dados relativos a malha viária e produzir informações significantes para auxiliar a tomada de decisões. / Uncontrolled sprawl occurring in large cities of developing countries requires intensive mapping efforts to update geodatabases. The intense urbanization process experienced since the 70\'s in Sao Paulo city illustrates very well the reported scenario. Despite aerial data and, more recent, high spatial resolution satellite data which have been employed as basis for mapping, the need for precise, faster and cheaper mapping efforts is real. In this sense, automated classification of high resolution imagery has demonstrated unsatisfactory results when traditional per-pixel classifiers are used, especially for urban areas. The increasing success of object-based classification has stimulated researchers to create new methodologies to overcome this shortcoming of traditional approaches. The object-based image classification\'s idea is extract object-primitives from images and then use their information to compose rules and strategies to be applied on the classification process. Beyond the spectral analysis, geometric, and contextual analysis are also addressed on object-based classification. This work reports the use of object-based image classification applied on road detection over the suburban area of Sao Paulo city. Informal settlements compose the most part of the study area and the transportation network reflects the unplanned occupation. Roads are geometrically irregular and with different kind of pavements. Detecting roads based on these characteristics was the biggest challenge faced here, and this work hypothesizes object-based classification can be used to. The methodology presented employs an IKONOS II data. At first, principal components and segmentation were computed and then auxiliary data for impervious surface and bare soil areas were previously calculated from customized features. In short, based on geometric information as width, length, asymmetry, area, and more, objects were elected as road and then analyzed through contextual information as paved road or unpaved road. Results were analyzed under three different ways: 1) visual inspection, where the adherence between extracted road and real ones provided a good indicator for qualitative analysis ; 2) classification accuracy, by comparing detected road areas and referential ones, which provided statistical parameters for quality as omission and commission error ; 3) linear comparative analysis, which provided parameters as correctness and completeness using referential lines and lines arose from extracted areas based on mathematical morphology tools. Regarding the high degree of heterogeneity of features present on study area, the overall accuracy reached is good. Despite the methodology did not produce a road map, the results shown the combined use of high resolution multi-spectral imagery and object-based classification can effectively mine road features, producing significant information to support decision makers.
738

Núcleo gerenciador de objetos compatibilizando eficiência e flexibilidade / A core object manager balancing flexibility and eficiency

Valêncio, Carlos Roberto 06 September 2000 (has links)
A tecnologia de construção de Sistemas de Gerenciamento de Base de Dados tradicionais, em particular dos que suportam o Modelo Relacional, tem atendido às exigências das aplicações na área de negócios ao longo dos anos. No entanto, aplicações mais complexas, tais como projetos de Engenharia e manufatura (CAD, CAM e CIM1), experimentos científicos, suporte à Medicina, telecomunicações, sistemas de informação geográfica e sistemas multimídia, têm exigido recursos mais sofisticados, para os quais os atuais sistemas gerenciadores de base de dados não foram concebidos e, portanto, têm encontrado dificuldades em atender. Com o objetivo de disponibilizar novas tecnologias para o gerenciamento de dados não convencionais, esse trabalho descreve um Núcleo Gerenciador de Objetos que oferece um conjunto de recursos para suporte flexível e eficiente às atividades de gerenciamento de dados. Esse gerenciador é apresentado no contexto de um modelo de dados orientado a objetos, porém a maioria dos conceitos e soluções apresentadas podem ser aproveitadas em outros tipos de gerenciadores de dados, independentemente do modelo de dados suportado. Em particular, o núcleo pode ser utilizado tanto para a implementação de um gerenciador de dados orientados a objetos quanto para um gerenciador relacional. O núcleo prevê também sua utilização como gerenciadores de dados que suportem a manipulação de dados fracamente estruturados (ou semi-estruturados) e como gerenciador de documentos multimídia em aplicações centradas na Web. A implementação do Núcleo Gerenciador de Objetos foi executada de maneira modular numa arquitetura em camadas, que delimitam a implementação das funcionalidades oferecidas. Apesar da forte integração entre as diversas camadas, necessária para a operação eficiente dos gerenciadores de dados, essa arquitetura provê uma definição precisa dos diversos módulos, permitindo que mais de uma alternativa de implementação possa existir para cada módulo, tornando o sistema resultante altamente configurável. Dentre os principais tópicos para os quais esse trabalho apresenta contribuições inovadoras encontram-se: o gerenciamento de identificadores de objetos (Oids); gerenciamento de transação e controle de concorrência baseado na semântica da aplicação; otimização de acessos ao disco para execução de operações de modificação de registros dentro de transações; uso de estruturas de tuplas e listas concorrentemente, para agilizar o acesso e a definição dos atributos de objetos; e a manutenção de esquemas e dados integrados numa mesma estrutura. / The technologies employed to build the current generation of Database Management Systems - DBMS, including those based on the Relational Model have been enough to support the needs of traditional business application. However, more demanding applications, like computer-aided design and manufacturing (CAD, CAM and CIM), scientific data retrieval and analysis, computer aided medical systems, telecommunications, geographical information systems and multimedia systems yet have not been adequately supported. The objective of this work is to develop new technologies to build DBMSs that support those non-conventional applications. To this intend, we implemented an object manager kernel, incorporating a representative set of tools able to provide a flexible and efficient support for key DBMSs operations. The kernel is described based on an object-oriented manager. However almost every new techniques proposed can be used together with data managers supporting other data models. In particular, we show that this kernel can be used to build both Object-oriented and Relational DBMSs. The kernel also supports the construction of DBMSs that maintain loosely-structured data (or semi-structured data), providing a good starting point to build web-based applications to handle multimedia documents. The kernel was implemented in a modular, multi-level architecture. Each module provides a well-defined service, and has a well defined interface, so it is possible to have more than one implementation for each module, enabling the comparison or tuning of the kernel for each specific situations. Nonetheless, the structure enforces a tight module integration, enabling the efficient execution of the resulting DBMS. The main contributions of this work include new techniques to improve the following aspects of database managers: Object Identifier management - OIds; transaction and concurrency control based on the application data semantic; disk accesses optimization to manage page shadowing during transaction execution; use of attribute tuples and lists to define structures; and integrated schema and data storage into a common structure.
739

Incorporação do tipo de dado imagem em um banco de dados orientado a objetos / Supporting images in an object-oriented database

Santos, Rildo Ribeiro dos 26 November 1997 (has links)
Os Sistemas de Armazenamento e Comunicação de Imagens Médicas fornecem, para os físicos, médicos e técnicos de um centro de saúde, informações gráficas sobre vários aspectos envolvidos no diagnóstico de cada paciente. Atualmente, os exames médicos produzem uma grande quantidade de informação em função dos equipamentos médicos computadorizados, utilizados principalmente para se obter dados imagens internas dos pacientes. Este trabalho descreve os conceitos utilizados em Sistema de Banco de Dados Orientado a Objetos para manipular imagens medicas, de tal forma que possam ser recuperadas através de consultas, baseadas na descrição de seu conteúdo gráfico. A abordagem tradicional utiliza ícones e atributos textuais, armazenados juntamente com as imagens, para especificar as consultas. Este trabalho utiliza uma nova técnica de modelagem para definir o \"tipo de dado imagem\", que permite decidir, anteriormente à execução da consulta, os dados que possam ser significativos para cada imagem, no instante que esta é armazenada no Banco de Dados. Desta forma, a busca por uma determinada informação pode ser acelerada. durante a avaliação de uma consulta. / Picture Archiving and Communication System (PACS) applied in medical image storage provides graphical information of many aspects of the health, diseases and treatment of each patient for the physician and technicians of a health care center. Nowadays, medical exams can generate a large amount of data due to the computerized medical instruments used to collect the graphical information about the patients. This work describes the concepts used in an Object Oriented Data Base System to deal with medical images, so that it can be retrieved through queries based on the graphic contents of the stored images. The usual approach uses icons and textual attributes stored with the images to specify the queries. This work uses a novel modeling technique to define the \"image data type\", through which it is possible to decide, beforehand the query itself, the valuable data of each image when it is stored in the database, so the search can be accelerated when queries are issued.
740

Um processo para construção e instanciação de frameworks baseados em uma linguagem de padrões para um domínio específico. / A process for construction and instantiation of frameworks based on a domain-specific pattern language.

Braga, Rosana Teresinha Vaccare 14 February 2003 (has links)
Padrões, linguagens de padrões e frameworks são formas de reuso de software. A complexidade de frameworks, causada pela dificuldade tanto em construí-los quanto em utilizá-los, é um dos inibidores do uso dessa tecnologia. Um processo para facilitar a construção e instanciação de frameworks é apresentado. Uma linguagem de padrões é utilizada para apoiar todo o processo, desde a identificação da funcionalidade do framework, seu projeto, implementação, validação, até sua instanciação para sistemas específicos do domínio. O framework obtido é do tipo caixa-branca e sua instanciação é feita especializando-se suas classes para sistemas específicos. O processo inclui, também, a construção de uma ferramenta para automatizar a instanciação do framework, por meio da qual é possível obter um sistema específico fornecendo apenas informações sobre os padrões da linguagem utilizados na sua modelagem. O processo é ilustrado com a Linguagem de Padrões para Gestão de Recursos de Negócios (GRN), que serviu de base para construção do framework GREN. Apresenta-se também o GREN-Wizard, uma ferramenta para instanciação automática do GREN para sistemas no domínio da GRN. A avaliação do processo é feita por meio de alguns experimentos e vários relatos de uso dos diversos sub-processos que compõem o processo geral, usando o GREN, a GRN e o GREN-Wizard. / Patterns, pattern languages, and frameworks are ways of enhancing software reuse. The complexity of software frameworks, caused both by the difficulty to build and to use them, is one of the inhibitors of this technology. A process to ease the construction and instantiation of frameworks is presented, in which a pattern language is used to support the whole process, starting from the identification of the framework functionality, its design, implementation, validation, and its instantiation to domain-specific systems. The framework that results from applying the proposed process is white-box and its instantiation is done by specializing its abstract classes according to a specific system. The process includes the construction of a tool to automate the framework instantiation, through which it is possible to obtain a specific system only by supplying information about the language patterns used to model it. The proposed process is illustrated with the Pattern Language for Business Resource Management (GRN), which was used as the basis for the GREN framework construction. The GREN-Wizard is also presented, which is a tool to automatically instantiate the GREN framework to specific applications in the GRN domain. The proposed process is evaluated by a few experiments and several uses of the sub-processes that compose the general process, using GRN, GREN and the GREN-Wizard.

Page generated in 0.0544 seconds