• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 9
  • Tagged with
  • 64
  • 64
  • 26
  • 15
  • 14
  • 12
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Um sistema computacional dedicado para a optimização do posicionamento de figuras irregulares

Albuquerque, Célio Domingos Lemos January 2000 (has links)
Dissertação apresentada para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores, ramo Informática Industrial, na Faculdade de Engenharia da Universidade do Porto
32

Interacção caligráfica ambígua em sistemas computacionais de modelação

Pereira, João Paulo Jorge January 2004 (has links)
Dissertação apresentada para obtenção do grau de Doutor em Engenharia Electrotécnica e de Computadores, na Faculdade de Engenharia da Universidade do Porto, sob a orientação dos Professores Doutores Fernando Nunes Ferreira e Vasco Afonso da Silva Branco
33

Coordenação em sistemas multi-Agente : Aplicações na gestão universitária e futebol robótico

Reis, Luís Paulo Gonçalves dos January 2003 (has links)
Tese de doutoramento. Engenharia Electrotécnica e de Computadores. Faculdade de Engenharia. Universidade do Porto. 2003
34

Uso de Sistemas de Transições Modais de Kripke para Representacão de Comportamento Parcial no Desenvolvimento incremental e interativo de software

Machado, Efraim Zalmoxis de Almeida 30 November 2016 (has links)
Submitted by Marcos Samuel (msamjunior@gmail.com) on 2017-03-17T15:13:25Z No. of bitstreams: 1 dissertacao mestrado após alterações banca Copy.pdf: 2165404 bytes, checksum: 143e78d2a8df23ce0aa098625991160f (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-03-17T15:19:52Z (GMT) No. of bitstreams: 1 dissertacao mestrado após alterações banca Copy.pdf: 2165404 bytes, checksum: 143e78d2a8df23ce0aa098625991160f (MD5) / Made available in DSpace on 2017-03-17T15:19:52Z (GMT). No. of bitstreams: 1 dissertacao mestrado após alterações banca Copy.pdf: 2165404 bytes, checksum: 143e78d2a8df23ce0aa098625991160f (MD5) / O projeto de software na abordagem iterativa e incremental lida com novos requisitos ao longo do desenvolvimento, que implicam em constantes mudanças no projeto, e mecanismos que dêem suporte para o desenvolvimento na presença de informação parcial e incompleta são importantes para reduzir o impacto dessas mudanças. Expressar incertezas a respeito do comportamento pretendido do software ou componente pode evitar a tomada de decisões precipitadas, que poderiam acarretar em erros de projeto. Neste contexto, diversos trabalhos utilizam sistemas de transições modais para especificar um software e/ou seus componentes com informação parcial e utilizam relações e operações sobre estes modelos para dar suporte ao processo de desenvolvimento. Os sistemas de transições modais permitem expressar incerteza deforma explícita através de modalidades em suas transições. Sobre estes modelos, uma relação de refinamento pode ser definida para garantir que modelos criados, nas iterações e incrementos, respeitem as propriedades anteriormente definidas em outros modelos, garantindo a correção dos mesmos ao longo do processo de desenvolvimento. Além disto, operações para unificar diversos modelos de um mesmo componente em um único modelo e operações para representar execução em paralelo de diversos componentes em um nível de sistema, são propostas. Sistema de Transição Modal de Kripke (KMTS) é um tipo de sistema de transições modais que além de expressar modalidades em transições, também permite expressar indefinições em nível de proposições nos estados. A indeterminação nos estados é interessante, pois permite que vários estados sejam representados em um mesmo estado, evitando uma definição prévia de todos os estados do sistema nas fases iniciais do desenvolvimento. Todavia, existem poucos trabalhos que utilizam KMTS como modelos para especificação parcial aplicados no desenvolvimento de software. O presente trabalho estuda o uso de modelos KMTS para explicitar informações parciais durante o desenvolvimento de software, trazendo contribuições na criação, na análise e no reparo destes modelos. Em relação à criação de modelos propomos um algoritmo de síntese de modelos KMST a partir de diagramas de sequências anotados com Object Constraint Language (OCL) que é uma adaptação de um algoritmo proposto na literatura para modelos de transições modais (MTS). Em relação à análise de modelos, definimos as operações de conjunção e de composição paralela bem como a relação de refinamento modal forte para modelos KMTS. O conceito de refinamento para KMTS é também caracterizado nessa dissertação como um jogo e um algoritmo para o jogo do refinamento é proposto, discutido e validado. A contribuição no reparo de modelos se dá através do estudo do problema de reparo do refinamento para KMTS, isto é, como alterar um modelo KMTS para que ele seja um refinamento de outro modelo KMTS. Para este problema, algoritmos são também propostos, discutidos e validados. Entendemos que esta solução poderá trazer contribuições para o reparo automático de modelos e pode ser aplicada em outras áreas, como por exemplo, análise de impacto de mudanças para determinar qual a mudança menos custosa a se fazer em um determinado modelo para que ele possua determinadas propriedades. A partir das contribuições na construção, análise e reparo de modelos KMTS, o presente trabalho define a base para um framework formal que pode ser utilizado na construção e evolução de software.
35

OOFM - UMA TÉCNICA DE MODELAGEM DE FEATURES ORIENTADA A OBJETOS

Sarinho, Victor Travassos 18 February 2013 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-30T21:30:31Z No. of bitstreams: 1 TESE - Victor Sarinho.pdf: 2891194 bytes, checksum: 012f03f26406a40700502e1e0ff70b96 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-01T12:38:02Z (GMT) No. of bitstreams: 1 TESE - Victor Sarinho.pdf: 2891194 bytes, checksum: 012f03f26406a40700502e1e0ff70b96 (MD5) / Made available in DSpace on 2017-06-01T12:38:02Z (GMT). No. of bitstreams: 1 TESE - Victor Sarinho.pdf: 2891194 bytes, checksum: 012f03f26406a40700502e1e0ff70b96 (MD5) / Modelagem de Features é uma abordagem popular que descreve a comunalidade e variabilidade de famílias de softwares em termos de features. Variabilidade em Software Product Lines (SPLs) é geralmente descrita usando features, e instâncias de SPLs também são definidas pela seleção ou configuração de features requeridas. Entretanto, abordagens diversas e complexas de SPLs têm sido obtidas com o uso de features. Diferentes abordagens de modelagem de features também têm sido propostas nos últimos anos, abrindo novas perspectivas em aspectos de variabilidade a serem gerenciados. A técnica de Modelagem de Features Orientada a Objetos (OOFM) foi proposta com o objetivo de cobrir tais aspectos de variabilidade, bem como fornecer uma solução padronizada de produção de SPLs baseadas em features. OOFM se baseia em abordagens OO representativas de features, operações comuns identificadas de manipulação de features, e recursos OO de programação e de herança existentes. Sua formalização é baseada em expressões OCL definidas e Perfil UML modelado. Ferramentas de suporte incrementam a sua usabilidade e compatibilidade com relação a técnicas de modelagem de features existentes. Finalmente, OOFM Framework e OOFM Process desenvolvidos garantem a produção padronizada de SPLs e de sistemas concretos com base na OOFM. Foram realizadas importantes avaliações entre a proposta OOFM e técnicas de modelagem de features existentes. Como resultado, OOFM se apresentou como uma solução integrada de aspectos de variabilidade que permite a análise e o projeto da variabilidade de sistemas diversos em termos de features.
36

Understanding the Belief Systems behind Software Engineering Practices: Studies on Evidence-Based Practices in an Industrial Setting

Passos, Maria Carolina Mello 14 February 2014 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-31T19:45:42Z No. of bitstreams: 1 Versão final - Carol Passos.pdf: 2786576 bytes, checksum: 51176f0a4d3c8a2ac70f4fa2b6818b2c (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T14:52:01Z (GMT) No. of bitstreams: 1 Versão final - Carol Passos.pdf: 2786576 bytes, checksum: 51176f0a4d3c8a2ac70f4fa2b6818b2c (MD5) / Made available in DSpace on 2017-06-06T14:52:01Z (GMT). No. of bitstreams: 1 Versão final - Carol Passos.pdf: 2786576 bytes, checksum: 51176f0a4d3c8a2ac70f4fa2b6818b2c (MD5) / Many theories in health care and business administration seek answers to the fundamental question of why people behave the way they do. They aim to understand the beliefs underlying an intention or behavior. These theories are currently used to find out how people progress from intention to practice in business environments. In this dissertation, we focus our attention on understanding belief systems behind software engineering practice. Our work aims to characterize a belief system applying behavioral theories in software project teams in terms of the influence factors, such as beliefs, attitude, organizational culture and values, subjective norms, team confidence and autonomy, that actually impact on software practices in industrial settings. Our research went through two cycles, comprising three years of study in Brazilian software companies. A long-term ethnographic case study was conducted, employing participant observation, interviews, and document analysis. A set of interviews on origins and impacts of beliefs was performed with professionals from different project teams and companies. Conceptual frameworks were built based on behavioral theories models to focus and bound the collection of data and guide the synthesis of the results on the research questions posed. The results showed the strong influence of past experiences and organizational contexts on the software development practices of project teams. Based on the findings of the research, it became clear that beliefs alone do not lead project teams to action and behavior. Factors such as attitude toward behavior have a significant influence on practice. New information about something contribute to shape an opinion or predisposition to act and have the potential to affect the attitude depending on the strength of related beliefs, which leads to behavior intention. Another important issue is how consonant are the beliefs of a project team. Common strong beliefs are reflected into practices that project teams actually adopt. However there are beliefs without attitude that do not result in action, as well as team conflicts that hinder the adoption of new practices. All these findings motivated a search for behavioral theories that could explain and conceptualize human behavior. The study showed that it is possible to characterize belief systems in software project contexts within a behavioral perspective. We were able to provide rich narrative accounts for software engineering research and our approach has led to practical and useful recommendations for companies. The main contribution of this dissertation is to deepen relevant knowledge and experience on the characterization of beliefs in organizational contexts and how they and other influence factors actually impact practices, processes and decisions in software industry projects.
37

Fault model-based variability testing

Machado, Ivan do Carmo 21 July 2014 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-31T19:53:55Z No. of bitstreams: 1 Ph.D. Thesis - Ivan Machado - Full Version-1.pdf: 3242625 bytes, checksum: 76299cf9d79afd85a7c46155029ae95e (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T15:19:55Z (GMT) No. of bitstreams: 1 Ph.D. Thesis - Ivan Machado - Full Version-1.pdf: 3242625 bytes, checksum: 76299cf9d79afd85a7c46155029ae95e (MD5) / Made available in DSpace on 2017-06-06T15:19:55Z (GMT). No. of bitstreams: 1 Ph.D. Thesis - Ivan Machado - Full Version-1.pdf: 3242625 bytes, checksum: 76299cf9d79afd85a7c46155029ae95e (MD5) / Software Product Line (SPL) engineering has emerged as an important strategy to cope with the increasing demand of large-scale product customization. Owing to its variability management capabilities, SPL has provided companies with an efficient and effective means of delivering a set of products with higher quality at a lower cost, when compared to traditional software engineering strategies. However, such a benefit does not come for free. SPL demands cost-effective quality assurance techniques that attempt to minimize the overall effort, while improving, or at least not hurting, fault detection rates. Software testing, the most widely used approach for improving software quality in practice, has been largely explored to address this particular topic. State of the art SPL testing techniques are mainly focused on handling variability testing from a high level perspective, namely through the analysis of feature models, rather than concerning issues from a source code perspective. However, we believe that improvements in the quality of variable assets entail addressing testing issues both from high and low-level perspectives. By carrying out a series of empirical studies, gathering evidence from both the literature and the analysis of defects reported in three open source software systems, we identified and analyzed commonly reported defects from Java-based variability implementation mechanisms. Based on such evidence, we designed a method for building fault models for variability testing, from two main perspectives: test assessment, which focuses on the evaluation of the effectiveness of existing test suites; and test design, which aims to aid the construction of test sets, by focusing on fault-prone elements. The task of modeling typical or important faults provides a means to coming up with certain test inpus that can expose faults in the program unit. Hence, we hypothesize that understanding the nature of typical or important faults prior to developing the test sets would enhance their capability to find a particular set of errors. We performed a controlled experiment to assess the test effectiveness of using fault models to provide SPL testing with support to design test inputs. We observed promising results that confirm the hypothesis that combining fault models in an SPL testing process performs significantly better on improving the quality of test inputs. / A Engenharia de Linhas de Produtos de Software (LPS) surgiu como uma importante estratégia para lidar com a crescente demanda de customização de produtos de software em larga escala. Por sua capacidade de gerenciar variabilidade de forma sistemática, o paradigma de LPS tem proporcionado às empresas métodos eficientes e eficazes para alcançar a entrega de produtos de software com maior qualidade, a um custo de produção reduzido, quando comparado a estratégias tradicionais de desenvolvimento de software. No entanto, a obtenção de tais benefícios não é trivial. O paradigma impõe a necessidade de técnicas de garantia de qualidade eficazes, com bom custo-benefício, que tentem minimizar o esforço global, ao tempo em que se alcance melhorias nas taxas de detecção de falhas. Assim, a disciplina de testes de software, abordagem comumente utilizada na busca por melhoria na qualidade dos produtos de software, tem sido largamente explorada no contexto de LPS. As mais relevantes técnicas de testes em LPS estão focadas principalmente no gerenciamento de testes de variabilidade sob uma perspectiva de alto nível, notadamente através da análise de modelos, em sobreposição aos aspectos de mais baixo nível, isto é, sob o ponto de vista do código fonte. Entretanto, acreditamos que melhorias na qualidade dos artefatos de software variáveis implica na investigação de aspectos da disciplina de testes, em ambas as perspectivas, quer seja alto nível quer seja baixo nível. Através da realização de uma série de estudos empíricos, evidências foram obtidas a partir da análise de textos publicados na literatura, e a partir da análise de defeitos reportados em três sistemas de software de código aberto. Neste último caso, identificamos e analisamos defeitos provenientes do uso de mecanismos de implementação de variabilidade em Java. Com base nas evidências, construímos uma abordagem para construir modelos de falhas que auxiliem o teste de variabilidade, sob duas perspectivas principais: avaliação de teste, que incide sobre a avaliação da eficácia dos casos de testes existentes; e o projeto de teste, que visa auxiliar a construção de casos de teste, concentrando-se em elementos propensos a falhas. A tarefa de modelagem de falhas típicas ou importantes fornece um meio para identificar certas entradas de teste que podem expor falhas na execução do programa. Desta forma, a nossa hipótese é que a compreensão da natureza das falhas típicas, ou importantes, como tarefa anterior ao desenvolvimento dos casos de teste, tende a aumentar a capacidade dos testes em encontrar um determinado conjunto de defeitos, quando executados. Para avaliar a eficácia da abordagem proposta nesta tese, planejamos e executamos um experimento controlado. Os resultados mostraram-se promissores, provendo indícios de que a ideia de se combinar modelos de falha em um processo de teste de LPS pode trazer ganhos significativos a atividade de teste, bem como melhorar a qualidade dos dados de entrada de testes.
38

A Multi-Frame Adaptive 3D Non-Rigid Registration for Augmented Reality

Souza, Antônio Carlos dos Santos 19 December 2014 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-31T20:03:15Z No. of bitstreams: 1 tese antonio carlos dos santos souza.pdf: 22453471 bytes, checksum: e806e7751434e3bf6d6422c825465f35 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T15:24:55Z (GMT) No. of bitstreams: 1 tese antonio carlos dos santos souza.pdf: 22453471 bytes, checksum: e806e7751434e3bf6d6422c825465f35 (MD5) / Made available in DSpace on 2017-06-06T15:24:55Z (GMT). No. of bitstreams: 1 tese antonio carlos dos santos souza.pdf: 22453471 bytes, checksum: e806e7751434e3bf6d6422c825465f35 (MD5) / Alinhamento não-rígido tridimensional é fundamental em problemas de rastreamento e reconstrução de modelos tridimensionais deformáveis. Contudo, a maioria dos algoritmos de alinhamento não-rígido não se adequam aos requisitos de aplicações com renderização em tempo real. Aplicações como Realidade Aumentada sem marcadores necessitam de métodos rápidos para rastrear objetos não rígidos, que são tratados como marcadores naturais. Este trabalho explora essa lacuna e propõe uma abordagem para alinhamento não rígido 3D nesse tipo de cenário. Tal proposta é baseada na aplicação de algoritmos adaptativos, multi-frame e implementados em arquiteturas paralelas de uma GPU. Essa nova abordagem foi testada em um ambiente de RA sem marcadores com resultados superiores aos obtidos na literatura, tanto do ponto de vista de precisão quanto de desempenho.
39

Understanding Software Cohesion Metrics: Experimental Assessment of Conceptual Cohesion

Silva, Bruno Carreiro da 03 August 2015 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-06-01T20:31:21Z No. of bitstreams: 1 PDF - Tese.pdf: 3701924 bytes, checksum: 3dc861b1466bb1ab4f6727b3e26ad2f6 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-07T11:34:57Z (GMT) No. of bitstreams: 1 PDF - Tese.pdf: 3701924 bytes, checksum: 3dc861b1466bb1ab4f6727b3e26ad2f6 (MD5) / Made available in DSpace on 2017-06-07T11:34:57Z (GMT). No. of bitstreams: 1 PDF - Tese.pdf: 3701924 bytes, checksum: 3dc861b1466bb1ab4f6727b3e26ad2f6 (MD5) / Coesão tem sido reconhecida como um importante atributo de qualidade em design de software ao longo de décadas. Coesão é definida como o grau em que um módulo está focado em um único interesse do software. Entretanto, medir coesão não é trivial, pois é difícil capturar os interesses realizados por módulos de software. Métricas de coesão bem conhecidas dependem da estrutura do código fonte, pois elas avaliam como métodos dentro de um módulo acessam atributos em comum. No entanto, coesão nem sempre é bem representada pela estrutura internade módulos. Há situações em que métricas de coesão estrutural falham em representar a coesão de módulos de software. Sabendo desta limitação, pesquisadores têm proposto métricas de coesão conceitual, que consistem em formas alternativas de medição de coesão baseadas em quais interesses cada módulo realiza. Entretanto, falta evidência empírica para compreender como métricas de coesão conceitual se encaixam entre diversas métricas de coesão estrutural que têm sido propostas e bem estabelecidas nas últimas décadas e incorporadas em ferramentas de medição de software em escala industrial. Neste contexto, realizamos uma série de estudos empíricos a fim de explicar coesão conceitual como uma diferente forma de medir coesão quando comparada com coesão estrutural convencional. De modo geral, nossa pesquisa envolveu oitenta desenvolvedores de software de nove países, assim como seis sistemas de médio a grande porte, com código aberto e amplamente utilizados na indústria por diversos anos, incluindo um conjunto de aproximadamente trinta mil revisões no código fonte. Como resultado, nós pudemos explicar que coesão conceitual é ortogonal a coesão estrutural, por representar uma dimensão adicional na medição de coesão. Nós encontramos também que tal dimensão adicional é mais próxima de como desenvolvedores raciocinam sobre coesão de módulos e que coesão conceitual é um potencial indicador de propensão a mudança. Mais ainda, através de um estudo adicional, nós demonstramos e explicamos que a seleção de uma estratégia de mapeamento de interesses não deve ser negligenciada, pois isso impacta significativamente nos resultados de medição de coesão conceitual. Entre as estratégias estudadas, o mapeamento manual leva a melhores resultados. Entretanto, como isso requer muito esforço, uma das estratégias de mapeamento automático investigadas pode também ser considerada quando a estratégia manual não é viável. Nós disponibilizamos na web todos os nossos dados e materiais de estudo, incluindo um novo mapeamento manual de interesses sobre um sistema real, e três extensões de ferramenta para computar uma métrica de coesão conceitual. Esses materiais podem ser utilizados ou estendidos por pesquisadores em estudos futuros. Em resumo, nossos resultados podem ser diretamente usados por engenheiros de software quando estiverem planejando ou executando medição de coesão em suas tarefas e quando estiverem construindo ferramentas de medição para ambientes de desenvolvimento. De forma geral, isto justifica esforço adicional para continuar melhorando as tecnologias e o corpo de conhecimento sobre medição de coesão.
40

Understanding And Guiding Software Product Lines Evolution Based On Requirements Engineering Activities

Oliveira, Raphael Pereira de 10 September 2015 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-06-01T20:36:17Z No. of bitstreams: 1 2015_Thesis_Final_v01.pdf: 25381943 bytes, checksum: cf9b5a7ab05c5f433c6abe06c7c8815e (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-07T11:38:56Z (GMT) No. of bitstreams: 1 2015_Thesis_Final_v01.pdf: 25381943 bytes, checksum: cf9b5a7ab05c5f433c6abe06c7c8815e (MD5) / Made available in DSpace on 2017-06-07T11:38:56Z (GMT). No. of bitstreams: 1 2015_Thesis_Final_v01.pdf: 25381943 bytes, checksum: cf9b5a7ab05c5f433c6abe06c7c8815e (MD5) / Software Product Line (SPL) has emerged as an important strategy to cope with the increasing demand of large-scale products customization. SPL has provided companies with an efficient and effective means of delivering products with higher quality at a lower cost, when compared to traditional software engineering strategies. However, such benefits do not come for free. There is a necessity in SPL to deal with the evolution of its assets to support changes within the environment and user needs. These changes in SPL are firstly represented by requirements. Thus, SPL should manage the commonality and variability of products by means of a “Requirements Engineering (RE) - change management” process. Hence, besides dealing with the reuse and evolution of requirements in an SPL, the RE for SPL also needs an approach to represent explicitly the commonality and variability information (e.g., through feature models and use cases). To understand the evolution in SPL, this Thesis presents two empirical studies within industrial SPL projects and a systematic mapping study on SPL evolution. The two empirical studies evaluated Lehman’s laws of software evolution in two industrial SPL projects,demonstrating that most of the laws are supported by SPL environments. The systematic mapping study on SPL evolution identified approaches in the area and revealed gaps for researching, such as, that most of the proposed approaches perform the evolution of SPL requirements in an ad-hoc way and were evaluated through feasibility studies. These results led to systematize, through guidelines, the SPL processes by starting with the SPL requirements. Thus, it was proposed an approach to specify SPL requirements called Feature-Driven Requirements Engineering (FeDRE). FeDRE specifies SPL requirements in a systematic way driven by a feature model. To deal with the evolution of FeDRE requirements, a new approach called Feature-Driven Requirements Engineering Evolution (FeDRE2) was presented. FeDRE2 is responsible for guiding, in a systematic way, the SPL evolution based on activities from RE. Both proposed approaches, FeDRE and and FeDRE2, were evaluated and the results, besides being preliminaries, shown that the approaches were perceived as easy to use and also useful, coping with the improvement and systematization of SPL processes.

Page generated in 0.032 seconds