• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3337
  • 2155
  • 475
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6000
  • 3292
  • 3242
  • 3225
  • 3157
  • 3113
  • 3106
  • 3105
  • 3099
  • 3086
  • 3083
  • 798
  • 490
  • 460
  • 416
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Reduction of energy consumption in MPSOCS through a dynamic frequency scaling technique

Rosa, Thiago Raupp da January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:26Z (GMT). No. of bitstreams: 1 000439390-Texto+Completo-0.pdf: 3101139 bytes, checksum: 42025c16dd319c48f3a185f5f4c5dbc5 (MD5) Previous issue date: 2012 / NoC-based MPSoCs are employed in several embedded systems due to the high performance, achieved by using multiple processing elements (PEs). However, power and energy restrictions, especially in mobile applications, may render the design of MPSoCs over-constrained. Thus, the use of power management techniques is mandatory. Moreover, due to the high variability present in application workloads executed by these devices, this management must be performed dynamically. The use of traditional dynamic voltage and frequency scaling (DVFS) techniques proved to be useful in several scenarios to save energy. Nonetheless, due to technology scaling that limits the voltage variation and to the slow response of DVFS schemes, the use of such technique may become inadequate in newer DSM technology nodes. As alternative, the use of dynamic frequency scaling (DFS) may provide a good trade-off between power savings and power overhead. This work proposes a self-adaptable distributed DFS scheme for NoC-Based MPSoCs. Both NoC and PEs have an individual frequency control scheme. The DFS scheme for PEs takes into account the PE computation and communication loads to dynamically change the operating frequency. In the NoC, a DFS controller uses packet information and router activity to decide the router operating frequency. Also, the clock generation module is designed to provide a clock signal to PEs and NoC routers. The clock generation method is simple, based on local selective clock gating of a single global clock, provides a wide range of generated clocks, induces low area and power overheads and presents small response time. Synthetic and real applications were used to evaluate the proposed scheme. Results show that the number of executed instructions can be reduced by 65% (28% in average), with an execution time overhead up to only 14% (9% in average).The consequent power dissipation reduction in PEs reaches up to 52% (23% in average) and in the NoC up to 76% (71% in average). The power overhead induced by the proposed scheme is around 3% in PEs and around 10% in the NoC. / MPSoCs baseados em NoC têm sido empregados em sistemas embarcados devido ao seu alto desempenho, atingido através do uso de múltiplos elementos de processamento (PEs). Entretanto, a especificação da funcionalidade, agregada a especificação de requisitos de consumo de energia em aplicações móveis, pode comprometer o processo de projeto em termos de tempo e/ou custo. Dessa forma, a utilização de técnicas para gerenciamento de consumo de energia é essencial. Além disso, aplicações que possuam carga de trabalho dinâmica podem realizar esse gerenciamento dinamicamente. A utilização de técnicas para escalonamento dinâmico de tensão e frequência (DVFS) mostrou-se adequada para a redução do consumo de energia em sistemas computacionais. No entanto, devido à evolução da tecnologia, a variação mínima de tensão é menor, e o tempo de resposta elevado dos métodos de DVFS pode tornar esta técnica inadequada em tecnologias DSM (deep sub-micron). Como alternativa, a utilização de técnicas para escalonamento dinâmico de frequência (DFS) pode prover uma boa relação custo-benefício entre economia e consumo de energia. O presente trabalho apresenta um esquema de escalonamento dinâmico de frequência distribuído auto-adaptável para MPSoCs baseados em NoC. Ambos os elementos do MPSoC (NoC e PEs) possuem um esquema específico. O esquema para os PEs leva em consideração as cargas de computação e comunicação do mesmo. Na NoC, o esquema é controlado através de informações provenientes do pacote que trafega na rede e da atividade do roteador. Além disso, um módulo para geração local de relógio é apresentado, o qual é responsável por prover o sinal de relógio para PEs e roteadores da NoC.O esquema de geração do sinal de relógio é simples, baseado em roubo de ciclo de um sinal de relógio global. Este ainda fornece uma ampla variedade de frequências, induz baixo custo adicional de área e consumo e responde rapidamente a uma nova configuração. Para avaliar o esquema proposto, aplicações sintéticas e reais foram simuladas. Os resultados mostram que a redução no número de instruções executadas é de até 65% (28% em média), com um custo adicional de no máximo 14% no tempo de execução (9% em média). Em relação à dissipação de potência, os resultados mostram que a redução é de até 52% nos PEs (23% em média) e de até 76% na NoC (71% em média). O overhead de consumo apresentado pelo esquema dos PEs é de 3% e pelo esquema da NoC é de 10%.
322

Um modelo para a análise de impacto em código fonte usando ontologias e recuperação de informação

Noll, Rodrigo Perozzo January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:31Z (GMT). No. of bitstreams: 1 000442552-Texto+Completo-0.pdf: 9370705 bytes, checksum: 8a3aef50bd6e373e63349d63858be524 (MD5) Previous issue date: 2012 / Changes are inevitable during the product lifecycle. These changes are due different needs, such as the knowledge evolution of business processes, environment or infrastructure changes, etc. Under these circumstances, it is crucial to have the control about the knowledge of what these changes mean to the system. Impact analysis represents the process that creates this knowledge. The impact analysis has a wide meaning for software development, such as the assessment of source code structures or the control of project management constraints. This thesis aims to present a model to analyze the impact in source code using ontologies in order to improve precision and recall of the identified source code structures compared to existing techniques. The use of ontologies integrates a semantic layer under the traditional techniques founded in syntactic analysis. To develop the impact analysis model, it was defined two different sub models: traceability and probability. The traceability model receives as input the source code and domain ontology and generates a traceability ontology populated with links between domain concepts (classes and properties) and source code units (classes, methods and attributes). These links are populated by a lexical and semantic analyzer that categorize, normalize (token generation, expansion and elimination) and compare (stemming) each token. With the traceability ontology and a change request, the probabilistic model classifies each traceability link using Bayesian Belief Networks. To the probability calculus, the node classification used the Google PageRank algorithm and the arrows used frequency analysis TFIDF and conceptual dependency, defined in this thesis. The impact analysis model was implemented as an Eclipse plugin and was empirically evaluated using three controlled experiments. / Mudanças são inevitáveis durante o ciclo de vida do software. Estas mudanças são resultado de diferentes necessidades, como a evolução do conhecimento sobre os processos de negócio, alterações de ambiente, etc. Nestas circunstâncias, é crucial ter controle sobre o que essas mudanças representam na aplicação. A análise de impacto representa o processo que gera este conhecimento. Essa análise possui um significado abrangente dentro do desenvolvimento de software, incluindo desde a identificação de estruturas no código fonte até o controle das restrições de gestão de projeto. Esta tese apresenta um modelo para analisar o impacto no código fonte de uma aplicação utilizando ontologias, visando melhorar a precisão e revocação de estruturas identificadas se comparadas a técnicas existentes. O uso de ontologias integra uma perspectiva semântica nas técnicas tradicionalmente baseadas na análise sintática do código fonte. Para o desenvolvimento do modelo de análise de impacto, foram definidos dois submodelos: o de rastreabilidade e o de probabilidade.O modelo de rastreabilidade recebe como entrada o código fonte e uma ontologia de domínio e gera como resultado uma ontologia de rastreabilidade populada automaticamente com elos entre conceitos do domínio (classes e propriedades) e estruturas do código (classes, métodos e atributos). Estes elos são populados através de um analisador léxico e semântico que realiza a categorização, normalização (geração de tokens, expansão e eliminação) e comparação (stemming). Com base na ontologia de rastreabilidade e em um requisito de mudança, o modelo probabilístico classifica cada elo de rastreabilidade utilizando o modelo de Redes de Crenças Bayesianas. Para o cálculo de probabilidade, a classificação dos nodos utilizou o algoritmo PageRank do Google e das arestas, a análise de frequência TFIDF e a dependência conceitual, definida nesta tese. Este modelo de análise de impacto foi implementado como um plugin do eclipse e foi avaliado empiricamente através de três experimentos controlados.
323

Alocação de tarefas e comunicação entre tarefas em MPSoCs

Woszezenki, Cristiane Raquel January 2007 (has links)
Made available in DSpace on 2013-08-07T18:42:32Z (GMT). No. of bitstreams: 1 000391904-Texto+Completo-0.pdf: 2090015 bytes, checksum: 1ffa43fc181390380d561b08c1d9f13e (MD5) Previous issue date: 2007 / MPSoCs (Multiprocessor System on Chip) are an increasingly important trend in the design of embedded systems implemented as SoCs, since they facilitate the fulfillment of application requirements. This is because several processors, dedicated hardware modules memory blocks and interconnection media compose the architecture of such systems, making available a higher processing power when compared to equivalent monoprocessor systems. However, strategies to obtain the potential processing capacity offered by such architectures need to be better understood and explored. To enable evaluating such strategies, it is necessary to have available a hardware/software infrastructure capable to manage MPSoC tasks execution. From such an infrastructure, it should be possible, for example, to dynamically map tasks on processors, balancing the MPSoC workload through dynamic task allocation strategies. The state of the art in the available literature explores static and dynamic task allocation strategies on MPSoCs and evaluates their viability and efficiency. Nonetheless, the need to create the hardware/software infrastructure to enable strategy exploration constitutes a bottleneck for the advance of this technology. Additionally, most works employ quite abstract models to evaluate the proposed approaches, reducing the reliability of the reported results. The main contribution of the present work is the proposition and implementation of an MPSoC platform called HMPS (Hermes Multiprocessor System). HMPS offers a hardware/software infrastructure enabling to manage task execution in MPSoC systems. The HMPS platform is based on homogeneous multiprocessing, and has a master-slave architecture. The platform employs an network on chip (NoC) as interconnection media and allows that tasks be allocated either statically or dynamically. The platform allows several distinct allocation strategies to be implemented and evaluated at a quite detailed level of abstraction. HMPS is expected to be the starting point for several future works, contributing to the research on MPSoCs. This document presents the proposition and implementation of the HMPS platform. For the hardware infrastructure, the platform employs the open source processor Plasma and the HERMES NoC, implemented by the GAPH Research Group. Some specific hardware modules were developed for the platform and some changes were made in the Plasma processor, with the goal of connecting the processor to the NoC and supporting task allocation at each processor. As for the software infrastructure, HMPS provides a multitasking microkernel executing in each slave processor and the task allocation application running on the master processor. Two task allocation strategies are available in HMPS: one static and one dynamic. / MPSoCs (do inglês, Multiprocessor System On Chip) constituem uma tendência no projeto de sistemas embarcados, pois possibilitam o melhor atendimento dos requisitos da aplicação. Isso se deve ao fato de que a arquitetura desses sistemas é composta por vários processadores, módulos de hardware dedicados, memória e meio de interconexão, fornecendo um maior poder computacional quando comparados a sistemas monoprocessados equivalentes. No entanto, estratégias que possibilitem o aproveitamento da capacidade de processamento destas arquiteturas precisam ser mais bem entendidas e exploradas. Para isso, é necessário dispor de infra-estruturas de hardware e software que habilitem gerenciar a execução de tarefas no MPSoC. A partir destas infra-estruturas deve ser possível, por exemplo, mapear tarefas dinamicamente nos processadores, balanceando a carga de trabalho do MPSoC através de estratégias de alocação dinâmica de tarefas. O estado da arte da bibliografia no tema explora estratégias de alocação estática e dinâmica de tarefas sobre MPSoCs e avalia a viabilidade e eficiência das mesmas. Contudo, a necessidade de criação das infra-estruturas de hardware e software para viabilizar a exploração destas estratégias constitui-se um gargalo no avanço desta tecnologia. Adicionalmente, a maioria dos trabalhos utiliza plataformas modeladas em níveis muito abstratos de modelagem para avaliação das abordagens pesquisadas, reduzindo a confiabilidade dos resultados relatados. A principal contribuição do presente trabalho é a proposta e implementação de uma plataforma MPSoC denominada HMPS (Hermes Multiprocessor System). HMPS conta com uma infra-estrutura de hardware e uma infra-estrutura de software, capazes de gerenciar a execução de tarefas no sistema.A plataforma HMPS é baseada em multiprocessamento homogêneo, e possui uma arquitetura de processadores mestre-escravo. A plataforma utiliza como meio de interconexão uma rede intra-chip (NoC) e possibilita que tarefas possam ser alocadas estática e/ou dinamicamente no sistema. Com isso, várias estratégias de alocação distintas podem ser implementadas e avaliadas. HMPS deverá ser um ponto de partida para vários trabalhos, contribuindo para a pesquisa na área de MPSoCs. Este documento apresenta a proposta e a implementação da plataforma HMPS. Para a infra-estrutura de hardware utilizou-se a NoC HERMES, desenvolvida pelo grupo de pesquisa GAPH, e o processador de código aberto Plasma disponível no site OpenCores. Módulos de hardware foram desenvolvidos e alterações no código do Plasma foram realizadas, visando conectar o processador à NoC e realizar a alocação de tarefas na memória do processador. Para a infraestrutura de software, foi desenvolvido um microkernel multitarefa que executa em cada processador escravo e a aplicação de alocação de tarefas que executa no processador mestre. São exploradas duas estratégias de alocação de tarefas: uma estática e uma dinâmica.
324

Algoritmos de particionamento para MPSoCs heterogêneos baseados em NoC

Pinotti, Igor Kramer January 2013 (has links)
Made available in DSpace on 2013-08-07T18:42:36Z (GMT). No. of bitstreams: 1 000448655-Texto+Completo-0.pdf: 3228559 bytes, checksum: af4e73cef74eca9bd8a7fea60aae927f (MD5) Previous issue date: 2013 / Several new applications are composed by heterogeneity of tasks implying high complexity degree, and requiring high processing and communicating rate. Multiprocessor System-on-Chip (MPSoC) based on Network-on-Chip (NoC) is a promising targeting architecture to fulfill these requirements, due to its high computation and communication parallelism that enables several tasks executed at the same time. Furthermore, these applications requirements are better fulfilled by MPSoC composed by different types of processors – heterogeneous MPSoC. One challenge in current heterogeneous MPSoC design is partitioning of application tasks, aiming energy consumption minimization and fair load balance. This work contribution is twofold: (i) analysis and comparison of partitioning algorithms; and (ii) the evaluation of partitioning as a pre-mapping task. This work analyzes and compares stochastic and new heuristic partitioning algorithms for obtaining low energy consumption and efficient load balance when applied to tasks partitioning onto heterogeneous MPSoC. In addition, performance results obtained from simulations indicate that the static partitioning technique can be used on application tasks before mapping activities to improve the quality on the static or dynamic mapping and also for minimizing processing time. / Várias aplicações novas são compostas por uma heterogeneidade de tarefas implicando alto grau de complexidade, e requerendo grande capacidade de processamento e comunicação eficiente. Multiprocessor System-on-Chip (MPSoC) baseado em Network-on-Chip (NoC) é uma arquitetura alvo promissora com capacidade de atender diversos requisitos de uma aplicação alvo, devido à alta capacidade de computação e grande paralelismo de comunicação que possibilitam a execução de diversas tarefas simultaneamente. Além disso, requisitos de diversas aplicações embarcadas são melhores atendidos por um MPSoC composto por vários tipos de processadores – MPSoC heterogêneo. Um desafio atual no projeto de MPSoC heterogêneo é particionar tarefas, almejando minimizar consumo de energia e ter balanceamento de carga apropriado. Este trabalho contribui duplamente em: (i) análise e comparação de algoritmos de particionamento; e (ii) avaliação do particionamento como uma atividade pré-mapeamento. Este trabalho analisa e compara algoritmos de particionamentos estocásticos e heurísticos, elaborados para obter baixo consumo de energia e balanceamento de carga eficiente quando aplicados a particionamento de tarefas em um MPSoC heterogêneo. Além disto, resultados de desempenho, obtidos através de simulações, indicam que a técnica de particionamento estático de tarefas pode ser previamente aplicada à atividade de mapeamento de grupos de tarefas em processadores da arquitetura alvo, aprimorando a qualidade do mapeamento estático ou dinâmico, e ainda, minimizando o tempo de processamento.
325

Uso de relações semântico-estruturais no aprimoramento do cálculo da similaridade semântica: um estudo voltado a estruturas ontológicas em língua portuguesa

Brandolt, Josiane Fontoura dos Anjos January 2009 (has links)
Made available in DSpace on 2013-08-07T18:42:46Z (GMT). No. of bitstreams: 1 000416526-Texto+Completo-0.pdf: 2208042 bytes, checksum: 26409ec36e39b51edbbc8ac6e980a237 (MD5) Previous issue date: 2009 / This work presents a study on alternative techniques to improve SiSe measure (Semantic Similarity), which was proposed by Freitas [FRE07]. This measure refers to the mapping of terms between different ontological structures, using an adaptation of the Taxonomic Model of Maedche and Staab (2002) for the semantic similarity calculus. SiSe makes a similarity comparison between terms of different ontological structures through term hierarchy analysis, their superconcepts and subconcepts. In this context, the resulting coefficient is the semantic-structural similarity between terms from ontological structures. The original SiSe measure showed relatively satisfactory coefficients for the semantic-structural mapping. However, it did not achieve its goals in some testing cases. Some examples are the results considered as false positives and the similarity cases that were not detected by the measure (false negatives). Based on these problems, new structural similarity strategies are proposed to improve the SiSe measure. These strategies are mostly based on related works which deal with structural similarity through: i) the attribution of adequacy factors based in the term position in the ontological structural hierarchy; ii) the arrangement of sets formed by their super-concepts; iii) the arrangement of sets formed by their sub-concepts; and iv) the usage of the corrected Jaccard measure. These strategies are explained and evaluated according to Golden Mapping and state of the art metrics: precision, recall and F-measure. The obtained results reached 100% of accuracy in SiSe false positive cases. / O presente trabalho tem como objetivo estudar alternativas para aprimorar a medida SiSe (Similaridade Semântica), que foi proposta por Freitas [FRE07]. Esta medida visa o mapeamento de termos entre estruturas ontológicas distintas, utilizando uma adaptação do Modelo Taxonômico de Maedche e Staab [MAE02b] para o cálculo da similaridade semântica que faz uma comparação da similaridade entre termos de estruturas ontológicas distintas através da análise da hierarquia em que os mesmos se inserem, seus superconceitos e subconceitos. Desta forma, o coeficiente resultante é a similaridade semântico-estrutural entre os termos das estruturas ontológicas. A medida SiSe levou a coeficientes de similaridade considerados relativamente satisfatórios para o mapeamento semântico-estrutural, porém não atingiu seus objetivos em alguns casos para os quais foi testada. Incluem-se aqui os resultados considerados como falsos positivos e os casos de similaridade que a medida não detectou (falsos negativos). Partindo desses problemas, estratégias de similaridade estrutural são propostas para aprimorar, assim, a medida SiSe. As estratégias são baseadas, em sua maioria, em trabalhos da literatura que abordam a similaridade estrutural através de: i) atribuições de fatores de adequação fundamentados na posição dos termos na hierarquia da estrutura ontológica; ii) atribuições de conjuntos formados pelos superconceitos dos termos analisados; iii) atribuições de conjuntos formados pelos subconceitos destes termos e; iv) o uso da medida de Jaccard corrigida. As estratégias são descritas e avaliadas de acordo com um recurso denominado Golden Mapping e métricas mais comumente utilizadas na literatura: precisão, abrangência e medida-F. Os resultados obtidos chegaram a 100% de acurácia no que se refere aos falsos positivos da SiSe.
326

Um método evolutivo para aplicação de programas de métricas em processos de desenvolvimento de software

Bogoni, Leandro Paulo January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:02Z (GMT). No. of bitstreams: 1 000397937-Texto+Completo-0.pdf: 1484233 bytes, checksum: f9e9bb6f678f9d8df493baf78e068876 (MD5) Previous issue date: 2007 / This work presents a method to extract, organize and present Software- Development-Process (SDP) metrics, taking into account the evolution of SDP scheme and corresponding metrics program. Based on a Data Warehousing environment approach, the proposed solution targets the recall of metrics previously captured, considering different SDP models and metrics programs. To achieve such metrics recall, a set of procedures on how to properly handle metrics inserting, updating and deleting are proposed. The goal is to build a solid information-base of SDP metrics. The requirements for the method were identified in an Information Technology organization, CMMI2-certified, which the majority of software projects are business process-oriented. The main contribution of this work is the ability to properly store and handle current and past metrics into a unique metrics repository. Besides, older metrics remain comparable to current ones, focusing on a better control of software projects and higher quality of corresponding software products. / Este trabalho apresenta um método para extração, organização e apresentação de métricas para Processo de Desenvolvimento de Software (PDS), levando em consideração a evolução do próprio PDS e do conjunto de métricas correspondente. A solução, baseada em um ambiente de Data Warehousing, tem a finalidade de resgatar medições feitas em projetos passados, sob diferentes modelos de PDS e programas de métricas e formar uma base sólida de informações desses projetos. Para viabilizar o resgate destas medições, são propostos procedimentos para tratar adequadamente a criação, alteração e exclusão de métricas. Tais requisitos foram identificados em uma empresa de Tecnologia de Informação, certificada CMMI nível 2, cuja principal característica é que a maioria das aplicações desenvolvidas é voltada à automação de Processos de Negócio. A principal contribuição deste trabalho é a de permitir que medições presentes e passadas possam ser mantidas em um repositório único de métricas da organização e que as mesmas sejam comparáveis, viabilizando um melhor controle dos projetos de software e qualidade de seus produtos.
327

Modelo para avaliação da qualidade da tradução entre requisitos e casos de uso

Rocha, Fabiana Zaffalon Ferreira January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:02Z (GMT). No. of bitstreams: 1 000390003-Texto+Completo-0.pdf: 2056710 bytes, checksum: 99bda1fb62dfe7d9761de84a7693af20 (MD5) Previous issue date: 2006 / A Software Requirements Specification (SRS) is decisive to the development of a succeeded final product. The software industry has been showing an increasing interest on the Requirements Engineering (RE), meaning that, it is necessary to understand what needs to be built before doing it. The software requirements represent the base whereby the quality is measured. Thus, the lack of accordance among them might represent a lack on their quality. There are many approaches to describe a SRS and how to specify the use cases. The requirements, SRS and use case specifications may have different aspects of quality, like legibility, integrity, consistence, non ambiguity, etc. The metrics perform an essential role on the requirement’s defects identification process, providing resources to visualize the discrepancies and to identify the points that are out of the scope. The literature presents metrics that are applied either on the requirements or on the use cases, however, this metrics do not assess the mapping quality. In this context, this thesis has as its main goal to propose a model to assess the quality on the translation from software requirements to use cases. It provides relevant information from the SRS in order to specify use cases and to identify errors and/or lack of mapping elements, causing the re-assessment only on the points that present problems. The main contribution of the proposed model is to allow the generation of consistent use cases specification with quality, through the discovery of shortcomings on the mapping and missing requirements in the SRS. / Um documento de especificação de requisitos de software (Software Requirements Specification - SRS) é decisivo para o desenvolvimento de um bom produto final. A indústria de software vem demonstrando crescente interesse pela engenharia de requisitos (ER), isto é, entender o que se deseja construir antes de começar a fazê-lo. Os requisitos de software constituem a base a partir da qual a qualidade é medida. Assim, a falta de conformidade com eles pode significar falta de qualidade. Existem diversas abordagens para escrever um SRS e especificar casos de uso. Os requisitos, SRS e especificação de casos de uso podem ter diferentes aspectos de qualidade, tais como, legibilidade, integralidade, consistência, não ambigüidade, etc. As métricas desempenham um papel essencial na detecção de defeitos dos requisitos, fornecendo meios para a visualização de discrepâncias e a identificação de pontos fora de uma situação projetada. A literatura apresenta métricas que são aplicadas nos requisitos, ou nos casos de uso, porém estas não avaliam a qualidade do mapeamento. Nesse sentido, este trabalho tem como principal objetivo propor um modelo para a avaliação da qualidade da tradução dos requisitos para especificação de casos de uso. Fornece informações importantes do SRS para especificar casos de uso e identificar erros e/ou ausência de elementos no mapeamento, fazendo com que a reavaliação seja feita somente nos pontos que apresentam problemas. A principal contribuição do modelo é permitir a geração de especificação de casos de uso consistente e de qualidade, através da descoberta de falhas no mapeamento e descoberta de requisitos ausentes no SRS.
328

P-MIA: padrão múltiplas instâncias autoadaptáveis : um padrão de dados para wokflows científicos

Hübler, Patrícia Nogueira January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:49Z (GMT). No. of bitstreams: 1 000428502-Texto+Completo-0.pdf: 4574146 bytes, checksum: 0b828e3a78fb87024bcab2a9d14b3a60 (MD5) Previous issue date: 2010 / In the search for automated solutions, professionals of different areas use similar information technology targeting information agility and reliability. The use of a workflow management system is an example, which is employed by enterprises and scientific labs in order to record executed tasks and to optimize the elapsed time. This thesis presents a workflow pattern, as a scientific workflow component, able to manage large volumes of data and to optimize their processing, identifying promising groups into such data. Bioinformatics is our application area, a multidisciplinary area that uses a lot of computing tools for its experiments, and which can spend years to be finished. The solution proposed here benefits the rational drug design inside Bioinformatics. Then, we contextualize the area of study, and a problem solution is given through the definition of a data pattern that allows a self-adaptation of workflow instances in execution. We named P-SaMI: Self-Adaptive Multiple Instances as our proposed pattern because it is capable to manage large data sets and to take actions during processing time. P-SaMI is formally defined with Petri nets concepts and it is designed by Coloured Petri nets. We performed several tests and achieved the reduction of experiments executed, preserving an acceptable level of resulted quality. / A busca de soluções informatizadas, com o objetivo de se obter agilidade e confiabilidade nas informações, faz com que profissionais de diferentes áreas utilizem tecnologias com propósitos semelhantes. A utilização de sistemas de gerenciamento de workflow é um exemplo desse tipo de solução, a qual empresas e cientistas utilizam para documentar as etapas executadas e otimizar o tempo de execução. Esta Tese apresenta um padrão capaz de manipular grandes volumes de dados e otimizar seu processamento, identificando grupos de dados promissores, como um componente de workflows científicos. A área de aplicação é a Bioinformática, uma área multidisciplinar, que se utiliza de várias ferramentas computacionais para a realização de seus experimentos, os quais podem demorar anos para serem finalizados. A solução proposta beneficia, dentro da Bioinformática, o desenho racional de fármacos. Assim, a contextualização da área de estudo é realizada, e é proposta uma solução para o problema por meio da definição de um padrão de dados que permite a autoadaptação de instâncias de workflow em execução. O P-MIA: Padrão Múltiplas Instâncias Autoadaptáveis, assim denominado por manipular um grande conjunto de dados e por, em tempo de execução, definir as ações a serem executadas sobre os dados, é formalizado com base nas definições de redes de Petri e sua representação gráfica feita por meio de redes de Petri coloridas. Sobre o padrão, são realizados testes experimentais, os quais comprovam que, com a utilização do P-MIA, é possível reduzir a quantidade de experimentos, mantendo um critério de qualidade aceitável.
329

Uma investigação sobre o uso de práticas Extreme Programming no desenvolvimento global de software

Urdangarin, Roger Gonçalves January 2008 (has links)
Made available in DSpace on 2013-08-07T18:42:51Z (GMT). No. of bitstreams: 1 000401400-Texto+Completo-0.pdf: 2263663 bytes, checksum: 9beff93cd3dd0d353e2a331e995ff878 (MD5) Previous issue date: 2008 / The challenges facing global software engineering in today’s world, due to large geographical area, became more complex. The rise in globalization of international companies have directly affected the software development market. In the search for low cost competitive advantages for companies, high productivity and quality in the system development, several organizations decided to extend their internal development to the BRIC emerging countries (Brazil, Russia, India and China) because these countries reduce their costs and have large specialized labor pools available. Making it necessary to search for new software development processes that are less bureaucratic, increase the distribution team’s agility and minimizing the negative impacts that large geographic distribution causes in global software development. In this sense, the goal of this research is to identify and validate the effects caused by adopting the practice of agile development in the principal challenges faced by GSD projects. The research method chosen was the case study, conducted in three universities located in the two different continents, in addition to a software engineering research center from the United States. The contribution of this research is the identification of the lessons learned based on the affects that the adoption of agile methodology in the global software engineering context, as well as what would be new challenges that appear from this combination. / Os desafios que a engenharia global de software vem enfrentando atualmente em função das grandes distâncias geográficas continuam cada vez mais complexos. A globalização de companhias tem afetado diretamente o mercado de desenvolvimento de software. Na busca por diferenciais competitivos que resultem em custos mais baixos e um alto índice de produtividade e qualidade no desenvolvimento de software, diversas empresas multinacionais optaram por expandir suas fronteiras e começaram a expandir o seu desenvolvimento de software nos países emergentes do bloco BRIC (Brasil, Rússia, Índia e China) em função dos incentivos fiscais favoráveis e mão de obra especializada abundante. Torna-se cada vez mais necessário identificar alternativas de processos de desenvolvimento de software que sejam mais leves e menos burocráticos que contribuam para a agilidade das equipes distribuídas e aliviem os efeitos negativos que a distribuição geográfica traz para o desenvolvimento global de software. Nesse sentido, esta dissertação de mestrado tem como objetivo avaliar os efeitos causados pela adoção de práticas de desenvolvimento ágil nos principais desafios enfrentados por projetos GSD. O método de pesquisa utilizado foi o estudo de caso tendo como unidade de análise um projeto de desenvolvimento global de software envolvendo a participação de três universidades situadas em dois continentes e um centro de pesquisas em engenharia de software localizado nos EUA. A pesquisa contribui no sentido de identificar quais as lições aprendidas sobre os efeitos produzidos pela aplicação da metodologia ágil no contexto da engenharia global de software, bem como, que novos desafios surgem a partir desta combinação.
330

Controle adaptativo para atendimento a requisitos de aplicações em MPSoCS

Madalozzo, Guilherme Afonso January 2013 (has links)
Made available in DSpace on 2013-08-07T18:42:51Z (GMT). No. of bitstreams: 1 000448654-Texto+Completo-0.pdf: 3794673 bytes, checksum: 27e1f6f68c147a8709c4d67ce49eed05 (MD5) Previous issue date: 2013 / The growing number of manufactured transistors in embedded systems follows the trend of Moore’s Law, which states that every eighteen months the number of transistors on integrated circuits doubles, while its cost remains constant. Another important issue in embedded systems is that applications with more than one processor are increasingly present in market. These devices with several processing elements are named MPSoCs (Multiprocessor System-on-Chip). MPSoCs enables the development of complex systems, together with high performance. Applications executing in MPSoC have constraints to be respected. To meet these constraints, management techniques and resources adaptability should be researched and developed. This work presents the development and evaluation of adaptive management techniques that enable applications executing in MPSoCs to meet their performance requirements. The MPSoC management uses monitoring techniques, which evaluate applications constraints, as throughput and latency. When violations are detected by the monitoring infrastructure, adaptive techniques are executed. In the scope of this work, two techniques were developed: dynamic change in the priority scheduling of tasks and task migration. The evaluation of the proposed techniques is carried out using the HeMPS MPSoC, with centralized and distributed resource management. Results show that, regardless the resource management technique adopted, the proposed adaptive techniques decrease latency and jitter, without affecting the total execution time of applications. With performed adaptive techniques the total execution time wasn’t penalized, in presented experiments increased 7%. / A capacidade de integração em sistemas embarcados acompanha a tendência da Lei de Moore, a qual prevê que a cada dezoito meses o número de transistores em circuitos integrados dobra, enquanto seu custo permanece constante. Outra observação importante em sistemas embarcados é que aplicações com mais de um processador estão cada vez mais presentes no mercado. Estes dispositivos com diversos elementos de processamento são denominados MPSoCs (do inglês, Multiprocessor Sytem-on-Chip). Os MPSoCs permitem o desenvolvimento de sistemas complexos, com alto desempenho. Para que um MPSoC atenda às restrições das aplicações nele executadas, técnicas de gerência e adaptabilidade de recursos devem ser pesquisadas e desenvolvidas.O presente trabalho apresenta o desenvolvimento e avaliação de técnicas de controle adaptativo para atendimentos a requisitos de aplicações executando em MPSoCs. Para efetuar o controle do MPSoC utiliza-se o mecanismo de monitoramento das aplicações. A técnica de monitoramento analisa os requisitos das aplicações, em tempo de execução, verificando possíveis violações nestes requisitos, como vazão e latência. O monitoramento é o gatilho para a execução das técnicas adaptativas desenvolvidas no escopo deste trabalho: alteração dinâmica na prioridade de escalonamento de tarefas e migração de tarefas. Para avaliar as técnicas propostas, foi utilizado a plataforma HeMPS com gerência de recursos centralizada e distribuída. Os resultados mostram que, independente da gerência de recursos que se utiliza, centralizada ou distribuída, as técnicas de adaptabilidade proveem redução de latência e jitter, sem comprometimento do tempo total de execução das aplicações. Com a execução das técnicas de adaptabilidade, o tempo total de execução da aplicação principal não é penalizado, nos casos de teste, melhorando-se em até 7%.

Page generated in 0.019 seconds