• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 25
  • 2
  • Tagged with
  • 143
  • 58
  • 39
  • 39
  • 35
  • 31
  • 30
  • 24
  • 21
  • 18
  • 18
  • 18
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Desenvolvimento de mecanismos para automatização de planejamento e execução de experimentos em sistemas orientados a serviço / Development of mechanisms for automating the planning and execution of experiments in a service-oriented systems

Luiz Henrique Nunes 16 June 2014 (has links)
O planejamento de experimentos em sistemas computacionais não é uma tarefa trivial, pois envolve diversas etapas tais como, o planejamento propriamente dito, a execução dos experimentos e a análise dos resultados. A definição e a utilização de metodologias adequadas para cada uma destas etapas facilita a obtenção dos resultados de um experimento em um sistema computacional. Neste trabalho são apresentados mecanismos para auxiliar o planejamento e execução de experimentos em sistemas orientados a serviços. O planejamento de experimento é realizado a partir de um modelo baseado nos conjuntos de entradas comuns a arquiteturas orientadas a serviço. A execução deste planejamento é feita em um ambiente colaborativo real, a qual auxilia a identificação de gargalos que não estão presentes em simulações ou modelos analíticos. Um estudo de caso aplicado na arquitetura WSARCH, possibilitou avaliar seu desempenho e identificar problemas de configuração / The design of experiments in computational systems is not a trivial task as it involves several steps such as planning and execution of the experiments and the analyse of the results. The use of appropriate methodologies for each of these steps makes it easier obtain the experiment results of a computer system. In this dissertation, mechanisms to assist the planning and execution of experiments in service-oriented systems are presented. The planning of the experiment is made according to a model based on a set of common entries for service-oriented architectures. The experiment execution is performed in a real collaborative environment, which helps to identify bottlenecks that are not found in simulations or analytical models. A study case applied in WSARCH architecture, enables to evaluate the performance and identify configuration problems
112

Hardware paralelo reconfigurável para identificação de alinhamentos de sequências de DNA. / Parallel reconfigurable hardware to identify alignments in DNA sequences.

Edgar José Garcia Neto Segundo 09 August 2012 (has links)
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST. / DNA samples are found in fragments, obtained in traces of a crime scene, collected from hair or blood samples, for genetic or paternity tests. To identify whether this fragment belongs or not to a given DNA sequence it is necessary to compare it with a determined sequence which usually come from a database, for instance, to point a suspect. To this end, we need an efficient tool to perform the alignment of the DNA sequence found with the ones stored in the database. The alignment of DNA sequences, which is a field of bioinformatics that helps to understand the relationship between genetic sequences and their functional relationships and parenting. This task is often performed by software that scan clusters of databases, which requires high computing effort, thus increasing the cost of DNA sequences alignment projects. This work presents a parallel hardware architecture, for BLAST algorithm, to DNA pairwise alignment. This is the original version of the BLAST algorithm, that resulted in several other versions. The BLAST algorithm is a heuristic method and is the fastest algorithm for sequence alignment. The strategy of BLAST is to divide the sequences into smaller subsequences of size w. After making comparisons in these subsequences, algorithm steps analyzes only the subsequences that are identical. Thus, reducing the number of tests and combinations needed to perform the alignment. For each identical sequence found, three steps are followed by the algorithm: seeding, extension and evaluation. The proposed hardware architecture is based on the characteristics of the algorithm to implement a fully parallel hardware, where the basic steps of BLAST are pipelined. The proposed architecture was implemented in FPGA and the results show a comparison between the area occupied, number of cycles and maximum frequency of operation permitted, as a function of alignment parameters. The result is a hardware architecture in reconfigurable logic, scalable, efficient and with low cost, capable of aligning the pairs of sequences using BLAST algorithm.
113

Otimização por enxame de partículas em arquiteturas paralelas de alto desempenho. / Particle swarm optimization in high-performance parallel architectures.

Rogério de Moraes Calazan 21 February 2013 (has links)
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados. / Particle Swarm Optimization (PSO) is an optimization technique that is used to solve many problems in different applications. However, most implementations are sequential. The optimization process requires a large number of evaluations of the objective function, especially in complex problems, involving a large amount of particles and dimensions. As a result, the algorithm may become inefficient in terms of performance, execution time and even the quality of the expected result. To overcome these difficulties,high performance computing and parallel algorithms can be used, taking into account to the characteristics of the architecture. This should increase performance, minimize response time and may even improve the quality of the final result. In this dissertation, the PSO algorithm is parallelized using three different strategies that consider different granularities of the problem, and the division of the optimization work among several cooperative sub-swarms. One of the developed parallel algorithms, namely PPSO, is implemented directly in hardware, using an FPGA. All the proposed strategies, namely PPSO ( Parallel PSO), PDPSO (Parallel Dimension PSO) and CPPSO (Cooperative Parallel PSO), are implemented in a multiprocessor, multicomputer and GPU based parallel architectures. The different performed assessments show that the GPU achieved the best results for problems with high number of particles and dimensions when a strategy with finer granularity is used, namely PDPSO and CPPSO. In contrast with this, when using a strategy with a coarser granularity, namely PPSO, the multi-computer based implementation achieved the best results.
114

[en] A PROGRAMMING INTERFACE FOR OVERLOAD CONTROL IN STAGED EVENT BASED ARCHITECTURES / [pt] UMA INTERFACE DE PROGRAMAÇÃO PARA CONTROLE DE SOBRECARGA EM ARQUITETURAS BASEADAS EM ESTÁGIOS

BRENO RIBA DA COSTA CRUZ 22 February 2016 (has links)
[pt] Controle de sobrecarga pode ser feito com o uso de políticas de escalonamento adequadas, que procuram ajustar dinamicamente os recursos alocados a uma aplicação. Pela dificuldade de implementação, muitas vezes desenvolvedores se veem obrigados a reprogramar o sistema para adequá-lo a uma determinada política. Através do estudo de diversas políticas de escalonamento, propomos neste trabalho um modelo de interface que permite a criação e monitoração de novas políticas dentro de arquiteturas baseadas em estágios. Implementamos a interface de programação proposta e exercitamos um conjunto de políticas que construímos sobre ela em duas aplicações com características de carga bem distintas. / [en] Specific scheduling policies can be appropriate for overload control in different application scenarios. However, these policies are often difficult to implement, leading developers to reprogram entire systems in order to adapt them to a particular policy. Through the study of various scheduling policies, we propose an interface model that allows the programmer to integrate new policies and monitoring schemes to the same application in a Staged Event-Driven Architecture. We describe the implementation of the proposed interface and the results of it s use in implementing a set of scheduling policies for two applications with different load profiles.
115

[en] A SPLIT AND MERGE ARCHITECTURE FOR DISTRIBUTED VIDEO PROCESSING IN THE CLOUD / [pt] UMA ARQUITETURA DE SPLIT AND MERGE PARA PROCESSAMENTO DISTRIBUIDO DE VÍDEO BASEADO EM CLOUD

RAFAEL SILVA PEREIRA 30 January 2017 (has links)
[pt] O volume de dados existentes aumenta a cada dia, sendo que, armazenar, processar e transmitir esta informação se torna um grande desafio. O paradigma de Map Reduce, proposto por Dean e Ghemawat (10), é uma forma eficiente para o processamento de grandes volumes de dados utilizando um cluster de computadores e, mais recentemente, infraestruturas no Cloud. Entretanto, implementações tradicionais de Map Reduce não apresentam nem a flexibilidade (para escolher entre diferentes técnicas de codificação na etapa de map), nem o controle (capaz de especificar como organizar os resultados na etapa de reduce), necessários para o processamento de vídeos. Porém, com a proliferação de dispositivos capazes de reproduzir conteúdo em multimídia, e com o aumento da disponibilidade de banda, o consumo deste tipo de conteúdo é cada vez maior, o que mostra a necessidade de termos arquitetura eficientes para lidar com grandes volumes de dados, especificamente vídeos. A arquitetura de Split and Merge, proposta nesta dissertação, generaliza o paradigma de Map Reduce, fornecendo uma solução eficiente que contempla aspectos relevantes às aplicações de processamento intensivo de vídeo. Para validar a arquitetura proposta, são apresentados dois casos de uso onde a mesma foi implementada utilizando uma plataforma de Cloud. / [en] The Map Reduce approach, proposed by Dean and Ghemawat (10), is an efficient way for processing very large datasets using a computer cluster and, more recently, cloud infrastructures. Traditional Map Reduce implementations, however, provide neither the necessary flexibility (to choose among different encoding techniques in the mapping stage) nor control (to specify how to organize results in the reducing stage), required to process video files. The Split and Merge tool, proposed in this thesis, generalizes the Map Reduce paradigm, and provides an efficient solution that contemplates relevant aspects of intense processing video applications.
116

Hardware paralelo reconfigurável para identificação de alinhamentos de sequências de DNA. / Parallel reconfigurable hardware to identify alignments in DNA sequences.

Edgar José Garcia Neto Segundo 09 August 2012 (has links)
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST. / DNA samples are found in fragments, obtained in traces of a crime scene, collected from hair or blood samples, for genetic or paternity tests. To identify whether this fragment belongs or not to a given DNA sequence it is necessary to compare it with a determined sequence which usually come from a database, for instance, to point a suspect. To this end, we need an efficient tool to perform the alignment of the DNA sequence found with the ones stored in the database. The alignment of DNA sequences, which is a field of bioinformatics that helps to understand the relationship between genetic sequences and their functional relationships and parenting. This task is often performed by software that scan clusters of databases, which requires high computing effort, thus increasing the cost of DNA sequences alignment projects. This work presents a parallel hardware architecture, for BLAST algorithm, to DNA pairwise alignment. This is the original version of the BLAST algorithm, that resulted in several other versions. The BLAST algorithm is a heuristic method and is the fastest algorithm for sequence alignment. The strategy of BLAST is to divide the sequences into smaller subsequences of size w. After making comparisons in these subsequences, algorithm steps analyzes only the subsequences that are identical. Thus, reducing the number of tests and combinations needed to perform the alignment. For each identical sequence found, three steps are followed by the algorithm: seeding, extension and evaluation. The proposed hardware architecture is based on the characteristics of the algorithm to implement a fully parallel hardware, where the basic steps of BLAST are pipelined. The proposed architecture was implemented in FPGA and the results show a comparison between the area occupied, number of cycles and maximum frequency of operation permitted, as a function of alignment parameters. The result is a hardware architecture in reconfigurable logic, scalable, efficient and with low cost, capable of aligning the pairs of sequences using BLAST algorithm.
117

Otimização por enxame de partículas em arquiteturas paralelas de alto desempenho. / Particle swarm optimization in high-performance parallel architectures.

Rogério de Moraes Calazan 21 February 2013 (has links)
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados. / Particle Swarm Optimization (PSO) is an optimization technique that is used to solve many problems in different applications. However, most implementations are sequential. The optimization process requires a large number of evaluations of the objective function, especially in complex problems, involving a large amount of particles and dimensions. As a result, the algorithm may become inefficient in terms of performance, execution time and even the quality of the expected result. To overcome these difficulties,high performance computing and parallel algorithms can be used, taking into account to the characteristics of the architecture. This should increase performance, minimize response time and may even improve the quality of the final result. In this dissertation, the PSO algorithm is parallelized using three different strategies that consider different granularities of the problem, and the division of the optimization work among several cooperative sub-swarms. One of the developed parallel algorithms, namely PPSO, is implemented directly in hardware, using an FPGA. All the proposed strategies, namely PPSO ( Parallel PSO), PDPSO (Parallel Dimension PSO) and CPPSO (Cooperative Parallel PSO), are implemented in a multiprocessor, multicomputer and GPU based parallel architectures. The different performed assessments show that the GPU achieved the best results for problems with high number of particles and dimensions when a strategy with finer granularity is used, namely PDPSO and CPPSO. In contrast with this, when using a strategy with a coarser granularity, namely PPSO, the multi-computer based implementation achieved the best results.
118

Desenvolvimento de perfis aerodin?micos a partir de suas caracter?sticas utilizando redes neurais artificiais

Diniz, Bruno da Cunha 15 February 2013 (has links)
Made available in DSpace on 2014-12-17T14:58:20Z (GMT). No. of bitstreams: 1 BrunoCD_DISSERT.pdf: 4492853 bytes, checksum: 8fad50750c043cd4dab6a1e27f414d81 (MD5) Previous issue date: 2013-02-15 / One of the current major concerns in engineering is the development of aircrafts that have low power consumption and high performance. So, airfoils that have a high value of Lift Coefficient and a low value for the Drag Coefficient, generating a High-Efficiency airfoil are studied and designed. When the value of the Efficiency increases, the aircraft s fuel consumption decreases, thus improving its performance. Therefore, this work aims to develop a tool for designing of airfoils from desired characteristics, as Lift and Drag coefficients and the maximum Efficiency, using an algorithm based on an Artificial Neural Network (ANN). For this, it was initially collected an aerodynamic characteristics database, with a total of 300 airfoils, from the software XFoil. Then, through the software MATLAB, several network architectures were trained, between modular and hierarchical, using the Back-propagation algorithm and the Momentum rule. For data analysis, was used the technique of cross- validation, evaluating the network that has the lowest value of Root Mean Square (RMS). In this case, the best result was obtained for a hierarchical architecture with two modules and one layer of hidden neurons. The airfoils developed for that network, in the regions of lower RMS, were compared with the same airfoils imported into the software XFoil / Uma das maiores preocupa??es atuais na Engenharia ? o desenvolvimento de aeronaves que possuam baixo consumo e alto desempenho. Para isso, s?o estudados e projetados perfis aerodin?micos que tenham um valor elevado de coeficiente de sustenta??o e um valor baixo para o coeficiente de arrasto, gerando um perfil de alta efici?ncia. Quanto maior o valor da efici?ncia, menor ser? o consumo de combust?vel da aeronave, melhorando assim, o seu desempenho. Neste sentido, este trabalho objetiva desenvolver uma ferramenta para cria??o de perfis aerodin?micos a partir de caracter?sticas desejadas, como coeficiente de sustenta??o e de arrasto e efici?ncia m?xima, utilizando-se um algoritmo baseado em uma Rede Neural Artificial (RNA). Para isso, inicialmente foram coletados uma base de dados de caracter?sticas aerodin?micas de um total de 300 perfis, a partir do software XFoil. Ent?o, atrav?s de uma rotina implementada no software MATLAB, foram treinadas diversas arquiteturas de redes, entre modulares e hier?rquicas, utilizando-se o algoritmo de Retropropaga??o e a regra do Momento. Para an?lise dos resultados, foi utilizada a t?cnica de valida??o cruzada, avaliando a rede que possuiu o menor valor de Erro M?dio Quadr?tico (EMQ). Neste caso, o melhor resultado obtido foi para uma arquitetura hier?rquica com dois m?dulos e uma camada de neur?nios ocultos. Os perfis aerodin?micos desenvolvidos por essa rede, nas regi?es de menor EMQ, foram comparados aos mesmos perfis importados ao software XFoil. O presente trabalho oferece como contribui??o, em rela??o a outros trabalhos que envolvem RNA aplicada ? mec?nica dos fluidos, o desenvolvimento de perfis aerodin?micos a partir de suas caracter?sticas aerodin?micas
119

A formally founded framework for dynamic software architectures / Um framework formal para arquiteturas de software din?micas

Cavalcante, Everton Ranielly de Sousa 10 June 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-08-14T11:29:03Z No. of bitstreams: 1 EvertonRaniellyDeSousaCavalcante_TESE.pdf: 7986753 bytes, checksum: c7cc344a4f7c9cbaa61e56bb4d270735 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-08-14T11:41:59Z (GMT) No. of bitstreams: 1 EvertonRaniellyDeSousaCavalcante_TESE.pdf: 7986753 bytes, checksum: c7cc344a4f7c9cbaa61e56bb4d270735 (MD5) / Made available in DSpace on 2017-08-14T11:42:00Z (GMT). No. of bitstreams: 1 EvertonRaniellyDeSousaCavalcante_TESE.pdf: 7986753 bytes, checksum: c7cc344a4f7c9cbaa61e56bb4d270735 (MD5) Previous issue date: 2016-06-10 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico (CNPq) / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / Arquiteturas de software exercem um papel significativo no desenvolvimento de sistemas intensivos de software a fim de permitir satisfazer tanto requisitos funcionais quanto n?ofuncionais. Em particular, arquiteturas de software din?micas t?m surgido para endere?ar caracter?sticas dos sistemas contempor?neos que operam em ambientes din?micos e consequentemente sujeitos a mudan?as em tempo de execu??o. Linguagens de descri??o arquitetural (ADLs) s?o utilizadas para representar arquiteturas de software, produzindo modelos que podem ser utilizados tanto em tempo de projeto quanto em tempo de execu??o. Contudo, a maioria das ADLs existentes possui limita??es em diversos aspectos: (i) possui enfoque em aspectos estruturais, topol?gicos da arquitetura; (ii) n?o prov? um suporte adequado ? representa??o de aspectos comportamentais da arquitetura; (iii) n?o permite descrever aspectos avan?ados relativos ? din?mica da arquitetura; (iv) ? limitada com rela??o ? verifica??o de propriedades arquiteturais e restri??es, e; (v) ? desconectada do n?vel de implementa??o, resultando em inconsist?ncias entre arquitetura e implementa??o. No intuito de endere?ar esses problemas, esta tese prop?e um framework formal para arquiteturas de software din?micas. Tal framework envolve: (i) ?-ADL, uma linguagem formal para descrever arquiteturas de software sob as perspectivas estrutural e comportamental; (ii) a especifica??o de opera??es de reconfigura??o din?mica programada; (iii) a gera??o autom?tica de c?digo fonte a partir de descri??es arquiteturais, e; (iv) uma abordagem baseada em verifica??o estat?stica (SMC) para expressar e verificar formalmente propriedades em arquiteturas de software din?micas. As principais contribui??es trazidas pelo framework proposto s?o quatro. Primeiro, a linguagem ?-ADL passou a ser dotada de primitivas de n?vel arquitetural para descrever reconfigura??es din?micas programadas. Segundo, descri??es arquiteturais em ?-ADL s?o traduzidas para c?digo fonte de implementa??o na linguagem de programa??o Go, contribuindo assim para minimizar desvios arquiteturais. Terceiro, uma nova l?gica chamada DynBLTL ? utilizada para expressar formalmente propriedades em arquiteturas de software din?micas. Quarto, um ferramental baseado em SMC foi constru?do para automatizar verifica??o de propriedades arquiteturais enquanto busca reduzir esfor?o, recursos computacionais e tempo para realizar essa tarefa. Neste trabalho, dois sistemas baseados em redes de sensores sem fio s?o utilizados para validar os elementos do framework. / Software architectures play a significant role in the development of software-intensive systems in order to allow satisfying both functional and non-functional requirements. In particular, dynamic software architectures have emerged to address characteristics of the contemporary systems that operate on dynamic environments and consequently subjected to changes at runtime. Architecture description languages (ADLs) are used to represent software architectures, producing models that can be used at design time and/or runtime. However, most existing ADLs have limitations in several facets: (i) they are focused on structural, topological aspects of the architecture; (ii) they do not provide an adequate support for representing behavioral aspects of the architecture; (iii) they do not allow describing advanced aspects regarding the dynamics of the architecture; (iv) they are limited with respect to the automated verification of architectural properties and constraints; and (v) they are disconnected from the implementation level, thus entailing inconsistencies between architecture and implementation. In order to tackle these problems, this thesis proposes formally founded framework for dynamic software architectures. Such a framework comprises: (i) ?-ADL, a formal language for describing software architectures under both structural and behavioral viewpoints; (ii) the specification of programmed dynamic reconfiguration operations; (iii) the automated generation of source code from architecture descriptions; and (iv) an approach based on statistical model checking (SMC) to formally express and verify properties in dynamic software architectures. The main contributions brought by the proposed framework are fourfold. First, the ?-ADL language was endowed with architectural-level primitives for describing programmed dynamic reconfigurations. Second, architecture descriptions in ?- ADL are translated towards implementation source code in the Go programming language, thereby contributing to minimize architectural drifts. Third, a novel logic, called DynBLTL, is used to formally express properties in dynamic software architectures. Fourth, a toolchain relying on SMC was built to automate the verification of architectural properties while striving to reduce effort, computational resources, and time for performing such a task. In this work, two wireless sensor network-based systems are used to validate the framework elements.
120

Arquitetura de referência para a formação e gerência de redes de cooperação e inovação entre agentes de implantação de sistemas integrados de gestão / Reference architecture for the formation and management of cooperation networks and innovation among the management integrated systems implementation agents

Heber Lombardi de Carvalho 28 March 2008 (has links)
A adoção de soluções integradas em processos organizacionais movimenta um crescente e importante setor da economia. Os sistemas integrados de gestão representam essas soluções e tornaram-se práticas usuais implantá-los como promessa de atendimento à demanda e às necessidades das empresas que buscam diferenciais competitivos. Como apoio a esse complexo processo, o trabalho propõe uma arquitetura de referência para a formação e gerência de redes de cooperação e inovação entre agentes de implantação de sistemas integrados de gestão. A revisão da literatura abarca temas essenciais ao sucesso da implantação do sistema integrado de gestão, que precisam compor o conhecimento do corpo da rede de agentes que serão responsáveis pela implantação. A abordagem se inicia na análise, nas formas de organização e coordenação do processo de produção. A bibliografia conceitua também a inovação, a cooperação e a formação e a gerência de redes. Um recorte analítico de redes é feito para um gênero de sistemas integrados de gestão, o ERP e uma discussão da aplicação direta da teoria de arquiteturas de referência. Três pilares sustentam e caracterizam o método de pesquisa. O primeiro é a revisão bibliográfica. O segundo é o estudo de caso, que confere caráter empírico à pesquisa. O terceiro é a metodologia de modelagem organizacional EKD que fornece as diretrizes construtivas da arquitetura de referência. A contribuição da pesquisa é que a arquitetura de referência propicie à empresa que implanta um sistema integrado de gestão, a criação de um mecanismo de proteção ao processo organizacional a ser integrado. Além disso, a arquitetura de referência promove a sistematização da coordenação dos recursos da implantação da solução, com maior certeza de probabilidade de sucesso. / The adoption of integrated solutions in organized processes puts into motion an increasing and important sector of the economy. The management integrated systems (MIS) represent these solutions and it has become usual to implant them as attendance promise to the demand and the necessities of the companies who search for competitive differentials. As support to this complex process, the work considers reference architecture for the formation and management of cooperation networks and innovation among the MIS implementation agents. The literature review accumulates essential subjects for the application success of the integrated system which are requested to compose the knowledge of the body which integrates the net agents who will be responsible for the implementation. The approach gets started in the analysis, in the forms of organization and coordination of the production process. An analytical viewing of networks is made for a sort of MIS, ERP and a critical analysis of the direct application of the theory from the reference architectures. Three pillars support and characterize the first method of research. The first one is the literature review. The second one is the case study, that offers confers empirical character to the research.The third one is the methodology of organizational modeling that supplies the constructive lines of direction of the reference architecture, EKD. The contribution of the research is that the reference architecture propitiates to the company who implants the MIS, the creation of a mechanism of protection to be integrated in the organizational process. Moreover, the reference architecture promotes the systematization of the coordination resources for the implementation of the integrated solution and it provides a higher certainty and probability of being successful.

Page generated in 0.0386 seconds