• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3338
  • 2182
  • 478
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6031
  • 3319
  • 3269
  • 3252
  • 3184
  • 3140
  • 3133
  • 3132
  • 3126
  • 3113
  • 3110
  • 798
  • 490
  • 460
  • 418
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Transformação de modelos de processos de negócio em BPMN para modelos de sistema utilizando casos de uso da UML

Heredia, Leonardo Rodriguez January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:15Z (GMT). No. of bitstreams: 1 000438602-Texto+Completo-0.pdf: 1994981 bytes, checksum: a5439343e1d91aaf3b5b229c798861a5 (MD5) Previous issue date: 2012 / The business processes models designed by business analysts act as requirement source to model information systems that may give support to these business processes. Transforming a business process model into a system model is not simple. The notation or language used to design business process model is different from the one used to design the system model. Today, BPMN is the pattern to build process models and UML is the pattern to design system models. The goal of this research is to present a method that helps the transformation business process model created in BPMN to system model using UML use cases. The transformation occurs through analysis of how each business element from a BPMN diagram can result in UML use cases elements. The method presents many alternatives to transform a BPMN element into a UML use case, by identifying the relationships and the initial information of cases descriptions. / Os modelos de processos de negócio definidos pelos analistas de negócio servem como fonte de requisitos para a modelagem dos sistemas de informação que podem ser construídos para dar suporte a esses processos. A transformação de um modelo em nível de negócio para um modelo em nível de sistema não é trivial. A notação ou linguagem utilizada para modelar o negócio é diferente da utilizada para modelar sistema. Atualmente a BPMN é a notação padrão para construção de modelos de processos de negócio e a UML é a linguagem padrão para modelagem de sistemas. O objetivo desse trabalho é apresentar um método que auxilie na transformação de modelos de processos de negócio feitos em BPMN para modelos de sistema utilizando casos de uso da UML. A transformação é realizada através da análise de como cada elemento de um diagrama BPMN pode dar origem a elementos de casos de uso da UML. O método apresenta diferentes possibilidades de transformar um elemento da BPMN em casos de uso da UML, identificando os relacionamentos e informações iniciais da descrição dos casos de uso.
532

Elevando a capacidade de integração de sistemas de Middleware RFID através do processamento de eventos complexos distribuídos entre diferentes organizações e negócio

Amaral, Leonardo Albernaz January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:15Z (GMT). No. of bitstreams: 1 000433739-Texto+Completo-0.pdf: 4343120 bytes, checksum: 6fb5a96a4ec12d9cbad8c22e5910447a (MD5) Previous issue date: 2011 / Over the years the RFID technology has become an area of research and development extremely challenging and rapidly expanding. Although there are sophisticated RFID software systems, many of these systems are based on RFID middleware technologies with basic data management features according to specifications of the EPCglobal ALE (Application Level Events). These features of the ALE act as an integration layer between raw RFID data (data without prior processing) and the application logic. No business semantics is expressed in this layer, which hinders the contextualization of events. This problem is considered a technological gap of RFID middleware systems that are based on the specifications of the ALE. Beyond the limitations of conventional mechanisms for data management of RFID events, existing specifications for RFID software technology (EPC Network according to EPCglobal) present challenges in the services proposed to integrate and share events among different business organizations (ONS, EPCIS and DS). Such services do not allow the use of indirect methods of event communication, which hinders the detection of distributed complex events. This paper presents an RFID software framework whose goal is to raise the interorganizational integration capability of RFID middleware systems. The systems integration is made through mechanisms of CEP (Complex Event Processing) that cooperate using event notification services. CEP technology is integrated with an RFID middleware system that implements the ALE specification. The framework is based on the concept of CEP network for processing and notification of distributed complex events. Each processing node has its own mechanism of CEP and the cooperation between nodes provides a system of global business rules, which allows the decomposition and execution of rules in different organizations. This work is important because besides identify limitations of current RFID software technologies, experimental results of the proposed framework show that the approaches used in the framework improve project and development activities of RFID applications maintaining acceptable levels of performance of the CEP engine used. When compared with other RFID systems, the framework provides several enhancements and complies with key requirements for both management and integration of RFID event data. Moreover, the framework adds new features for integration, management and sharing of RFID event data. / Com o passar dos anos a tecnologia RFID se tornou uma área de pesquisa e desenvolvimento extremamente estimulante e de rápida expansão. Embora existam sofisticados sistemas de software para RFID, muitos destes sistemas existentes estão baseados em tecnologias de middleware RFID com funcionalidades básicas de gerenciamento de dados de acordo com especificações do ALE (Eventos no Nível de Aplicação) segundo a EPCglobal. Estas funcionalidades do ALE agem como uma camada de integração entre dados RFID brutos (sem prévio processamento) e a lógica da aplicação. Nenhuma semântica de negócio é expressada nesta camada o que dificulta a contextualização de eventos. Este problema é considerado um gap tecnológico inerente às plataformas de middleware RFID que estão baseadas nas especificações do ALE. Além das limitações dos mecanismos convencionais para gerenciamento de dados de eventos RFID, especificações existentes para tecnologias de software RFID (EPC Network segundo a EPCglobal) apresentam desafios nos serviços propostos para integração e compartilhamento de eventos entre diferentes organizações de negócio (ONS, DS e EPCIS). Tais serviços não permitem a utilização de esquemas de comunicação indireta de eventos o que dificulta a detecção de eventos complexos distribuídos. Este trabalho apresenta um framework de software RFID cujo objetivo é elevar a capacidade de integração interorganizacional de sistemas de middleware RFID através de mecanismos de CEP (Processamento de Eventos Complexos) que cooperam entre si por meio de serviços de notificação de eventos. A tecnologia CEP é integrada a um sistema de middleware RFID que implementa especificações do ALE. O framework baseia-se no conceito de rede de CEPs para processamento e notificação de eventos complexos distribuídos. Cada nodo de processamento envolvido tem seu próprio mecanismo de CEP e a cooperação entre nodos provê um sistema de regras de negócio global que permite a decomposição e execução de regras de negócio em diferentes organizações. Este trabalho é importante, pois, além de identificar limitações e problemas das tecnologias atuais de software RFID, resultados experimentais obtidos através de testes do framework proposto demonstram que as abordagens utilizadas na construção do framework melhoram atividades de projeto e desenvolvimento de aplicações RFID mantendo níveis aceitáveis de desempenho do mecanismo de CEP utilizado. Quando comparado com os principais sistemas RFID existentes, o framework apresenta melhorias e cumpre com os principais requisitos, tanto de gerenciamento quanto de integração de dados de eventos RFID. Além disso, o framework agrega novas funcionalidades para integração, gerenciamento e compartilhamento de dados de eventos RFID.
533

Uma arquitetura de informação para gerência de requisitos em desenvolvimento distribuído de software

Espindola, Rodrigo Santos de January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000380879-Texto+Completo-0.pdf: 1795979 bytes, checksum: 37e7c520f47b07234bf2e3219a79131a (MD5) Previous issue date: 2006 / The distributed software development (DSD) has caused several challenges to the software development processo Among these challenges, the requirement engineering (RE) is highlighted due to the impact of factors like distance, cultural and time zone differences, and communications restrictions. In this context, the management of requirements related information is turned critical to assure that the required information about a specific domain or application will be available to the software development teams geographically distributed and it will also be available to the future maintenance projects. This way, the goal of this master thesis is to propose a structural model to requirements management in DSD. This proposal aims to contribute to the software engineering filling an existing gap in the DSD area, specifically about the RE and the software maintenance. Besides, this study shows new empirical data and also aims to contribute to software engineering through applying qualitative research methods. The research method adopted was case study, conducted in a software development unit of a multinational organization located in Brazil. / A distribuição das equipes de desenvolvimento tem provocado diversos desafios ao processo de software. Dentre os desafios, a engenharia de requisitos (ER) destaca-se, sofrendo impacto de fatores como distância, diferenças culturais e de fuso-horário, bem como limitações dos meios de comunicação disponíveis. Nesse contexto, o gerenciamento das informações relacionadas a requisitos torna-se crítico para garantir que as informações necessárias sobre um determinado domínio ou aplicação estão disponíveis para as equipes de desenvolvimento geograficamente dispersas e que estas informações sejam organizadas de forma a permitir futuro acesso por projetos de manutenção no mesmo escopo. Nesse sentido, esta dissertação de mestrado tem como objetivo propor um modelo de arquitetura de informação para gerência de requisitos em desenvolvimento distribuído de software (DDS). Esta proposta visa contribuir para a área de engenharia de software ao preencher uma lacuna existente na área de DDS, especificamente no que se refere à ER e à manutenção de software. Além disso, este estudo apresenta novos dados empíricos e busca contribuir também para a pesquisa na área de engenharia de software através do emprego de métodos qualitativos de pesquisa científica. O método de pesquisa utilizado foi o estudo de caso e a base empírica da pesquisa envolve uma unidade de desenvolvimento de software de uma empresa multinacional de grande porte localizada no Brasil.
534

MuNDDoS: um modelo de referência para desenvolvimento distribuído de software

Prikladnicki, Rafael January 2003 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000423676-Texto+Completo-0.pdf: 1532403 bytes, checksum: 41ac163cc3ff5f3decff56553a97bf2f (MD5) Previous issue date: 2003 / Software has become a vital component of almost every business. Success increasingly depends on using software as a competitive advantage. More than a decade ago, seeking lower costs and access to skilled resources, many organizations began to experiment with remotely located software development facilities and with outsourcing. Economic forces are relentlessly turning national markets into global markets and spawning new forms of competition and cooperation that reach across national boundaries. This change is having a profound impact not only on marketing and distribution but also on the way products are conceived, designed, constructed, tested, and delivered to customers. The number of organizations distributing their software development processes worldwide aiming at heightened profit and productivity as well as cost reduction and quality improvements keeps increasing. Software development is increasingly a multi-site, multicultural, globally distributed undertaking. Engineers, managers, and executives face formidable challenges on many levels, from the technical to the social and cultural. More recently, attention has turned toward trying to understand the factors that enable multinationals and virtual corporations to operate successfully across geographic and cultural boundaries. This way, the purpose of this dissertation is to propose a reference model for distributed software development. The research method is case study and the empirical base involves two software development centers from two multinational organizations located in Brazil. The research contributions are the reference model and a model to c1assify the levels of dispersion in distributed projects. Moreover, empirical data is presented, systemizing part of the theory in this recent area. / Atualmente, é cada vez mais significativo o número de empresas que estão distribuindo seus processos de desenvolvimento de software ao redor do mundo, visando ganhos de produtividade, redução de custos e melhorias na qualidade. Por isso, o desenvolvimento distribuído tem atraído um grande número de pesquisas na área de engenharia de software nos últimos anos. Os engenheiros de software têm reconhecido a grande influência desta nova forma de trabalho e estão em busca de modelos que facilitem o desenvolvimento de software com equipes geograficamente dispersas. Além dos engenheiros, os gerentes e os executivos têm enfrentado desafios e dificuldades em diferentes níveis, envolvendo fatores técnicos e não-técnicos. Neste sentido, essa dissertação de mestrado tem como objetivo propor um modelo de referência para desenvolvimento distribuído de software, contemplando as dimensões técnicas e não-técnica e os fatores envolvidos em cada uma. O principal método de pesquisa utilizado foi o estudo de caso e a base empírica da pesquisa envolveu duas unidades de desenvolvimento de software de duas empresas multinacionais de grande porte localizadas no Brasil. A pesquisa contribui no sentido de propor um modelo de referência para a área de desenvolvimento distribuído de software, além de apresentar dados empíricos e sistematizar parte da teoria recente da área. Também contribui ao propor um modelo de classificação do nível de dispersão de projetos distribuídos, considerando os atores envolvidos.
535

Modelo–E10: um modelo para estimativas de esforço em manutenção de software

Tenório Junior, Nelson Nunes January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000424178-Texto+Completo-0.pdf: 2045392 bytes, checksum: 9acc5658b98379a3bd5e14c747a952da (MD5) Previous issue date: 2010 / The software industry invests amounts of money searching for the improvements on its products and services. Nowadays, clients are more demanding and look for industries that possess a severe quality control. That quality is measured through quality models adopted, such as CMMI, ISO, IEC, among others. The client’s demanding makes the organizations contract patterns that evaluate the quality level of its services. These contracts predict as punishments expensive fees. Observing of costs and deadlines is one of the requirements predicted in such contracts. The basis to its fulfillment (costs and deadlines), is the software development effort estimation and, after the delivery of the product, is the software maintenance effort. The challenge for researchers lies on supporting the software industry with effective works on estimation areas that may become much more accurate. Besides, the estimations shall not be economically heavy to their teams in order not to add more costs to the projects. This thesis comes from a research that has been developed through the last four years, from wich two of them were based on the actions in a software’s maintenance project from a great Brazilian public bank. The project was supported by a software industry partner of the Post graduation program in computer science from PUCRS. Such program inspired this thesis that presents as an option to the estimation areas a model of software’s maintenance effort. The model here presented supports the software industry as well the researches in the estimation area. / A indústria de software investe montantes de dinheiro em busca da melhoria de seus produtos e serviços. Atualmente, os clientes estão cada vez mais exigentes e procuram fábricas que possuam um rigoroso controle de qualidade. A qualidade é medida por meio dos modelos de qualidades adotados, como CMMI, ISO, IEC, dentre outros. A exigência dos clientes faz as organizações selarem contratos que medem o nível da qualidade de seus serviços. Esses contratos prevêem como sanções pesadas multas. O cumprimento de prazos e custos é uma das exigências previstas nesse tipo de contrato. A base para que se cumpram prazos e custos é a estimativa de esforço de desenvolvimento e, após a entrega do produto, o esforço para a manutenção do software. O desafio dos pesquisadores está em apoiar a indústria de software com trabalhos na área de estimativas que possam tornar as mesmas mais precisas. Além disso, as estimativas não devem onerar as equipes de software para não agregar mais custos aos projetos. Esta tese é fruto de uma pesquisa realizada ao longo de quatro anos, dois dos quais atuando em um projeto de manutenção de software pertencente a um grande banco governamental brasileiro. O projeto era mantido por uma fábrica de software parceira do Programa de Pós-Graduação em Ciência da Computação da Faculdade de Informática da PUCRS. A pesquisa inspirou esta tese de doutorado que apresenta, como uma opção para a área de estimativas, um modelo de esforço em manutenção de software. O modelo aqui apresentado apoia tanto a indústria de software como as pesquisas na área de estimativas.
536

Introduzindo localização na plataforma SemantiCore para a criação de aplicações pervasivas baseadas em agentes de software

Wolski, Luciano Zamperetti January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:24Z (GMT). No. of bitstreams: 1 000423297-Texto+Completo-0.pdf: 2125541 bytes, checksum: b720e373e04149e2df5133a9d6b6bb4e (MD5) Previous issue date: 2009 / This work presents two emergent technologies in the computational area: software agents and pervasive computing. Pervasive computing proposes that the computation is always available, at any place, at any time, and that the user could use any device to have access to his computational environment. The growing interest of the scientific community in the use of software agents for application development pervasive environments is related to the agent properties such as: autonomy, mobility and pro-activity. There are several platforms for the development of multiagents systems (MAS) such as JADE [BEL07], Jason [BOR07] and SemantiCore [RIB04], but none of them provides the necessary infrastructure for pervasive agent-based application development, none of them has characteristics for generation of pervasive applications orientated to agents. In this sense, it is necessary to integrate pervasive characteristics in the agent platforms used nowadays. In this work, we propose the adaptation of a MAS environment order to create pervasive applications. / Este trabalho aborda duas tecnologias emergentes na área computacional: agentes de software e computação pervasiva. A computação pervasiva prevê que a computação esteja sempre disponível, em qualquer lugar, a qualquer tempo, e que o usuário possa usar qualquer dispositivo para ter acesso ao seu ambiente computacional. O crescente interesse da comunidade científica no uso da tecnologia de agentes para o desenvolvimento de aplicações para ambientes pervasivos é motivado por algumas propriedades dos agentes como autonomia, mobilidade e pró-atividade. Existem várias plataformas para o desenvolvimento de sistemas multiagentes (SMAs) como JADE [BEL07], Jason [BOR07] e SemantiCore [RIB04] e, nenhuma delas possui características para geração de aplicações pervasivas orientadas a agentes. A partir disso, faz sentido estendermos as plataformas para que incorporem características pervasivas as plataformas multiagentes usadas hoje em dia. Neste trabalho, veremos uma proposta de como tornar um ambiente de desenvolvimento multiagentes apto a criar aplicações pervasivas.
537

Um Roadmap para GQS

Turchetto, Fabiano January 2005 (has links)
Made available in DSpace on 2013-08-07T18:43:25Z (GMT). No. of bitstreams: 1 000392661-Texto+Completo-0.pdf: 432224 bytes, checksum: b9737686724e71eda38e92848f11b834 (MD5) Previous issue date: 2005 / Nowadays the organizations need to implement a quality improvement program in order to survive on the competitive market. The Software Quality Assurance (SQA) is directly related to one process area in the SW-CMM and CMMI. This function is responsible by assure that the implanted process is being followed. However, without an adequate and functional SQA structure (activities and roles classified according to maturity levels of this models), the organizations are finding difficulties in achieve a higher maturity level in the SW-CMM and in the CMMI. And the effort expended for some of the SQA activities must be reduced with the time. It because the organizations dominate better your processes along the years. In this context, this research presents a roadmap for GQS. The roadmap aggregates the MEGa model, that objectivities to organize the SQA function, and the “2 Tempos” method to execution of auditorships by sampling. The MEGa is a guide to formulate or reformulate the SQA structure in the organization. The “2 Tempos” method possibility to customizes part of SQA function. / Nos dias atuais as organizações necessitam de um processo de melhoria de qualidade para atuar em um mercado competitivo. A Garantia da Qualidade de Software (GQS), correlata a uma área de processo no SW-CMM e no CMMI, é a função responsável por garantir que o processo implantado está sendo seguido. Entretanto, sem uma estrutura (atividades e papéis relacionados com a maturidade organizacional) de GQS adequada e funcional, as organizações encontram dificuldades em passar para o nível seguinte de maturidade no SW-CMM e no CMMI. Deve-se considerar ainda que o esforço despendido por algumas das atividades de GQS deve ser reduzido com o passar do tempo, uma vez que os processos passam a ser mais bem compreendidos e dominados pela organização. Tendo em vista este quadro, propõe-se um roadmap para GQS. Compõe o roadmap o modelo MEGa, para estruturação da função de GQS, e o método 2 Tempos para execução de auditorias por amostragem. O MEGa funciona como um guia que auxilia a organização na definição ou reformulação da sua estrutura de GQS e o método 2 Tempos torna a customização de parte da função de GQS passível de execução.
538

Dynamic server consolidation with controlled reconfiguration delays

Ferreto, Tiago Coelho January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:26Z (GMT). No. of bitstreams: 1 000428410-Texto+Completo-0.pdf: 2193675 bytes, checksum: 06cb9b5c6f14683e31d929da16f6a1db (MD5) Previous issue date: 2010 / Virtualization has reemerged in the last years as a solution to minimize costs in data centers due to resources subutilization. The possibility of dynamically changing virtual machines capacities and live-migrate them between physical servers resulted in a higher flexibility to attend sudden changes in computing demand, minimizing the amount of physical resources required. This increase in flexibility derived novel computing models such as utility computing and cloud computing. One of the key mechanisms in these virtualized data centers is dynamic server consolidation. It performs periodically the mapping of virtual machines to physical servers in order to attend changes in demand, while using a minimal set of physical resources to restrain power consumption costs. However, redefining a new mapping can require migrating virtual machines between physical servers, which eventually delay the reconfiguration of virtual machines to a new capacity. This work presents traditional algorithms used for dynamic server consolidation and evaluate their impact on the reconfiguration delay metric using different types of real and synthetic workloads. An algorithm for dynamic server consolidation which controls the maximum reconfiguration delay incurred by a new mapping is proposed. The experiments performed using this algorithm show that it provides higher control over reconfiguration delays and has a small impact in the additional amount of resources required. / A virtualização reapareceu nos últimos anos como solução para minimizar custos em data centers decorrentes da subutilização de recursos. A possibilidade de dinamicamente alterar a capacidade de máquinas virtuais e migrá-las de forma transparente entre servidores físicos resultou em maior flexibilidade para atender mudanças repentinas em demanda computacional, minimizando a quantidade de recursos físicos necessários. Este aumento em flexibilidade derivou novos modelos de computação como utility computing e cloud computing. Um dos principais mecanismos nestes data centers virtualizados é a consolidação dinâmica de servidores. Ele realiza periodicamente o mapeamento de máquinas virtuais para servidores físicos de forma a atender mudanças de demanda, enquanto utiliza um conjunto mínimo de recursos físicos para reduzir custos em consumo de energia. No entanto, redefinir o mapeamento pode exigir migrar máquinas virtuais entre servidores físicos, o que pode acabar atrasando a reconfiguração das máquinas virtuais para a nova capacidade. Este trabalho apresenta algoritmos normalmente utilizados para consolidação dinâmica de servidores e avalia o seu impacto na métrica de atraso de reconfiguração usando diferentes tipos de workloads reais e sintéticos. Um algoritmo para consolidação dinâmica de servidores que controla o atraso máximo de reconfiguração decorrente de um novo mapeamento é proposto. Os experimentos realizados com esse algoritmo demonstram que ele provê maior controle sobre atrasos de reconfiguração e possui baixo impacto na quantidade adicional de recursos necessários.
539

Desenvolvimento de um filtro de descritores moleculares geométricos para gerar um ranqueamento em banco de dados de ligantes

Quevedo, Christian Vahl January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:27Z (GMT). No. of bitstreams: 1 000435073-Texto+Completo-0.pdf: 3764608 bytes, checksum: 23d34083821e24bc00c6f737db4be5b8 (MD5) Previous issue date: 2011 / Public databases provide currently over 20 million ligands to users. In contrast, testing in silico with such a high volume of data is computationally very expensive, which demands the development of new solutions for reducing the number of ligands to be tested on their target receptors. However, there is no method to effectively reduce that high number in a manageable amount, thus becoming, as a major challenge of rational drug design. This work aims to develop a heuristic function to perform a virtual screening with available ligands, whose intention is to select the most promising candidates. The function is developed based on the geometry of the substrate of the receiver, filtering only the binder compatible with the cavity, derived from a fully flexible model of the receiver. To test the effectiveness of the proposed function a case study with the enzyme of Mycobacterium tuberculosis, InhA, is evaluated. The results of this filter improved the virtual screening using molecular docking, avoiding the testing of ligands that do not fit the substrate of the receptor binding pocket. / Bancos de dados de ligantes de acesso público oferecem atualmente mais de 20 milhões ligantes para os usuários. Em contrapartida, a realização de testes in silico com esse elevado volume de dados é computacionalmente muito custoso, que vem demandar o desenvolvimento de novas soluções para a redução do número de ligantes a ser testado em seus receptores alvo. No entanto, ainda não há método para efetivamente reduzir esse número elevado em um valor gerenciável, constituindo-se assim, um grande desafio do Planejamento Racional de Fármacos. Este trabalho tem o objetivo de desenvolver uma função heurística para realizar uma triagem virtual com ligantes disponíveis, cuja intenção é selecionar os candidatos mais promissores. A função desenvolvida é baseada na geometria da cavidade do substrato do receptor, filtrando apenas os ligantes compatíveis com esta cavidade considerando as variações 3D do modelo totalmente flexível do receptor. Para testar a eficácia da função proposta foram feitas duas avaliações utilizando como estudo de caso a enzima do Mycobacterium tuberculosis, a InhA. Os resultados obtidos deste filtro melhoraram o processo de triagem virtual, descartando a realização dos testes de docagem molecular dos ligantes que não se encaixam na cavidade do substrato do receptor.
540

Particionamento e mapeamento de MPSOCS homogêneos baseados em NOCS

Antunes, Eduardo de Brum January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:27Z (GMT). No. of bitstreams: 1 000437796-Texto+Completo-0.pdf: 2125944 bytes, checksum: 5e312ec4db3f55dac8ce8c7388128326 (MD5) Previous issue date: 2012 / The increasing complexity of the applications demands more processing capacity, which boosts the development of a computational system composed of modules, such as processors, memories and specific hardware cores, called Multi-Processor System-on- Chip (MPSoC). If the modules of this system are connected through a Network-on-Chip (NoC) communication infrastructure and all processors are of the same type, they are known by homogeneous NoC based MPSoC. One of the main problems relating to MPSoCs design is the definition of which processors of the system will be responsible for each application task execution, objecting to meet the design requirements, such as the energy consumption minimization and the application execution time reduction. This work aims to carry out quickly and efficiently partitioning and mapping activities for the design of homogeneous MPSoCs. More specifically, the partitioning application's task into groups, and mapping of tasks or task groups into a target architecture type homogeneous NoC-based MPSoC. These activities are guided by requirements of energy consumption minimization and load balancing, and delimited by constraints of maximum energy consumption, maximum processing load and maxima areas of data and code of each processor. The work shows the complexity of partitioning and mapping activities separately and jointly. It also shows that the mapping is more efficient on energy consumption minimization, when compared to partitioning, yet the effect of partitioning cannot be neglected. Moreover, the joint effect of both activities saves in average 37% of energy. The mapping when performed at runtime may be inefficient, due to the short time and the large number of solutions to be explored. Having an approach that applies a static partition before the dynamic mapping, it is possible to achieve more efficient mappings. It happens due to the fact that static task partition onto groups minimizes the search space of the mapping. Experiments with several synthetic applications and four embedded applications show that the energy consumption is reduced 23. 5%, in average. This paper presents the PALOMA framework that performs the partitioning of tasks onto groups and the CAFES framework to map these ones into tiles of the target architecture, where each position contains a processor. These activities enable planning systems with less energy consumption, faster and in an acceptable design time. / O aumento da complexidade das aplicações demanda maior capacidade de processamento, impulsionando o desenvolvimento de um sistema computacional compostos por módulos como processadores, memórias e núcleos de hardware específicos, chamado de Multi-Processor System-on-Chip (MPSoC). Se os módulos deste sistema forem conectados por uma infraestrutura de comunicação do tipo Network-on- Chip (NoC) e todos os processadores forem de um único tipo, este é chamado de MPSoC homogêneo baseado em NoC. Um dos principais problemas relativo ao projeto de MPSoCs é a definição de qual dos processadores do sistema será responsável pela execução de cada tarefa de uma aplicação, visando atender os requisitos de projeto, tais como a redução do consumo de energia e a redução do tempo de execução da aplicação. Este trabalho tem como objetivo a realização de forma rápida e eficiente das atividades de particionamento e mapeamento para o projeto de MPSoCs homogêneos. Mais especificamente o particionamento de tarefas de uma aplicação em grupos, e o mapeamento de tarefas ou grupos de tarefas em processadores homogêneos de uma arquitetura alvo do tipo MPSoC baseado em NoC. Sendo estas atividades guiadas por requisitos de redução do consumo de energia e balanceamento de carga, e delimitadas por restrições de máximo consumo de energia, máxima carga de processamento e máximas áreas de dados e código associadas a cada processador. O trabalho mostra a complexidade das atividades de particionamento e mapeamento, separadas e conjuntamente. Mostra também que o mapeamento é mais eficiente na redução de consumo de energia, quando comparado com o particionamento, mas mesmo assim o efeito do particionamento não pode ser negligenciado. Além disto, o efeito conjunto de ambas as atividades reduz em média 37% o consumo de energia.O mapeamento, quando realizado em tempo de execução, pode ser pouco eficiente, devido ao tempo exíguo e ao grande número de soluções a serem exploradas. Utilizando uma abordagem que aplica um particionamento estático anterior ao mapeamento dinâmico, permite obter mapeamentos mais eficientes. Isto porque o particionamento estático de tarefas em grupos reduz o espaço de busca que o mapeamento necessita realizar. Experimentos com várias aplicações sintéticas e quatro aplicações embarcadas mostram que a redução média do consumo de energia é de 23,5%. Este trabalho apresenta o framework PALOMA que realiza o particionamento de tarefas em grupos e o framework CAFES para fazer o mapeamento destes em posições da arquitetura alvo, onde cada posição contém um processador. Estas atividades permitem planejar sistemas com menor consumo de energia, mais velozes e em tempo de projeto aceitável.

Page generated in 0.025 seconds