• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 415
  • 41
  • Tagged with
  • 456
  • 456
  • 426
  • 372
  • 371
  • 371
  • 369
  • 368
  • 278
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Elevando a capacidade de integra??o de sistemas de Middleware RFID atrav?s do processamento de eventos complexos distribu?dos entre diferentes organiza??es e neg?cio

Amaral, Leonardo Albernaz 15 July 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:34Z (GMT). No. of bitstreams: 1 433739.pdf: 4343120 bytes, checksum: 6fb5a96a4ec12d9cbad8c22e5910447a (MD5) Previous issue date: 2011-07-15 / Com o passar dos anos a tecnologia RFID se tornou uma ?rea de pesquisa e desenvolvimento extremamente estimulante e de r?pida expans?o. Embora existam sofisticados sistemas de software para RFID, muitos destes sistemas existentes est?o baseados em tecnologias de middleware RFID com funcionalidades b?sicas de gerenciamento de dados de acordo com especifica??es do ALE (Eventos no N?vel de Aplica??o) segundo a EPCglobal. Estas funcionalidades do ALE agem como uma camada de integra??o entre dados RFID brutos (sem pr?vio processamento) e a l?gica da aplica??o. Nenhuma sem?ntica de neg?cio ? expressada nesta camada o que dificulta a contextualiza??o de eventos. Este problema ? considerado um gap tecnol?gico inerente ?s plataformas de middleware RFID que est?o baseadas nas especifica??es do ALE. Al?m das limita??es dos mecanismos convencionais para gerenciamento de dados de eventos RFID, especifica??es existentes para tecnologias de software RFID (EPC Network segundo a EPCglobal) apresentam desafios nos servi?os propostos para integra??o e compartilhamento de eventos entre diferentes organiza??es de neg?cio (ONS, DS e EPCIS). Tais servi?os n?o permitem a utiliza??o de esquemas de comunica??o indireta de eventos o que dificulta a detec??o de eventos complexos distribu?dos. Este trabalho apresenta um framework de software RFID cujo objetivo ? elevar a capacidade de integra??o interorganizacional de sistemas de middleware RFID atrav?s de mecanismos de CEP (Processamento de Eventos Complexos) que cooperam entre si por meio de servi?os de notifica??o de eventos. A tecnologia CEP ? integrada a um sistema de middleware RFID que implementa especifica??es do ALE. O framework baseia-se no conceito de rede de CEPs para processamento e notifica??o de eventos complexos distribu?dos. Cada nodo de processamento envolvido tem seu pr?prio mecanismo de CEP e a coopera??o entre nodos prov? um sistema de regras de neg?cio global que permite a decomposi??o e execu??o de regras de neg?cio em diferentes organiza??es. Este trabalho ? importante, pois, al?m de identificar limita??es e problemas das tecnologias atuais de software RFID, resultados experimentais obtidos atrav?s de testes do framework proposto demonstram que as abordagens utilizadas na constru??o do framework melhoram atividades de projeto e desenvolvimento de aplica??es RFID mantendo n?veis aceit?veis de desempenho do mecanismo de CEP utilizado. Quando comparado com os principais sistemas RFID existentes, o framework apresenta melhorias e cumpre com os principais requisitos, tanto de gerenciamento quanto de integra??o de dados de eventos RFID. Al?m disso, o framework agrega novas funcionalidades para integra??o, gerenciamento e compartilhamento de dados de eventos RFID
172

PSOA: um framework de pr?ticas e padr?es SOA para projetos DDS

Pereira, Marcelo Zilio 28 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:39Z (GMT). No. of bitstreams: 1 434651.pdf: 1984002 bytes, checksum: 609516108d15d3b415c70eb2d895bd71 (MD5) Previous issue date: 2011-03-28 / Diversas pesquisas t?m contribu?do para estabelecer a rela??o entre coordena??o de atividades e Arquitetura de Software em projetos com equipes distribu?das. Em um estudo qualitativo preliminar sobre a influ?ncia da Arquitetura de Software no Desenvolvimento Distribu?do de Software coletou-se informa??es de Engenheiros de Software de empresas envolvidas em projetos de Desenvolvimento Distribu?do de Software. Esse estudo exp?s a larga utiliza??o de arquiteturas orientadas a servi?o (SOA), indicando uma tend?ncia ao uso desse padr?o de arquitetura de baixo acoplamento por empresas que desenvolvem seus projetos de forma distribu?da. Estudos posteriores revelaram um conjunto de pr?ticas de desenvolvimento em SOA, utilizadas por essas empresas. Esse conjunto de pr?ticas foi organizado em um framework conceitual a partir do qual se realizou um experimento para comparar o esfor?o empregado no desenvolvimento de projetos DDS utilizando os conceitos desse framework, com o esfor?o sem a utiliza??o desses conceitos. Os resultados do experimento mostraram que utilizar as pr?ticas de desenvolvimento em SOA pode reduzir o esfor?o no desenvolvimento de projetos DDS que utilizam esse estilo arquitetural
173

Mapeamento din?mico de aplica??es para MPSOCS homog?neos

Mandelli, Marcelo Grandi 23 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:40Z (GMT). No. of bitstreams: 1 435006.pdf: 1798120 bytes, checksum: e9da2fa29967e8e1d389bc264f9b5bef (MD5) Previous issue date: 2011-03-23 / The advance in manufacturing technology of integrated circuits enables smaller transistors, making possible the development of SoCs (System-on-Chip). Many applications require multi-processor SoCs in order to meet their performance requirements. A SoC containing several processing elements (PEs) is called MPSoC. An MPSoC can be classified as homogeneous, when all their PEs has the same architecture; or heterogeneous, when they have different architectures. . As communication infrastructure, the MPSoC can use NoCs as a way to interconnect the PEs. NoCs may be used to replace busses, due to their advantages of higher scalability and communication parallelism. One of the main problems related to MPSoC projects is to define a PE of the system that will run each task. This problem is called task mapping. The mapping can be classified into static, which occurs at design time, and dynamic that occurs at runtime. The dynamic mapping approach requires firstly the mapping of the initial tasks of an application (which does not depend on any other task). The other tasks, in this approach, are mapped dynamically when requested. The mapping can be also classified by the number of tasks running in a PE. The mapping is classified as single task, when only one task is executed by a PE, and as multitask, when multiple tasks can be executed in a same PE. This work proposes new single task and multitask dynamic task mapping heuristics, in order to reduce communication energy. Results are evaluated using the MPSoC HeMPS, which executes application code generated from a model-based simulation environment. These heuristics are compared with mapping heuristic presented in literature, obtaining, in the evaluated scenarios, an average communication energy reduction of 9.8%, for the single task approach, and 18.6%, for the multitask approach. This work also evaluates the inclusion of dynamic load on the system, which makes necessary the implementation of an initial tasks mapping heuristic. This heuristic is an innovative contribution, since a similar approach is not found in any other work in literature. / O avan?o na tecnologia de fabrica??o de circuitos integrados permite obter transistores cada vez menores, tornando poss?vel o desenvolvimento de sistemas completos em um ?nico chip (System-on-Chip - SoC). Muitas aplica??es requerem SoCs com v?rios processadores para poder suprir seus requisitos de desempenho. Um SoC que cont?m diversos elementos de processamento (Processing Element - PEs) ? chamado de MPSoC. Um MPSoC pode ser classificado em homog?neo, quando todos seus PEs s?o iguais; ou heterog?neo, quando seus PEs s?o diferentes. Como infraestrutura de comunica??o, o MPSoC pode utilizar NoCs como forma de interconectar os PEs. O uso de NoCs deve-se a suas vantagens em rela??o a barramentos, entre as quais maior escalabilidade e paralelismo na comunica??o. Um dos principais problemas relativos ao projeto de MPSoCs ? a defini??o de qual dos PEs do sistema ser? respons?vel pela execu??o de cada tarefa de uma aplica??o. Este problema ? chamado de mapeamento de tarefas. O mapeamento pode ser classificado em est?tico, que ocorre em tempo de projeto, ou em din?mico que ocorre em tempo de execu??o. A abordagem de mapeamento din?mico requer primeiramente o mapeamento de tarefas iniciais de uma aplica??o (que n?o dependem de nenhuma outra tarefa) das aplica??es, sendo que as outras tarefas s?o mapeadas dinamicamente quando solicitadas. Tamb?m se pode classificar o mapeamento quanto ao n?mero de tarefas que executam em um PE do sistema. O mapeamento ? dito monotarefa, quando apenas uma tarefa ? executada por PE, e multitarefa, quando m?ltiplas tarefas podem ser executadas em um mesmo PE. Este trabalho prop?e novas heur?sticas de mapeamento din?mico monotarefa e multitarefa, visando ? redu??o de energia de comunica??o. Resultados s?o avaliados atrav?s do MPSoC HeMPS, que executa c?digos de aplica??es geradas a partir de um ambiente de simula??o baseado em modelos. Estas heur?sticas s?o comparadas com heur?sticas de mapeamento apresentadas na literatura, apresentando uma redu??o m?dia de energia de comunica??o nos cen?rios avaliados de at? 9,8% na abordagem monotarefa e 18,6% na multitarefa. Este trabalho tamb?m avalia a inser??o din?mica de carga no sistema, utilizando para isto a implementa??o de uma heur?stica de mapeamento din?mico de tarefas iniciais. Esta heur?stica ? uma contribui??o inovadora, visto que uma abordagem parecida n?o ? encontrada em nenhum outro trabalho da literatura.
174

Desenvolvimento de um filtro de descritores moleculares geom?tricos para gerar um ranqueamento em banco de dados de ligantes

Quevedo, Christian Vahl 23 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:40Z (GMT). No. of bitstreams: 1 435073.pdf: 3764608 bytes, checksum: 23d34083821e24bc00c6f737db4be5b8 (MD5) Previous issue date: 2011-03-23 / Bancos de dados de ligantes de acesso p?blico oferecem atualmente mais de 20 milh?es ligantes para os usu?rios. Em contrapartida, a realiza??o de testes in silico com esse elevado volume de dados ? computacionalmente muito custoso, que vem demandar o desenvolvimento de novas solu??es para a redu??o do n?mero de ligantes a ser testado em seus receptores alvo. No entanto, ainda n?o h? m?todo para efetivamente reduzir esse n?mero elevado em um valor gerenci?vel, constituindo-se assim, um grande desafio do Planejamento Racional de F?rmacos. Este trabalho tem o objetivo de desenvolver uma fun??o heur?stica para realizar uma triagem virtual com ligantes dispon?veis, cuja inten??o ? selecionar os candidatos mais promissores. A fun??o desenvolvida ? baseada na geometria da cavidade do substrato do receptor, filtrando apenas os ligantes compat?veis com esta cavidade considerando as varia??es 3D do modelo totalmente flex?vel do receptor. Para testar a efic?cia da fun??o proposta foram feitas duas avalia??es utilizando como estudo de caso a enzima do Mycobacterium tuberculosis, a InhA. Os resultados obtidos deste filtro melhoraram o processo de triagem virtual, descartando a realiza??o dos testes de docagem molecular dos ligantes que n?o se encaixam na cavidade do substrato do receptor.
175

Modelo para suportar a atualiza??o e consist?ncia de requisitos em processos de manuten??o de software

Belleza, Luciana Mesquita 18 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:41Z (GMT). No. of bitstreams: 1 435657.pdf: 3785156 bytes, checksum: 2a6a2c74bb198ad7ec9dca9005145e97 (MD5) Previous issue date: 2011-03-18 / The maintenance and software evolution demands a high cost to the organizations. One of the reasons for this high cost is the lack of documentation. The requirements represent an important way of documenting the software. Very commonly the requirements are not updated after the end of the software development project. The requirements are not updated during the maintenance phase. The purpose of this research is to propose a solution to the problem of keeping the software application requirements up to date and consistent during the software maintenance process. The solution is represented by a requirements management model that supports the updating and consistency of the requirements during the maintenance. This model is formed by a Conceptual Model, that represents the concepts involved in the problem and how they are related to each other in order that it is possible to reach the purpose, consistency rules, and a process to track the versions of the requirements. The results are presented through examples, illustrating various possible scenarios, using the prototype developed based on the proposed model. The main contribution of this research is a model that helps to maintain the software requirements up to date and consistent along the maintenance process, besides to help on the impact analysis of change requests. / A manuten??o e evolu??o do software demanda um custo muito alto das organiza??es. Um dos motivos para este alto custo ? a falta de documenta??o. Os requisitos representam um dos principais meios de documenta??o do software. Geralmente os requisitos n?o s?o atualizados depois do t?rmino do desenvolvimento do software, ou seja, n?o s?o atualizados durante a fase de manuten??o. O objetivo desta pesquisa ? propor uma solu??o para o problema de manter os requisitos de aplica??es de software atualizados e consistentes ao longo de processos de manuten??o. A solu??o consiste em um modelo de ger?ncia de requisitos que suporta a atualiza??o e consist?ncia dos requisitos ao longo de processo de manuten??o. Este modelo ? constitu?do por um Modelo Conceitual, representando os conceitos envolvidos no problema e como eles devem estar relacionados para que seja poss?vel alcan?ar o objetivo, regras de consist?ncia, e um mecanismo de versionamento dos requisitos. Os resultados s?o demonstrados atrav?s de exemplos, ilustrando os diversos cen?rios poss?veis, utilizando um prot?tipo desenvolvido a partir do modelo proposto. A principal contribui??o deste trabalho ? um modelo que auxilie a manter os requisitos de software atualizados e consistentes ao longo de processos de manuten??o, al?m de auxiliar na an?lise de impacto das requisi??es de mudan?a.
176

Processos de constru??o autom?tica de tesauro

Granada, Roger Leitzke 29 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:42Z (GMT). No. of bitstreams: 1 437178.pdf: 938995 bytes, checksum: 7f4e4a024eb9af218b4ff88670a9ca88 (MD5) Previous issue date: 2011-03-29 / The advances in technology have made the amount of information available in digital format increase rapidly. This increase reflects on the importance of efficient systems to Information Retrieval (IR), getting the right information when it's requested by users. Thesauri can be associated with IR systems, allowing the system to query not only by the key term, but also by related terms, obtaining related documents that were not retrieved. The manual construction, long and costly process that gave rise to the first thesaurus, shall be performed automatically, using different methods and processes available today. With this motivation, this dissertation proposes to study three cases of automatic thesauri construction. One method uses statistical techniques to identify the best related terms. Another method uses syntactic knowledge, being necessary to extract, besides the grammatical categories of each term, the relations that a verb have with its subject or object. The latter method makes use of syntactic knowledge and semantic knowledge of the terms, identifying non apparent relations. For this, this latter method uses an adaptation of the Latent Semantic Analysis technique. We developed three methods for automatic thesaurus construction using documents from the field of data privacy. The results were applied to an IR system, allowing the evaluation by domain experts. In conclusion, we observed that, in certain cases, it's better to apply techniques that do not use semantic knowledge of the terms, obtaining better results with methods that use only the syntactic knowledge of them. / Com o progresso da tecnologia, a quantidade de informa??o dispon?vel em formato digital tem aumentado rapidamente. Esse aumento se reflete na crescente import?ncia de sistemas de Recupera??o de Informa??es (RI) eficientes, obtendo as informa??es corretas quando requisitadas pelos usu?rios. Tesauros podem ser associados a sistemas de RI, permitindo que o sistema realize consultas n?o apenas pelo termo-chave, mas tamb?m por termos relacionados, obtendo documentos relacionados, que antes n?o eram recuperados. A cria??o manual, processo longo e oneroso que dava origem aos primeiros tesauros, passa a ser realizada automaticamente, atrav?s de diferentes m?todos e processos dispon?veis atualmente. Com esta motiva??o, este trabalho prop?e estudar tr?s processos de constru??o autom?tica de tesauros. Um m?todo utiliza t?cnicas estat?sticas para a identifica??o dos melhores termos relacionados. Outro m?todo utiliza conhecimento sint?tico, sendo necess?rio extrair, al?m das categorias gramaticais de cada termo, as rela??es que um verbo tem com seu sujeito ou objeto. O ?ltimo m?todo faz a utiliza??o de conhecimento sint?tico e de conhecimento sem?ntico dos termos, identificando rela??es que n?o s?o aparentes. Para isso, esse ?ltimo m?todo utiliza uma adapta??o da t?cnica de An?lise Sem?ntica Latente. Foram desenvolvidos estes tr?s m?todos de gera??o tesauros a partir de documentos do dom?nio de privacidade de dados. Os resultados foram aplicados a um sistema de RI, permitindo a avalia??o por especialistas do dom?nio. Como conclus?o, observamos que, em determinados casos, ? melhor a aplica??o de t?cnicas que n?o utilizem conhecimento sem?ntico dos termos, obtendo melhores resultados com m?todos que utilizam apenas o conhecimento sint?tico dos mesmos.
177

Particionamento e mapeamento de MPSOCS homog?neos baseados em NOCS

Antunes, Eduardo de Brum 29 February 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:42Z (GMT). No. of bitstreams: 1 437796.pdf: 2125944 bytes, checksum: 5e312ec4db3f55dac8ce8c7388128326 (MD5) Previous issue date: 2012-02-29 / The increasing complexity of the applications demands more processing capacity, which boosts the development of a computational system composed of modules, such as processors, memories and specific hardware cores, called Multi-Processor System-on- Chip (MPSoC). If the modules of this system are connected through a Network-on-Chip (NoC) communication infrastructure and all processors are of the same type, they are known by homogeneous NoC based MPSoC. One of the main problems relating to MPSoCs design is the definition of which processors of the system will be responsible for each application task execution, objecting to meet the design requirements, such as the energy consumption minimization and the application execution time reduction. This work aims to carry out quickly and efficiently partitioning and mapping activities for the design of homogeneous MPSoCs. More specifically, the partitioning application's task into groups, and mapping of tasks or task groups into a target architecture type homogeneous NoC-based MPSoC. These activities are guided by requirements of energy consumption minimization and load balancing, and delimited by constraints of maximum energy consumption, maximum processing load and maxima areas of data and code of each processor. The work shows the complexity of partitioning and mapping activities separately and jointly. It also shows that the mapping is more efficient on energy consumption minimization, when compared to partitioning, yet the effect of partitioning cannot be neglected. Moreover, the joint effect of both activities saves in average 37% of energy. The mapping when performed at runtime may be inefficient, due to the short time and the large number of solutions to be explored. Having an approach that applies a static partition before the dynamic mapping, it is possible to achieve more efficient mappings / O aumento da complexidade das aplica??es demanda maior capacidade de processamento, impulsionando o desenvolvimento de um sistema computacional compostos por m?dulos como processadores, mem?rias e n?cleos de hardware espec?ficos, chamado de Multi-Processor System-on-Chip (MPSoC). Se os m?dulos deste sistema forem conectados por uma infraestrutura de comunica??o do tipo Network-on- Chip (NoC) e todos os processadores forem de um ?nico tipo, este ? chamado de MPSoC homog?neo baseado em NoC. Um dos principais problemas relativo ao projeto de MPSoCs ? a defini??o de qual dos processadores do sistema ser? respons?vel pela execu??o de cada tarefa de uma aplica??o, visando atender os requisitos de projeto, tais como a redu??o do consumo de energia e a redu??o do tempo de execu??o da aplica??o. Este trabalho tem como objetivo a realiza??o de forma r?pida e eficiente das atividades de particionamento e mapeamento para o projeto de MPSoCs homog?neos. Mais especificamente o particionamento de tarefas de uma aplica??o em grupos, e o mapeamento de tarefas ou grupos de tarefas em processadores homog?neos de uma arquitetura alvo do tipo MPSoC baseado em NoC. Sendo estas atividades guiadas por requisitos de redu??o do consumo de energia e balanceamento de carga, e delimitadas por restri??es de m?ximo consumo de energia, m?xima carga de processamento e m?ximas ?reas de dados e c?digo associadas a cada processador. O trabalho mostra a complexidade das atividades de particionamento e mapeamento, separadas e conjuntamente. Mostra tamb?m que o mapeamento ? mais eficiente na redu??o de consumo de energia, quando comparado com o particionamento, mas mesmo assim o efeito do particionamento n?o pode ser negligenciado. Al?m disto, o efeito conjunto de ambas as atividades reduz em m?dia 37% o consumo de energia. O mapeamento, quando realizado em tempo de execu??o, pode ser pouco eficiente, devido ao tempo ex?guo e ao grande n?mero de solu??es a serem exploradas. Utilizando uma abordagem que aplica um particionamento est?tico anterior ao mapeamento din?mico, permite obter mapeamentos mais eficientes. Isto porque o particionamento est?tico de tarefas em grupos reduz o espa?o de busca que o mapeamento necessita realizar. Experimentos com v?rias aplica??es sint?ticas e quatro aplica??es embarcadas mostram que a redu??o m?dia do consumo de energia ? de 23,5%. Este trabalho apresenta o framework PALOMA que realiza o particionamento de tarefas em grupos e o framework CAFES para fazer o mapeamento destes em posi??es da arquitetura alvo, onde cada posi??o cont?m um processador. Estas atividades permitem planejar sistemas com menor consumo de energia, mais velozes e em tempo de projeto aceit?vel
178

MIBCIS II - processo integrado de gerenciamento quantitativo para melhoria de processos

Romeu, Leonardo da Silva 30 April 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:43Z (GMT). No. of bitstreams: 1 437797.pdf: 3742513 bytes, checksum: 02894ca627a412c4bb787f711e1f4e25 (MD5) Previous issue date: 2009-04-30 / Quality is nowadays the biggest concern in all human activities areas and it could not be different on the information system area, more specifically on software development. During the last years there have been many discussions about poor quality and low productivity in worldwide software industry which reflects on customer dissatisfaction and financial losses of huge proportions. In this context, defining methodologies to discipline the software development process is a critical factor of success. Besides that, process improvement mechanisms are also needed to allow organizational growth and achievement of performance optimization. The goal of this master thesis is to propose a process of quantitative management for process improvement. This proposal aims to contribute to the software engineering area through the specification of an integrated process among BSC, CMMI and Six Sigma using a proper tool to define processes. Besides, this study shows new empirical data an also aims to contribute to software engineering through applying qualitative research methods. Empirical data were obtained from a case study conducted in a software development organization located in Brazil. / A qualidade ? hoje o grande motivador em todas as ?reas da atividade humana e n?o poderia ser diferente na ?rea de sistemas de informa??o, mais especificamente no desenvolvimento de software. Atualmente ? muito discutido acerca da baixa qualidade e produtividade da ind?stria mundial de software, refletindo na insatisfa??o dos seus usu?rios e em preju?zos financeiros de enormes propor??es. Neste contexto, a defini??o de metodologias para disciplinar o processo de desenvolvimento de software ? fator cr?tico de sucesso para as organiza??es. Al?m disso, s?o necess?rios mecanismos de melhoria de processos para permitir a evolu??o das organiza??es que buscam n?veis ?timos de desempenho. Nesse sentido, esta disserta??o de mestrado tem como objetivo propor um processo de gerenciamento quantitativo para melhoria de processos. Esta proposta visa contribuir para ?rea de engenharia de software atrav?s da especifica??o de um processo de integra??o entre BSC, CMMI e Six Sigma utilizando uma ferramenta pr?pria para defini??o de processos. Al?m disso, este estudo apresenta novos dados emp?ricos e busca contribuir tamb?m para a pesquisa na ?rea de engenharia de software, atrav?s do emprego de m?todos qualitativos de pesquisa cient?fica. Os dados emp?ricos da pesquisa foram obtidos atrav?s de estudo de caso realizado em uma empresa de desenvolvimento de software localizada no Brasil.
179

Estrat?gias de paraleliza??o para renderiza??o de documentos XSL-FO com uso da ferramenta FOP

Zambon, Rog?rio Timmers 27 January 2006 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1 387162.pdf: 6010910 bytes, checksum: 801b7923a4a58c8368c1c2595915b829 (MD5) Previous issue date: 2006-01-27 / Grandes volumes de trabalho para impress?o s?o cada vez mais comuns devido ao aumento da demanda por documentos personalizados. Neste contexto, Impress?o de Dados Vari?veis (Variable Data Printing - VDP) tornou-se uma ferramenta muito ?til para profissionais de marketing que necessitam personalizar mensagens para cada cliente em materiais promocionais e campanhas de publicidade. VDP permite a cria??o de documentos baseados em um modelo (template) contendo partes est?ticas e vari?veis. A ferramenta de renderiza??o deve ser capaz de transformar a parte vari?vel em um formato composto, ou PDL (Page Description Language) tais como PDF (Portable Document Format), PS (PostScript) ou SVG (Scalable Vector Graphics). A quantidade de conte?do vari?vel em um documento? totalmente dependente do modelo (layout) da publica??o definido por um profissional da ?rea. Al?m disso, o conte?do vari?vel a ser renderizado pode variar de acordo com os dados lidos do banco de dados. Desta forma, este processo? chamado repetidamente e pode tornar-se facilmente um gargalo, especialmente em um ambiente de produ??o comprometendo inteiramente a gera??o de um documento. Neste cen?rio, t?cnicas de alto desempenho aparecem como uma interessante alternativa para aumentar o rendimento da fase de renderiza??o. Este trabalho introduz uma solu??o paralela port?vel e escal?vel para a ferramenta de renderiza??o chamada FOP (Formatting Objects Processor), a qual ? usada para renderizar o conte?do vari?vel expresso em linguagem XSL-FO (eXtensible Stylesheet Language-Formatting Obects).
180

FReMI: a middleware to handle molecular docking simulations of fully-flexible receptor models in HPC environments

De Paris, Renata 12 April 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1 438211.pdf: 1765612 bytes, checksum: c7adb8a9601c78a38e044070d6b5568e (MD5) Previous issue date: 2012-04-12 / Simula??es de docagem molecular de modelos de receptores totalmente flex?veis (Fully-Flexible Receptor - FFR) est?o se tornando cada vez mais frequentes. Entretanto, tais simula??es exigem alto n?vel de processamento e sua execu??o sequencial pode se tornar uma tarefa impratic?vel. Este trabalho apresenta um middleware, chamado Middleware de Receptores Flex?vel (Flexible Receptor Middleware FReMI), que auxilia a reduzir o tempo total de execu??o nas simula??es de docagem molecular de receptores totalmente flex?veis. FReMI manipula uma quantidade intensiva de dados e tarefas para executar a triagem virtual de modelos de receptores totalmente flex?veis, e prov? interoperabilidade entre o web workflow de docagem de receptores flex?veis (Web Fully-flexible Docking Workflow - W-FReDoW) e dois diferentes ambientes de alto desempenho (High Performance Computing HPC). FReMI utiliza protocolos de internet para comunicar com o W-FReDoW , o qual auxilia na redu??o da dimens?o do modelo FFR por meio de um padr?o de dados. Al?m disso, FReMI envia tarefas de simula??es de docagem para serem executadas em um cluster dedicado e tamb?m em um alternativo modelo de cluster virtual constru?do por meio de nuvens de computadores el?sticos da Amazon (Amazon s Elastic Compute Cloud EC2). Os resultados apresentam uma arquitetura conceitual do FReMI e dois conjuntos de experimentos a partir da execu??o do FReMI. O primeiro conjunto relatou os experimentos realizados com FReMI, usando uma amostra de snapshots a partir de um modelo FFR e os dois ambientes HPC. O segundo conjunto descreveu os experimentos, com um conjunto de dados completo, executando FReMI e W-FReDoW apenas em um ambiente de cluster MPI constru?do com as inst?ncias da Amazon EC2. Os resultados do ?ltimo conjunto de experimentos apresentaram uma redu??o na dimensionalidade do modelo FFR, transformando ele um modelo de receptor flex?vel totalmente reduzido (Reduced Fully-Flexible Receptor Model RFFR), por meio do descarte de conforma??es n?o promissoras identificadas pelo W-FReDoW. Al?m disso, a redu??o do tempo total de execu??o do FReMI com o W-FReDoW foi entre 10 a 30% a partir da execu??o separada do FReMI, e de aproximadamente 94% do FReMI a partir da sua respectiva execu??o sequencial. / Molecular docking simulations of Fully-Flexible Protein Receptor (FFR) models are coming of age. However, they are computer intensive and their sequential execution can became an unfeasible task. This study presents a middleware, called Flexible Receptor Middleware (FReMI), to assist in faster docking simulations of flexible receptors. FReMI handles intensive tasks and data of totally fully-flexible receptor models in virtual screening and, provides the interoperability between a Web Fully-flexible Docking Workflow (W-FReDoW) and two different High Performance Computing (HPC) environments. FReMI uses internet protocols to communicate with W-FReDoW which helps to reduce the FFR model dimension with a data pattern. Also it sends tasks of docking simulations to execute in a HPC of dedicated cluster and; an alternative model of virtual cluster built on Amazon s Elastic Compute Cloud (EC2). The results are the FReMI conceptual architecture and two sets of experiments from execution of the FReMI. The first set reports the experiments performed with FReMI using a sample of snapshots from a FFR model on both HPC environments. The second one describes the experiments, on the complete data set, performed with FReMI and W-FReDoW shared execution in a MPI cluster environment on Amazon EC2 instances only. The last set of experiments results shows a reduction of the FFR model dimensionality, transforming it into a Reduced Fully-Flexible Receptor (RFFR) model, by discarding the non-promising conformations generated by W-FReDoW. It also reduces the total execution time to between 10-30% of that of FReMI s only execution, which, in turn, decreased near 94% with respect to the serial execution.

Page generated in 0.0204 seconds